PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41

dargo
2022-09-20, 19:56:18
Die paar Spiele ohne DLSS(+RT) zeigen doch, dass es da irgendwo massive Probleme zu geben scheint. Wenn in UHD teilweise nur +50% herauskommen, dann limitert da irgendwas extrem hart.
Ich würde hier CPU-Limit vermuten. Nur wäre dann die Wahl der Spiele von NV schon sehr dämlich wenn die CPU limitiert hatte.

Ex3cut3r
2022-09-20, 19:56:33
Das ist fast das Einzige. Grafisch vergleichbare Spiele existieren aktuell nicht, weil alles andere viel schlechter ist.




Siehe ab 16:30 Minuten

https://youtu.be/pC25ambD8vs?t=990

Das scheint noch die 1.1 Version sein, was für das Datum der Veröffentlichung des Videos auch spricht. Das wurde garantiert verändert. Psycho bietet stand heute keinen Mehrwert. Aber gut.

TurricanM3
2022-09-20, 19:57:09
Mal kurz reingeschaut hier und mir ist direkt wieder klar geworden, warum ich kaum noch unterwegs bin hier. Diese ganze negative Energie, in erster Linie wieder nur Gemeckere, über Preise oder was weiß ich. Ganz normaler Launch halt. :hammer:

Ex3cut3r
2022-09-20, 19:58:41
Joa. Entschuldige bitte unsere Armut. ;D

Dural
2022-09-20, 19:59:38
Das größte Rätsel ist ja nach wie vor die deutlich höhere Rohrleistung der 4090 gegenüber 4080 in Verbindung der Leistungsangabe.

Drei karten, drei gpus, drei si...

Ich versteh es nicht.

crux2005
2022-09-20, 20:02:41
hast du dein video nicht gesehen? https://youtu.be/qyGWFI1cuZQ?t=77

Doch. Verstehe nicht worauf du hinaus willst?

Linmoum
2022-09-20, 20:03:15
Mal kurz reingeschaut hier und mir ist direkt wieder klar geworden, warum ich kaum noch unterwegs bin hier. Diese ganze negative Energie, in erster Linie wieder nur Gemeckere, über Preise oder was weiß ich. Ganz normaler Launch halt. :hammer:Gibt diejenigen, die realistisch sind. Und diejenigen, die alles geil finden und kritiklos schlucken.

Ehrlich jetzt aber mal, wer hier bei den Preisen ruhig bleibt, der macht irgendwas falsch. Selbst im Luxx brennt - relativ gesehen - die Hütte. Völlig zurecht, das ist einfach komplett albern was Nvidia hier abzieht.

Eine xx70 kostet jetzt $899. Das ist für dich "negative Energie"? Wtf?

Geldmann3
2022-09-20, 20:03:54
Eigentlich enttäuschend, um die gebotenen Daten mal herunterzubrechen.

Unter ,,fairen Bedingungen" ist die RTX 4090 nur 55% schneller als die RTX 3090 Ti.

https://pbs.twimg.com/media/FdHgKhRXgAEkkNJ?format=jpg&name=large (https://twitter.com/perschistence/status/1572284630568517636/photo/1)

AMD wird Nvidia in Sachen Rasterizing diesmal in die Tasche stecken.

Neurosphere
2022-09-20, 20:04:19
Das größte Rätsel ist ja nach wie vor die deutlich höhere Rohrleistung der 4090 gegenüber 4080 in Verbindung der Leistungsangabe.

Drei karten, drei gpus, drei si...

Ich versteh es nicht.


Nur solange man bei den 320 Watt für die 4080 bleibt. Evtl. sind es aber doch mehr. Bei 400 zu 450 Watt kommt man zumindest langsam in den Nachvollziehbaren Bereich.

Edith sagt, war dumm, sie 320 Watt stehen auch im Datenblatt.

Matrix316
2022-09-20, 20:04:29
Wenn die Karten dann wenigstens für den Preis erhältlich wären... ;D

Dural
2022-09-20, 20:06:34
Die einfachste Lösung wäre das die 4090 den Takt bei den 450w nicht halten kann, und die Rohrleistung real klar tiefer liegt.

Sollte das zutreffen wäre ich von ada schon entäuscht.

dildo4u
2022-09-20, 20:06:38
Eigentlich enttäuschend, um die gebotenen Daten mal herunterzubrechen:

https://pbs.twimg.com/media/FdHgKhRXgAEkkNJ?format=jpg&name=large (https://twitter.com/perschistence/status/1572284630568517636/photo/1)

AMD wird Nvidia in Sachen Rasterizing diesmal in die Tasche stecken.
AMD hat auch nur +50% Performance per Watt versprochen das passt zu den Benches die 3090 TI nimmt 450 Watt vergleichbar mit der 4080 12GB 285 Watt.

Meridian12
2022-09-20, 20:07:28
Die bewerben die neue Generation mit einem verbesserten Upscaler? Größter fail ever!


Die neue Generation ist halt zu langsam. Die braucht halt upscaling um gut dazustehen :freak::freak:

crux2005
2022-09-20, 20:07:43
Da dürfte es eigentlich keinen rationalen Grund für geben. DP 2.0 sollte doch schon vollständig in HW Anwendbar sein oder gibt es da noch Hindernisse?

Zwischen HDMI 2.1 und DP 2.0 liegt immerhin die knapp vierfache Bandbreite!

Kein DP 2.0? LULZ


Burner::biggrin:

https://pbs.twimg.com/media/FdHOpbJaIAActus?format=jpg&name=large!

;D

Ah ok, also nVidia mach bei DLSS 3.0 aus einem berechneten Frame mehrere und gibt die Zeitversetz aus bis der nächste echte berechnete Frame kommt damit einfach nur die FPS Anzeige höher ist? Mega beschiss, aber scheinbar braucht nVidia das... Da hatten sie die GPU auch Lance Armstrong nennen können:rolleyes:

MMD! :D

gedi
2022-09-20, 20:08:41
Nur mal langsam... die 3090TI säuft 450W, die 4080 "nur" 320W obwohl sie schneller ist. Das ist kein schlechtes Ergebnis! Bei gleicher Performance dürfte die 4080 unter 300W rauskommen.

Eine 3090Ti mit 360w läuft definitiv max. 2% unter dem 450w-Level! Messbar ja, spürbar never ever! Dann habe ich last Gen, welche eine 4080 12GB in most cases outperformed! Anders ausgedrückt, ist eine 7600XT das gleiche Level zu einer 6900XT, nur mit einem massivem RT- Impact!

Ex3cut3r
2022-09-20, 20:14:11
Eigentlich enttäuschend, um die gebotenen Daten mal herunterzubrechen.

Unter ,,fairen Bedingungen" ist die RTX 4090 nur 55% schneller als die RTX 3090 Ti.

https://pbs.twimg.com/media/FdHgKhRXgAEkkNJ?format=jpg&name=large (https://twitter.com/perschistence/status/1572284630568517636/photo/1)

AMD wird Nvidia in Sachen Rasterizing diesmal in die Tasche stecken.


Wenn Nvidia schon selber angibt, das in 2 Spielen die 4080 12GB unter einer 3090 Ti ist, dann löst das für richtige Reviews nicht grade Freuden Sprünge aus, vor allem nicht zu diesen Preisen. :freak:

Kann schon gut sein, das eine 4080 12GB nur 10-20% schneller ist, als meine 3080 Ti mit 12GB. In Raster Only Spielen natürlich.

RDNA3 dürfte IHMO die bessere Wahl sein, kaum zu glauben, dass ich das gerade gesagt habe. ;D

fondness
2022-09-20, 20:14:44
AMD hat auch nur +50% Performance per Watt versprochen das passt zu den Benches die 3090 TI nimmt 450 Watt vergleichbar mit der 4080 12GB 285 Watt.

Doppelte perf per Watt im Vergleich zur extrem ineffizienten 3090Ti ist aber auch witzlos. Ergo das Ding ist doppelt so schnell wie eine 3090Ti thats it. Ein hypothetischer amd Chip mit 60% mehr perf per Watt wie eine 6970 bei 450 Watt wäre schneller.

BlacKi
2022-09-20, 20:15:56
Eigentlich enttäuschend, um die gebotenen Daten mal herunterzubrechen.

Unter ,,fairen Bedingungen" ist die RTX 4090 nur 55% schneller als die RTX 3090 Ti.

[/URL][URL]https://pbs.twimg.com/media/FdHgKhRXgAEkkNJ?format=jpg&name=large (https://twitter.com/perschistence/status/1572284630568517636/photo/1)

AMD wird Nvidia in Sachen Rasterizing diesmal in die Tasche stecken.die benchmarks stinken, aber nicht weil zuviel leistung gezeigt wird, sondern weil irgendwas limitiert und die echte leistung nicht gezeigt wird.


wie gesagt, die leistungen innerhalb der 4000er gen sind nicht logisch erklärbar. warum soll die 4090 nur grob 20% schneller sein als die 4080 16gb, bei fast doppelter rechenleistung. wenn du mir das erklären kannst, dann würde ich den bench ernst nehmen. ansonsten ist er von nv dumm gewählt, amdler sprechen hier vom sandbagging:biggrin:

leute, die TSE werte sind nicht fake und haben kein dlss.

Troyan
2022-09-20, 20:18:24
Soso.

Ganz ehrlich alles andere als Medium RTGI ist Verschwendung.

Wo ist der Unterschied hier zwischen Psycho und Medium? Ich sage es dir. Im FPS Verlust.
Jetzt mal im ernst, was bildest du dir da eigentlich ein mit Psycho Setting? Da ist kein visueller Unterschied, bzw. muss er sehr sehr klein sein.

https://abload.de/thumb/cyberpunk2077_2022_09ovi7e.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09ovi7e.jpg) https://abload.de/thumb/cyberpunk2077_2022_09dxepj.jpg (https://abload.de/image.php?img=cyberpunk2077_2022_09dxepj.jpg)

Mit Pyscho gibt es Raytracing-GI. Die Unterschiede sind minimal, aber wenn man die Leistung hat. Why not.

dargo
2022-09-20, 20:21:30
AMD hat auch nur +50% Performance per Watt versprochen...
Verteile hier keine Fake News. AMD hat gar nichts versprochen, es heißt weiterhin >50% perf/W.

Meridian12
2022-09-20, 20:21:46
Wann genau kann man denn mit richtigen Tests rechnen? Die in der Präsentation sind ja eher für den Popo.

Neurosphere
2022-09-20, 20:22:07
leute, die TSE werte sind nicht fake und haben kein dlss.

Die Umstände unter denen die Werte enstanden sind weiß man aber auch nicht.

Vielleicht wollte NV einfach nicht erkennen lassen das 450 Watt für die große Ada einfach nicht genug sind.

Jupiter
2022-09-20, 20:23:26
AMD wird Nvidia in Sachen Rasterizing diesmal in die Tasche stecken.


Bei Rasterrizer mit DLSS hat der Spieler ohnehin meist über 60 BpS in UHD. Da braucht es momentan nicht mehr so viel Leistung.

Dazu ist die Bildrate in The Division 2 laut Nvidia-Grafik dennoch 60 bis 70 % höher als bei der RTX 3090 Ti

Troyan
2022-09-20, 20:27:49
Wann genau kann man denn mit richtigen Tests rechnen? Die in der Präsentation sind ja eher für den Popo.

DigitalFoundry hat schon eine. Gut, war bei Ampere auch so, aber ich denke nicht, dass die drei Wochen Zeit haben werden... Wenn nVidia überzeugt ist, dann vielleicht wieder eine Woche früher wie bei Ampere.

Sunrise
2022-09-20, 20:30:18
DigitalFoundry hat schon eine. Gut, war bei Ampere auch so, aber ich denke nicht, dass die drei Wochen Zeit haben werden... Wenn nVidia überzeugt ist, dann vielleicht wieder eine Woche früher wie bei Ampere.
Ja, auf DF warte ich auch… die machen echt gute informative Review-Videos.

Der_Korken
2022-09-20, 20:30:24
Ou man, auf die habe ich mich besonders gefreut, aber so :( :

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-3-768x353.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-1-768x396.jpg

https://cdn.videocardz.com/1/2022/09/ASUS-ROG-STRIX-RTX4090-2-768x354.jpg

Vielleicht kühlt sie zumindest anständig.

Wie es aussieht haben die aber das PCB möglichst kurz gehalten, damit auch tatsächlich Luft nach oben durchgepustet werden kann. Das finde ich bei den üblichen Triple-Fan-Designs so furchtbar, wenn der gesamte Heißluftstrom nach vorne raus und gegen das MB geleitet wird.

In ein paar Jahren werden wir die Grafikkarte nicht mehr in den PC einbauen, sondern den PC in die Grafikkarte.

Genau das gleiche dachte ich mir, als ich das Bild gesehen habe. Während die Technik immer kleiner und sparsamer wird, entwickeln sich Grakas in die entgegengesetzte Richtung. Immerhin sinds bei der FE keine 600W geworden.

Bezüglich DLSS 3: Für Zwischenbildberechnung steigt die Eingabelatenz zu sehr an und wenn ich einfach anhand der bisherigen Frames in die Zukunft extrapoliere, dann wird das Bild sehr komisch aussehen, wenn der Spieler eine unvorhergesehene Eingabe tätigt. Angenommen man dreht sich nach rechts und die GPU extrapoliert die Drehung ein halbes Frame in die Zukunft, um dort daraus ein Zwischenframe zu schätzen. Dreht sich der Spieler plötzlich nach links, dann ist das Bild winkeltechnisch nicht nur 1 Frame hinten dran (weil es den berechnen muss), sondern 1,5 Frames, weil das Zwischenframe eine Drehung anzeigt, die es nie gab. Das würde sich bestimmt sehr komisch anfühlen.

Andere Idee wäre aber folgende: Angenommen die GPU schafft nur 50fps, die CPU aber locker 100. Könnte die GPU der CPU dann nicht vorgaukeln, sie wäre bereits nach 10ms und nicht erst nach 20ms bereit für das nächste Frame, nur dass sie dieses Zwischenframe nicht wirklich berechnet, sondern aus der Vergangenheit plus den Usereingaben schätzt? Es wird sicher schwer anhand der Eingabe zu erkennen wie man nun extrapolieren muss, aber man würde zumindest nicht weiter in die "falsche" Richtung extrapolieren, weil man die Änderung der User-Eingabe ja sieht. Das wirft natürlich dann auch wieder Framepacing-Fragen auf, aber vielleicht ist das der richtige Ansatz, auf den DLSS 3 baut.

BlacKi
2022-09-20, 20:41:14
Bezüglich DLSS 3: Für Zwischenbildberechnung steigt die Eingabelatenz zu sehr an


vl gibts das nur in verbindung mit nv reflex. dann wäre das halb so wild. dann würde sich 8k120fps immernoch deutlich besser anfühlen als ohne reflex mit 60hz.


klar, im competitive multiplayer wird das nichts taugen.

es wurde schon erwähnt, das man so cpu limits umgehen will. umgekehrt, könnte es auch cpu verbrauch einsparen.

Jupiter
2022-09-20, 20:47:39
Bezüglich DLSS 3: Für Zwischenbildberechnung steigt die Eingabelatenz zu sehr an und wenn ich einfach anhand der bisherigen Frames in die Zukunft extrapoliere, dann wird das Bild sehr komisch aussehen, wenn der Spieler eine unvorhergesehene Eingabe tätigt. Angenommen man dreht sich nach rechts und die GPU extrapoliert die Drehung ein halbes Frame in die Zukunft, um dort daraus ein Zwischenframe zu schätzen. Dreht sich der Spieler plötzlich nach links, dann ist das Bild winkeltechnisch nicht nur 1 Frame hinten dran (weil es den berechnen muss), sondern 1,5 Frames, weil das Zwischenframe eine Drehung anzeigt, die es nie gab. Das würde sich bestimmt sehr komisch anfühlen.

Andere Idee wäre aber folgende: Angenommen die GPU schafft nur 50fps, die CPU aber locker 100. Könnte die GPU der CPU dann nicht vorgaukeln, sie wäre bereits nach 10ms und nicht erst nach 20ms bereit für das nächste Frame, nur dass sie dieses Zwischenframe nicht wirklich berechnet, sondern aus der Vergangenheit plus den Usereingaben schätzt? Es wird sicher schwer anhand der Eingabe zu erkennen wie man nun extrapolieren muss, aber man würde zumindest nicht weiter in die "falsche" Richtung extrapolieren, weil man die Änderung der User-Eingabe ja sieht. Das wirft natürlich dann auch wieder Framepacing-Fragen auf, aber vielleicht ist das der richtige Ansatz, auf den DLSS 3 baut.

DLSS3 soll keine Zwischenbildberechnung sein. Es verwendet bewegungsvektoren.


No latency, no interpolation. Optical flow is the same as motion vectors - between the previous frame and the current frame - but it's based on image comparison, not engine-provided motion information.
It can find motion that is impossible to compute (moving shadows,reflections).
https://twitter.com/BartWronsk/status/1572249913005641730?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1572249 913005641730%7Ctwgr%5Efa291bcd80ffc3d08cfd35c8fb00bdd53d5a2204%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-ada-speculation-rumours-and-discussion.62474%2Fpage-66

Ex3cut3r
2022-09-20, 20:49:17
Optical Flow kannst du mit SVP für Videos/Filme ab Turing nutzen. Warum DLSS 3 nun auf Ampere oder Turing nicht gehen soll, da muss ich wohl auf eine angebliche Nvidia Erklärung warten. ;D

https://www.svp-team.com/

Ich bin aber sowieso kein Freund vom Frame Doubling, auch SVP habe ich gekündigt, hat einfach trotzdem zu viel Artefakte.

gedi
2022-09-20, 20:51:43
AMD hat auch nur +50% Performance per Watt versprochen das passt zu den Benches die 3090 TI nimmt 450 Watt vergleichbar mit der 4080 12GB 285 Watt.

>50%, was heißt auch 70, 100, 200 .. sind ein uplift von mehr als 50!

Neurosphere
2022-09-20, 20:52:27
DLSS3 soll keine Zwischenbildberechnung sein. Es verwendet bewegungsvektoren.



https://twitter.com/BartWronsk/status/1572249913005641730?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1572249 913005641730%7Ctwgr%5Efa291bcd80ffc3d08cfd35c8fb00bdd53d5a2204%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-ada-speculation-rumours-and-discussion.62474%2Fpage-66

Auch wenn die Technik eine andere ist, zu Berechnung müssen doch trotzdem schon die Informationen vom nächsten Bild vorliegen?

BlacKi
2022-09-20, 20:53:30
was dlss3 betrifft: wenn die grafikkarte die eingabe(M+T) abfängt, könnte sie auch ohne cpu und ohne inputlag ein zusätliches bild berechnen.

Sardaukar.nsn
2022-09-20, 20:54:32
Ein großes Problem sehe ich darin das man aktuell Hardware verkaufen möchte, aber es keine neue Software gibt.

So wie ich die Videos sehe ist der key-selling-point immer noch Cyberpunk 2077. https://www.youtube.com/watch?v=spq0jSWRCqI

Persönlich habe ich CP2077 sehr gemocht, und mir dafür auch Weihnachten 2020 eine 3080 Suprim unter den Baum gelegt. Aber die Romanze mit Panam und der Kampf mit Adam Smasher sind inzwischen zwei Jahre her. Neue GPU kaufen und dann alten Wein aus neuen Schläuchen spielen? Eher nein.

Meiner Meinung fehlt für diese GPU Generation das große Spiel bzw. Software. Bei den Konsolen hieß das in der Vergangenheit oft "system seller".

Ex3cut3r
2022-09-20, 20:59:11
Guter Punkt. Sardaukar.nsn

CP77 habe ich hier auch zu geüge gespielt, für mich auch ab 3080 Ti auf 1440p und DLSS Q mit RT ausreichend schnell, 70 FPS+

Ich möchte ab Oktober Uncharted spielen, da braucht man sicherlich keine RTX 4090. :freak:

Troyan
2022-09-20, 20:59:19
Naja, wenn du nicht gerade alle Raytracing-Spiele schon durchgezockt hast, gibt es einiges an Auswahl:
Control, Guardians, Metro EE, F1 22 (21), haufenweise Indie-Spiele mit Raytracing etc.

Grendizer
2022-09-20, 21:03:51
Findest du das das irgendein grosses "Muss" man Spielen dabei ist. Das habe ich mir auch bei den 35 DLSS 3.0 Spielen schon so gedacht.

F1 2022 zocke ich schon die ganze Zeit ohne RTX und wenn ich mir Videos anschaue verpasse ich das jetzt nicht soviel, aber gut wäre schön wenn man es anmachen könnte. Aber das Problem ist irgendwie immernoch, das nix so richtig geiles da ist, für das ich bereit wäre 1.500 Euro für RTX On auszugeben.

Ende es Jahres kommt WoW Dragonflight mit RTX ... aber auch das nicht für 1.500 Euro

Ex3cut3r
2022-09-20, 21:04:19
Naja, wenn du nicht gerade alle Raytracing-Spiele schon durchgezockt hast, gibt es einiges an Auswahl:
Control, Guardians, Metro EE, F1 22 (21), haufenweise Indie-Spiele mit Raytracing etc.
Auch die alten Schinken habe ich schon so oft angeworfen, die hängen mir aus dem Halse raus. ^^

Ich warten auf Plague Tale 2 und Uncharted und im Dezember auf diesen Dead Space Klon (Namen vergessen) In 1440p (mit oder ohne DLSS) sehe ich da für mich keinen Engpass.

herbert_
2022-09-20, 21:04:36
Ich denke, wir müssen uns damit abfinden, dass nVidia langsam das Interesse an Gaming verliert. Zu 90% gings nur um Omniverse und Cloud.

Das fühlt sich alles nach Abfallprodukt der professionellen Schiene an, wo rohe Raytraycing Performance mit Latency = Egal King ist.

Lurtz
2022-09-20, 21:07:24
Ein großes Problem sehe ich darin das man aktuell Hardware verkaufen möchte, aber es keine neue Software gibt.

So wie ich die Videos sehe ist der key-selling-point immer noch Cyberpunk 2077. https://www.youtube.com/watch?v=spq0jSWRCqI

Persönlich habe ich CP2077 sehr gemocht, und mir dafür auch Weihnachten 2020 eine 3080 Suprim unter den Baum gelegt. Aber die Romanze mit Panam und der Kampf mit Adam Smasher sind inzwischen zwei Jahre her. Neue GPU kaufen und dann alten Wein aus neuen Schläuchen spielen? Eher nein.

Meiner Meinung fehlt für diese GPU Generation das große Spiel bzw. Software. Bei den Konsolen hieß das in der Vergangenheit oft "system seller".
Das dachte ich mir auch. Wieso vierstellig für eine GPU zahlen, wenn der einzige große Showcase dann ein zwei Jahre altes Spiel ist, das mit vernünftiger VRAM-Ausstattung auch jetzt schon ok mit RT läuft.

Für Portal RTX und die üblichen Konsolenportierungen, die was RT angeht eh nicht Gas geben können? ;D

Radeonfreak
2022-09-20, 21:07:31
Ich warten auf Plague Tale 2 und Uncharted und im Dezember auf diesen Dead Space Klon (Namen vergessen) In 1440p (mit oder ohne DLSS) sehe ich da für mich keinen Engpass.

Callisto protocol.

Naja, ich werd mir die 4090 holen und CP 77 auf jeden Fall noch mal durchspielen. Hab ich nur ein mal vor 2 Jahren und auf der 2080 TI war das manchmal doch behäbig.

just4FunTA
2022-09-20, 21:08:32
Ein großes Problem sehe ich darin das man aktuell Hardware verkaufen möchte, aber es keine neue Software gibt.

So wie ich die Videos sehe ist der key-selling-point immer noch Cyberpunk 2077. https://www.youtube.com/watch?v=spq0jSWRCqI

Persönlich habe ich CP2077 sehr gemocht, und mir dafür auch Weihnachten 2020 eine 3080 Suprim unter den Baum gelegt. Aber die Romanze mit Panam und der Kampf mit Adam Smasher sind inzwischen zwei Jahre her. Neue GPU kaufen und dann alten Wein aus neuen Schläuchen spielen? Eher nein.

Meiner Meinung fehlt für diese GPU Generation das große Spiel bzw. Software. Bei den Konsolen hieß das in der Vergangenheit oft "system seller".

stimmt schon diese Generation läuft sehr schleppend an, früher hatte man sowas wie Crysis und für mich war auch Battlefield ein Systemseller aber das ist dieses Jahr leider gefloppt, sonst wäre eine verdopplung der FPS Grund genug zum aufrüsten.

Vielleicht kann das neue Forza Motorsport überraschen.

unl34shed
2022-09-20, 21:15:50
Auch wenn die Technik eine andere ist, zu Berechnung müssen doch trotzdem schon die Informationen vom nächsten Bild vorliegen?

Technisch korrekt ist es wohl keine Zwischenbildberechnung (Interpolation) sondern eine Estimation für zukünftige Bilder. Lag dürfte es daher auch nicht verursachen, da es nur auf die letzen x Frames zugreift und daraus die Motionvektoren berechnet.

Ein Geschmäckle hat es allerdings schon, wenn man im Prinzip nur damit die Performance einer neue Generation an Grafikkarten verkaufen will.

crux2005
2022-09-20, 21:20:03
Zusammenfassung:

3tZ01ymHZEs

Geldmann3
2022-09-20, 21:20:19
Wie vor über einem halben Jahr von mir vermutet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12928046#post12928046)...


Außerdem braucht Nvidia gar nicht die Rohleistungs-Krone, wenn sie mit DLSS 3.0 einen Framerate-Multiplikator in der Hinterhand haben. ;)
Bringt dann nicht mehr soo viel in Games.

DLSS 3.0 könnte man theoretisch in 2 Modi einführen, einem Performance und einem Low-Latency-Mode.
Der Performance Modus könnte in allen Games funktionieren, sorgt allerdings für mehr Artefakte, zusätzliche Input-Latenz und beherrscht ,,nur" eine Verdopplung der Framerate.
Der Low-Latency Mode muss von Developern in Games implementiert werden, wie es bisher der Fall ist. Beherrscht dafür dank der Motion-Vektoren aber bis zu einer Vervierfachung der Framerate und verursacht keine zusätzliche Latenz, da nicht auf den nächsten Frame gewartet werden muss, sondern approximiert wird.

Schaut euch an, was Nvidia schon jetzt mit nur ein paar Bildern in 2 Sekunden Trainingszeit (https://www.youtube.com/watch?v=j8tMk-GE8hY) erzielen kann.

Kann mir jedoch auch vorstellen, dass das VIELLEICHT nur mit Lovelace gehen wird, eventuell muss man das in die Hardware backen.
Die bisherigen, normalen Tensor-Cores haben bereits genug mit DLSS 2.3 zu tun.

Wie damals vermutet, geht es nur mit Lovelace.


Wie schonmal geschrieben, die Motion Vektoren müssen nicht in die Zukunft schauen, die Zukunft steht schon fest.

Schritt 1: GPU beginnt den folgenden ,,echten" Frame zu rendern. (Dafür muss sie schon genau wissen wie dieser Aussieht, sonst könnte sie ihn nicht rendern, bis hierhin KANN sich nichts mehr ändern!" Völlig egal was der Nutzer jetzt eingibt oder was sich in der Game-Engine intern ändert. Die Änderung kommt sowieso frühestens im übernächsten ,,echten" Frame an.)
Schritt 2: Während die GPU also bereits den nächsten Hauptframe rendert, kennt die Zwischenbildberechnung nun bereits die Position aller Objekte jetzt und die Position aller Objekte im kommenden, echten Frame. Da die GPU schon angefangen hat diesen zu rendern, kann sich dort nichts mehr ändern. Es müssen keine Bewegungen vorhergesehen werden, die es noch nicht gibt, denn auch der nächste Frame liegt sowieso immer in der Vergangenheit!
Schritt 3: Das Zwischenbild wird ausgegeben, in dem sich alles in der Mitte zwischen Frame 1 und Frame 2 befindet. So wie bei simpler Motion-Reprojection + AI Cleanup.
Schritt 4: Der nächste ,,echte" Frame wird ausgegeben.
usw...

Angenommen in Frame 1 trifft der Ball auf einen Pfosten und in Frame 2 ist dieser bereits wieder davon abgeprallt und auf dem Rückweg zum Spieler.
Klar, das könnte man nicht extrapolieren. Doch wie häufig passiert sowas?
(Ließe sich eines Tages auch lösen, indem man die Motion Vektoren intern schneller aktualisiert als nur einmal jeden Frame, (Von der Physik-Engine) doch lasst uns für den Anfang mal nicht zu viel fordern.)

Das ist kaum vergleichbar mit SVP. Das keine 3D Motion Vektoren geliefert bekommt. SVP versucht zwar selbst diese zu ermitteln, das ist aber niemals ansatzweise so präzise, wie von einer Spieleengine selbst geliefert.

FastAndy
2022-09-20, 21:31:15
Der performance sprung ist ja beachtlich!!
Dlss 3 exklusiv kann ich nachvollziehen, die wollen halt verkaufen, logisch - alles andere wäre unternehmerisch dumm.

Gibt diejenigen, die realistisch sind. Und diejenigen, die alles geil finden und kritiklos schlucken.

Ehrlich jetzt aber mal, wer hier bei den Preisen ruhig bleibt, der macht irgendwas falsch. Selbst im Luxx brennt - relativ gesehen - die Hütte. Völlig zurecht, das ist einfach komplett albern was Nvidia hier abzieht.

Eine xx70 kostet jetzt $899. Das ist für dich "negative Energie"? Wtf?
Wegen einer dummen grafikkarte aufregen? ;D
Realistisch gesehen braucht niemand eine solche GPU. Unnötiger luxusartikel, genau wie ein 1500 euro smartphone
Energiekosten, da verstehe ich das, aber sicher keinem zockerscheiss...:rolleyes:

Jupiter
2022-09-20, 21:33:32
Wie vor über einem halben Jahr von mir vermutet (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12928046#post12928046)...



Das ist kaum vergleichbar mit SVP. Das keine 3D Motion Vektoren geliefert bekommt. SVP versucht zwar selbst diese zu ermitteln, das ist aber niemals ansatzweise so präzise, wie von einer Spieleengine selbst geliefert.

Sehr gut gemacht. Spannend, wie viel Rechenleistung sich durch intelligente Verfahren sparen lässt. Mit DLSS und Raytracing kann die Grafikqualität im Vergleich zur gegen Ende hin stagnierenden 2013 bis 2020-Ära exponentiell gesteigert werden. Interlacing war dagegen nicht zu gebrauchen.

Mancko
2022-09-20, 21:34:32
Ab wann ist eigentlich mit Reviews zu rechnen?

SamLombardo
2022-09-20, 21:36:11
Auch die alten Schinken habe ich schon so oft angeworfen, die hängen mir aus dem Halse raus. ^^

Ich warten auf Plague Tale 2 und Uncharted und im Dezember auf diesen Dead Space Klon (Namen vergessen) In 1440p (mit oder ohne DLSS) sehe ich da für mich keinen Engpass.
Es sind doch "massig" Unreal Engine 5 Spiele in der Pipline. Das wird schon in den nächsten Monaten.

crux2005
2022-09-20, 21:36:58
Es sind doch "massig" Unreal Engine 5 Spiele in der Pipline. Das wird schon in den nächsten Monaten.

Frühestens 2.Q 2023. Eher später.

Neurosphere
2022-09-20, 21:37:47
Ab wann ist eigentlich mit Reviews zu rechnen?

Vermutlich erst kurz vor oder zum Release.

Auf jedem Fall it diese Gen nochmehr als die Letzte die Generation der Backsteine.

sapito
2022-09-20, 21:39:52
LOL


https://www.nvidia.com/de-de/geforce/graphics-cards/40-series/rtx-4080/

https://pbs.twimg.com/media/FdHajHWXEAA7efA?format=jpg&name=medium

QUERSCHLÄGER
2022-09-20, 21:48:52
Können sie sich in den Arsch-Slot schieben =).

gnomi
2022-09-20, 21:50:00
Die Preise sind doch etwas höher als erwartet.
Performance ist schon super. So nicht. Allerdings gibt es kaum mehr Vergleichbarkeit mit DLSS in verschiedenen Versionen.
Die kleine Karte ist eher ne etwas schnellere 3080TI mit neuen Features.
Zukünftig wird man bei RT also mit Ampere die Regler bedienen müssen.

Mich persönlich überzeugt nur die Große.
Denke aber, dass mir das Gaming Hobby nicht mehr so wichtig ist.
Gefühlt habe ich auch noch zwei Dutzend aktueller nicht zu Ende gespielter Games.
Und jedes davon läuft auf Ampere mit RT und DLSS in 3440*1440 mit über 60 fps. Oftmals sind auch 80-120fps keine Seltenheit.
Ich frage mich wirklich, was es noch bringen soll.
Außerdem war Ampere auch zu teuer, um jetzt schon zu wechseln.
Ich versuche wohl ne Generation auszusetzen.
Ärgere mich sowieso noch wegen des vierstelligen Preises, weil ich an die 3080 zum Launch nicht ran kam.
Habe vorher immer 350-600 Euro seit Geforce 1 gekauft.
Na ja. Ist ja jetzt scheinbar Standard.

Neurosphere
2022-09-20, 21:50:39
Technisch korrekt ist es wohl keine Zwischenbildberechnung (Interpolation) sondern eine Estimation für zukünftige Bilder. Lag dürfte es daher auch nicht verursachen, da es nur auf die letzen x Frames zugreift und daraus die Motionvektoren berechnet.

Ein Geschmäckle hat es allerdings schon, wenn man im Prinzip nur damit die Performance einer neue Generation an Grafikkarten verkaufen will.

Ah, danke. Jetzt verstehe ich auch wie das mit den Vektoren gemeint war.

Bin gespannt wie die Qualität dann am Ende ist.

Platos
2022-09-20, 21:52:22
Jo... bin auch momentan zufrieden mit meinen alten Games. Einzig der Stromverbrauch unter Niedriglast stört mich bei meinem PC, aber das liegt nicht an der GPU.

Bei dem Scheiss werde ich wohl erneut 2 Jahre warten bzw. jetzt mal erstmal abwarten, was amd bringt und hoffen.

Timbaloo
2022-09-20, 21:58:00
Mir wär das alles ja scheißegal, aber die Lüfter der 970 werden so langsam schwach :ulol:

Gut, den Sommer haben sie überlebt, da war ich schon arg skeptisch ;D

ChaosTM
2022-09-20, 22:00:49
DLSS3 ist das einzig wirklich positive an dem launch wenns so funkt wie es soll. 4080er mir 12gigs - really ? - warum nennt man die nicht gleich 4700.. (weil die nur 8 Gigs kiegt) :D

RTRT Performance boost ist nett, gibt nur kaum Spiele wo ma wirklich was sieht. (scnr)

Daredevil
2022-09-20, 22:02:35
Die Karte ist doch Safe noch dicker geworden als die 3090!!! :ugly:
Somit sollten 450w auch relativ leise abgeführt werden können.
https://youtu.be/H5soCA5SQD0

Tomahawk
2022-09-20, 22:02:59
Was können wir festhalten?
Performance? Wir wissen nicht mehr als zuvor. Die Leaks waren aussagekräftiger als nVidias Folien
Preise? 4090 wie erwartet, 4080 ein ganzes Stück teurer als angenommen.
Was war noch? nVidia hat viel an RT und DLSS gearbeitet.

Das Gute daran ist, dass man sich wirklich auf die Reviews freuen kann. Viel schlauer als vor der Präsentation ist man nämlich nicht.

Platos
2022-09-20, 22:04:47
Das einzige, was positiv an Ada ist, ist DLSS 3.0. Das scheint wirklich sehr geil zu sein.

Das wars dann...

Mir wär das alles ja scheißegal, aber die Lüfter der 970 werden so langsam schwach :ulol:

Gut, den Sommer haben sie überlebt, da war ich schon arg skeptisch ;D

Kann man die Untervolten und Übertakten (gleichzeitig) ? Weil dann könntest du probieren das Teil passiv zu betreiben (semi-passiv mit Gehäuselüfter).

Sardaukar.nsn
2022-09-20, 22:06:32
Verdammt!

Ich hatte es schon vermutet das sowas kommt, aber jetzt ging es doch sehr schnell. Inno3D + Alphacool bringen eine ultra-kompakte 4090 direkt zum Start. Da könnte ich echt schwach werden.

https://cdn.videocardz.com/1/2022/09/Persepective-1_videocardz.jpg

https://cdn.videocardz.com/1/2022/09/Back-1_videocardz.jpg

ChaosTM
2022-09-20, 22:06:46
4090er semi passive wird eine gewisse Herausforderung ;)

Troyan
2022-09-20, 22:09:14
Die Karte ist doch Safe noch dicker geworden als die 3090!!! :ugly:
Somit sollten 450w auch relativ leise abgeführt werden können.
https://youtu.be/H5soCA5SQD0

3090 hat 350W. Wie sehen die Kühler der 3090Ti aus?!

Timbaloo
2022-09-20, 22:09:35
Was war noch? nVidia hat viel an RT und DLSS gearbeitet.
Gut, das war ja irgendwie zu erwarten. Bei Rasterization ist irgendwie der Punkt erreicht, dass man mit jeder Generation noch groß was holen kann. Breiter skaliert nicht wirklich, höhere Frequenzen kosten Effizienz. RT als nächster Schritt ist die logische Konsequenz, AI-Upscaling/Filtering/etc hilft auch.

Mal schauen was von AMD kommt. Wunder werde ich auch da nicht erwarten. Ich habe die Hoffnung, dass sie bei RT überraschen werden, aber mehr als Bauchgefühlt gibt's nicht.

Ex3cut3r
2022-09-20, 22:11:11
Frühestens 2.Q 2023. Eher später.
Unreal Engine 5 Spiele, joa irgedwann Q1 2024.

;D Bis dahin gibt es schon (fast) den Ada Nachfolger. Von daher völlig Wumpe. (Für mich jedenfalls)

Daredevil
2022-09-20, 22:12:47
3090 hat 350W. Wie sehen die Kühler der 3090Ti aus?!
Die 3090ti nutzt den 3090 Kühler, weswegen der auch "überfordert" war.

Hier mal meine 3090:
https://abload.de/img/img_0029jvkoh.jpeg

Hier die 4090:
https://abload.de/img/bildschirmfoto2022-09z6dfy.png

Was ein Bus. ;D
Sind nochmal 0.5 bis 1 Slot mehr, oder sieht das nur so aus?

Timbaloo
2022-09-20, 22:13:07
Kann man die Untervolten und Übertakten (gleichzeitig) ? Weil dann könntest du probieren das Teil passiv zu betreiben (semi-passiv mit Gehäuselüfter).
Das fang ich sicher nicht mehr an. Jetzt mit den niedrigen Temperaturen ist es auch wieder unkritisch, aber im Hochsommer (vor 22:00 hab ich eh nicht gezockt) war halt teilweise Fliegeralarm bei den Lüftern angesagt ;D

Eigentlich wollte ich sie ja mal auseinanderbauen und den Kühler durchsaugen, aber wenn sie dabei die Hufe hoch macht, dann hab ich ja erst den Salat und muss notkaufen :rolleyes:

Ex3cut3r
2022-09-20, 22:15:04
@ DD Nein sieht wahrlich nochmal dicker aus.

Also ohne Stütze wurde ich das Ding diesmal aber nicht verbauen.

Daredevil
2022-09-20, 22:15:50
Ne Stütze brauchst du bei dem Design nicht. Die Kühlkonstruktion biegt sich keinen Millimeter, das ist einfach ein riesiger Block Alu, der an der Slotblende befestigt ist.

crux2005
2022-09-20, 22:17:02
Was ein Bus. ;D
Sind nochmal 0.5 bis 1 Slot mehr, oder sieht das nur so aus?

0,5 Slot mehr anhand der Bilder.

Und ein Z690 EVGA MB. Skurill.

Unreal Engine 5 Spiele, joa irgedwann Q1 2024.

Gab ja welche die haben ende 2022 schon welche erwartet. :D

Ex3cut3r
2022-09-20, 22:18:09
Ne Stütze brauchst du bei dem Design nicht. Die Kühlkonstruktion biegt sich keinen Millimeter, das ist einfach ein riesiger Block Alu, der an der Slotblende befestigt ist.

Musst du wissen, dein PCIe Slot wurde es dir danken.

aufkrawall
2022-09-20, 22:21:12
Was können wir festhalten?
Performance? Wir wissen nicht mehr als zuvor. Die Leaks waren aussagekräftiger als nVidias Folien

Die lausigen +50% in AC Valhalla der 4090 gegenüber der 3080 Ti sind eine riesige Enttäuschung.
Dürfte auch nichts mit CPU-Limit zu tun haben, bevor einer unqualifiziert rumquakt. Sieht eher wie Ampere 2.0 aus...

Troyan
2022-09-20, 22:23:35
608mm^2 und 76 Milliarden Transistoren: https://videocardz.com/newz/nvidia-details-ad102-gpu-up-to-18432-cuda-cores-76-3b-transistors-and-608-mm%c2%b2

crux2005
2022-09-20, 22:25:08
Ehm. Mal als Erinnerung. Bei dem Ampere Launch dick von RTX I/O geredet. Gab es dazu irgendwas beim Ada Talk? Oder ist Direct Storage schon tot bevor es überhaupt veröffentlicht wurde. :confused:

Die lausigen +50% in AC Valhalla der 4090 gegenüber der 3080 Ti sind eine riesige Enttäuschung.
Dürfte auch nichts mit CPU-Limit zu tun haben, bevor einer unqualifiziert rumquakt. Sieht eher wie Ampere 2.0 aus...

Mirage wird falls sie keinen Deal machen (wie bei WatchDogs_Legion) auch nicht besser laufen. :down:

608mm^2 und 76 Milliarden Transistoren: https://videocardz.com/newz/nvidia-details-ad102-gpu-up-to-18432-cuda-cores-76-3b-transistors-and-608-mm%c2%b2

1400 ist also nicht die Anzahl der Tensor cores sondern die Leistung. Das hat mich echt überrascht wie sie auf so eine Runde Zahlt kamen. :freak:

HOT
2022-09-20, 22:27:30
608mm^2 und 76 Milliarden Transistoren: https://videocardz.com/newz/nvidia-details-ad102-gpu-up-to-18432-cuda-cores-76-3b-transistors-and-608-mm%c2%b2
Das Teil unterstützt echt nur PCIe4.0 :freak:. Da lagen die Leaker auch richtig.
125Mio/mm² könnte ziemlich dicht gepackt sein für einen N5/4 HPC Prozess.

Ravenhearth
2022-09-20, 22:34:14
Seh ich das richtig? Laut Nvidias eigenen Benchmarks ohne DLSS 3 ist die 4090 grob 60% schneller als die 3090 Ti, die 4080 16GB etwa 20% und die 4080 12GB leicht langsamer?

Damit wäre die 4090 ca. 70% schneller als ihr direkter Vorgänger, die große 4080 knapp 30% besser als die 3080 Ti zum gleichen MSRP und die kleine 4080 keine 20% über der 3080 12GB. Wenn sich das fortsetzt, kostet die 4070 mit 10GB dann $699 und ist genauso schnell wie die 3080. :freak:

Ex3cut3r
2022-09-20, 22:35:35
Ja siehst du richtig. Wenn Nvidia schon selber sagt, dass die 4080 12GB langsamer sein kann als die RTX 3090 Ti, dann mach dich mal auf die "richtigen" Benches gefasst.

Tatsächlich könnte die RTX 4080 12GB Version oft nur 3080Ti/3090 Leistung in Raster Spielen erreichen. Mit DLSS 3 und/oder RT geht dann erst die Post ab...laut Nvidia selber.

Troyan
2022-09-20, 22:37:42
1400 ist also nicht die Anzahl der Tensor cores sondern die Leistung. Das hat mich echt überrascht wie sie auf so eine Runde Zahlt kamen. :freak:

Nennt sich "Kreativität". Man hat einfach auf höhere zehnerpotenz aufgerundet. Sind ja auch keine 90 TFLOPs, sondern 83 TFLOPs mit dem Boost-Takt.:cool:

HOT
2022-09-20, 22:40:28
Ach ja, nicht nur PCIe4, sondern auch kein DP2.0 sondern nur DP1.4, das wird immer besser :freak:...

Platos
2022-09-20, 22:45:10
Ach ja, nicht nur PCIe4, sondern auch kein DP2.0 sondern nur DP1.4, das wird immer besser :freak:...

Naja wüsste nicht, warum die Karte mit 16 Lanes PCIE 5.0 bräuchte.

Aber dp1.4 ist hald schwach

Ex3cut3r
2022-09-20, 22:46:12
Und was genau ist daran schwach bitte ausführlicher? DP 1.4 mit DSC reicht für 4K mit 240HZ SDR oder mit HDR, Full RGB @ 120 HZ

Matrix316
2022-09-20, 22:46:12
Wieso hat man bei der 4080 so am Speicherinterface geknausert? 256 Bit bei 16 GB und nur 192 bei 12? Die 3080 selbst mit nur 10 GB ist da deutlich stärker.

Vielleicht lohnt sich aktuell eine 3090 für 1200 Euro mehr als auf eine 4080 zu warten... :uponder:

Troyan
2022-09-20, 22:47:27
Wieso hat man bei der 4080 so am Speicherinterface geknausert? 256 Bit bei 16 GB und nur 192 bei 12? Die 3080 selbst mit nur 10 GB ist da deutlich stärker.

Vielleicht lohnt sich aktuell eine 3090 für 1200 Euro mehr als auf eine 4080 zu warten... :uponder:

Lovelace soll angeblich genug L2 Cache haben. Aber hierzu gab es nur eine Aussage der neuen RTX 6000 Karte.

Tomahawk
2022-09-20, 22:48:13
Mir gehen die erhöhten Preise nicht aus dem Kopf. Kann es sein, dass nVidia die Preise bewusst (zu) hoch gesetzt hat, damit Ampere-Karten parallel verkauft werden können (auch GA102-Karten)? Wenn die Lager geleert sind, dann wird nVidia die Preise der 4080er Modelle nach unten korrigieren.

crux2005
2022-09-20, 22:50:34
Mir gehen die erhöhten Preise nicht aus dem Kopf. Kann es sein, dass nVidia die Preise bewusst (zu) hoch gesetzt hat, damit Ampere-Karten parallel verkauft werden können (auch GA102-Karten)? Wenn die Lager geleert sind, dann wird nVidia die Preise der 4080er Modelle nach unten korrigieren.

Vielleicht. Oder dank DLSS 3.0 sind sie "langlebiger". Oder Jensen hat sich gedacht sie haben genug Marktmacht.

Das Teil unterstützt echt nur PCIe4.0 :freak:. Da lagen die Leaker auch richtig.

Und? Reicht doch.

Ravenhearth
2022-09-20, 22:51:04
Technisch finde ich Lovelace allerdings wirklich interessant, neben DLSS 3.0 insbesondere das Shader Execution Reordering. Stark durchzuschlagen scheint das bisher allerdings nicht :redface:

Si|encer
2022-09-20, 22:52:51
Die Preise sind absurd...1100 € für eine Graka mit 192 Bit Anbindung in 2022 ? Der soll mal besseren Shit rauchen.

Troyan
2022-09-20, 22:53:48
Mir gehen die erhöhten Preise nicht aus dem Kopf. Kann es sein, dass nVidia die Preise bewusst (zu) hoch gesetzt hat, damit Ampere-Karten parallel verkauft werden können (auch GA102-Karten)? Wenn die Lager geleert sind, dann wird nVidia die Preise der 4080er Modelle nach unten korrigieren.

4nm kosten ~3x(+) mehr als Samsungs 8nm Prozess. Selbst wenn nVidia die Chipgröße halbiert, kostet der Chip 33% mehr. Da der Chip kleiner ist, lässen sich zwar mehr verwenden, aber im Grunde kostet AD104 genauso viel wie GA102.

ChaosTM
2022-09-20, 22:54:34
Würde mich nicht wundern, wenn ein paar Wochen/Monate nach dem launch DLSS 3.0 auch auf der 3er Serie laufen würde.

Dural
2022-09-20, 22:54:46
Die Rohdaten sind von einem ad102 full, den es derzeit nicht gibt.

Reine Raster Leistung interessiert im Jahr 2023 doch kein Mensch mehr, da ist dlss3 und rt schon klar wichtiger.

Daredevil
2022-09-20, 22:55:16
Mir gehen die erhöhten Preise nicht aus dem Kopf. Kann es sein, dass nVidia die Preise bewusst (zu) hoch gesetzt hat, damit Ampere-Karten parallel verkauft werden können (auch GA102-Karten)? Wenn die Lager geleert sind, dann wird nVidia die Preise der 4080er Modelle nach unten korrigieren.
Vielleicht darf man auch nicht vergessen, das 8nm Samsung im Gegensatz zu 7nm TSMC vielleicht auch einfach sehr günstig gewesen ist, oder?
Die europäischen Preise würde ich an der Stelle eh ausklammern, da jedwede Preiserhöhung der Weltwirtschaft zu Grunde liegt.
Wenn ne 4090 in 4nm TSMC nen Hund mehr kostet als eine 3090 in 8nm Samsung, klingt das eher nach nem Schnapper, oder nicht? :v
Die 4090 ist ja technisch auch nochmal deutlich Preisintensiver ( PCB und Stromversorgung, Kühler, größere Speicherchips ect. )

Die Rohdaten sind von einem ad102 full, den es derzeit nicht gibt.

Reine Raster Leistung interessiert im Jahr 2023 doch kein Mensch mehr, da ist dlss3 und rt schon klar wichtiger.
Sehe ich auch so. Zwar nicht unbedingt "niemanden", aber "Fixed Funktion" und Alleinstellungsmerkmal catchen Kunden, nicht unbedingt die "Overall Leistung".
Ich sehe bei Nvidia, das sie immer mehr Richtung Apple rutschen. Das braucht nicht jeder, das muss auch nicht jedem Gefallen, die AI Fähigkeiten sind aber nun einmal einzigartig in der Branche.
Als Streamer z.B. musst du Nvidia nehmen durch das bessere NVENC, die RTX Suite für Mic und Cam ect.. Das sind alles natürlich Cherrys, ähnlich wie bei Apple und ihren Video Encodern, für manche ist das aber ein riesen Unterschied.

Neurosphere
2022-09-20, 22:56:20
Und was genau ist daran schwach bitte ausführlicher? DP 1.4 mit DSC reicht für 4K mit 240HZ SDR oder mit HDR, Full RGB @ 120 HZ

Wenn du kein DSC sondern volle 10 Bit haben willst ist bei 120 Hz in 4k derzeit Schluss. Mit DP 2.0 hätte man da für einige Jahre Ruhe mit kommenden Entwicklungen.

bbott
2022-09-20, 22:58:59
Mir gehen die erhöhten Preise nicht aus dem Kopf. Kann es sein, dass nVidia die Preise bewusst (zu) hoch gesetzt hat, damit Ampere-Karten parallel verkauft werden können (auch GA102-Karten)? Wenn die Lager geleert sind, dann wird nVidia die Preise der 4080er Modelle nach unten korrigieren.

Nein, NV testet sich von Gen zu Gen an die Schmerzgrenze der Zocker ran. Da diese bisher immer zahlen, wird es von Gen zu Gen nicht besser werden.

Höchstens wenn die Rezession sehr groß wird und die Gamer kein Geld mehr haben um die Karten zukaufen, muss NV mit den Preis herunter.

Man hat doch gesehen, das Gamer selbst die Cryptominer Preise mitgehen. Da ist noch Luft nach oben, die Schmerzgrenzen sind noch lange nicht erreicht ;D

Tomahawk
2022-09-20, 23:03:16
@Troyan
Bei technischen Fortschritt muss nVidia es doch schaffen mehr Leistung pro Euro zu bieten. Wenn der Prozess so teuer ist, dass man für die gleiche Leistung höhere Kosten hat, dann läuft doch etwas schief. Klar, die 4090 ist super und wird seine Abnehmer finden (zumindest wenn die 450W nicht stören). Aber die 4080er? Ich bin gespannt, ob diese Karten so funktionieren werden.

Daredevil
2022-09-20, 23:06:40
3080: 699$ ( 10G )
4080: 899$ ( 12G )

3080ti: 1199$ ( 12G )
4080: 1199$ ( 16G )

3090: 1499$
4090: 1599$

In US sieht das alles eigentlich noch ganz entspannt aus. Man darf einfach nicht vergessen, dass der Euro schwach geworden ist und wir Europäer deswegen die Arschkarte aktuell ziehen.
Die 16G 4080 fühlt sich so ein wenig wie die 3080ti an.

Sardaukar.nsn
2022-09-20, 23:06:56
So viele Custom Designs: https://videocardz.com/

Für mich gibt es aber bisher nur diese eine kurze Karte:

https://cdn.videocardz.com/1/2022/09/Persepective-1_videocardz.jpg

https://cdn.videocardz.com/1/2022/09/Back-1_videocardz.jpg

Dural
2022-09-20, 23:07:47
Technischer fortschritt war noch nie billiger, sondern immer teurer.

Ex3cut3r
2022-09-20, 23:09:53
Technischer fortschritt war noch nie billiger, sondern immer teurer.

Natürlich, aber diese Preissteigerung in DE, scheint rational nicht erklärbar. 2200€ für den Top Dog als Custom, und 1600€ für den "Abfall" Chip der diesmal auch noch wesentlich langsamer ist, ist auch nicht grade ein Juhu Produkt. :freak:

Da kann man nur hoffen das AMD nicht ganz so "verrückt" ist. Ansonsten schwierig. Grade mit diesem Weltbild.

Troyan
2022-09-20, 23:10:12
@Troyan
Bei technischen Fortschritt muss nVidia es doch schaffen mehr Leistung pro Euro zu bieten. Wenn der Prozess so teuer ist, dass man für die gleiche Leistung höhere Kosten hat, dann läuft doch etwas schief. Klar, die 4090 ist super und wird seine Abnehmer finden (zumindest wenn die 450W nicht stören). Aber die 4080er? Ich bin gespannt, ob diese Karten so funktionieren werden.

Früher reduzierten sich die Kosten mit jeden Node jump. Heute ist das umgedreht: Je tiefer, umso teurer. Ergo müsste nVidia also bei der halben Größe mindesten 50% mehr Leistung liefern...

Das geht mit Rasterizing nicht mehr. Raytracing erlaubt dagegen eine viel bessere Skalierung. Cyberpunk mit dem neuen RT Modus ist z.B. ca. 2,5x schneller auf der 4090 gegenüber der 3090TI.

Daredevil
2022-09-20, 23:12:34
Natürlich, aber diese Preissteigerung in DE, scheint rational nicht erklärbar. 2200€ für den Top Dog als Custom, und 1600€ für den "Abfall" Chip der diesmal auch noch wesentlich langsamer ist, ist auch nicht grade ein Juhu Produkt. :freak:

Da kann man nur hoffen das AMD nicht ganz so "verrückt" ist. Ansonsten schwierig. Grade mit diesem Weltbild.
Natürlich ist die Preissteigerung in EUROPA erklärbar.
Der Euro ist schlicht weniger Wert.

Den ganzen Käse haben wir auch letztens im Apple Thread durchgemacht. Leute befasst euch mal ( zumindest ein wenig ) mehr mit den Finanzmärkten! :)
https://abload.de/img/bildschirmfoto2022-09xkeze.png

Ex3cut3r
2022-09-20, 23:12:53
Cyberpunk mit dem neuen RT Modus ist z.B. ca. 2,5x schneller auf der 4090 gegenüber der 3090TI.

Nimmst du echt diese Marketing Bias Folien für volle Kanne? Also bitte, warte erstmal "vernünftige" Benches ab.

Natürlich ist die Preissteigerung in EUROPA erklärbar.
Der Euro ist schlicht weniger Wert.

Den ganzen Käse haben wir auch letztens im Apple Thread durchgemacht. Leute befasst euch mal mehr mit den Finanzmärkten! :)

Der Teuro ist ganze 7% schlechter, aber nicht 25% wie uns Nvidia hier weiß machen will.

Ravenhearth
2022-09-20, 23:13:29
3080: 699$ ( 10G )
4080: 899$ ( 12G )

3080ti: 1199$ ( 12G )
4080: 1199$ ( 16G )

3090: 1499$
4090: 1599$

In US sieht das alles eigentlich noch ganz entspannt aus. Man darf einfach nicht vergessen, dass der Euro schwach geworden ist und wir Europäer deswegen die Arschkarte aktuell ziehen.
Die 16G 4080 fühlt sich so ein wenig wie die 3080ti an.
Ich korrigiere:

3070: 499$
4070 4080 12G: 899$

3080: 699$
4080 16G: 1199$

3090: 1499$
4090: 1599$

Tomahawk
2022-09-20, 23:14:03
@Dural
Man muss genau sagen, was man meint. Bei technischen Fortschritt werden die Produkte besser. Damit wird auch das Spitzenprodukt besser; es kann auch im Laufe der Zeit teurer werden. Es gibt auch ein "aber": Eine fixierte Leistung (z.B. Grafikkarte mit 1TFLOP Leistung ) sollte günstiger werden.

Früher reduzierten sich die Kosten mit jeden Node jump. Heute ist das umgedreht: Je tiefer, umso teurer. Ergo müsste nVidia also bei der halben Größe mindesten 50% mehr Leistung liefern...

Das geht mit Rasterizing nicht mehr. Raytracing erlaubt dagegen eine viel bessere Skalierung. Cyberpunk mit dem neuen RT Modus ist z.B. ca. 2,5x schneller auf der 4090 gegenüber der 3090TI.
Da ist sicherlich etwas dran. Es war schon üblich, dass z.B. die kleineren Modelle (GT 1030) gar nicht in neueren Prozessen gebaut wurden und mehrere Generationen durchhalten mussten. Es kann gut sein, dass sich dieser Trend jetzt auch schon auf Mainstream-Modelle auswirkt (bzw. Modelle bis 800 Euro). Neue Modelle im neuen Fertigungsprozess dienen dann primär dem Zweck, das Portfolio nach oben abzurunden.

Dural
2022-09-20, 23:14:15
Das der Euro eine Ramschwährung ist kann NV nichts dafür, bitte bei der zuständigen Regierung beschwerden.

Daredevil
2022-09-20, 23:16:40
Der Teuro ist ganze 7% schlechter, aber nicht 25% wie uns Nvidia hier weiß machen will.
Es sind seit Release der 3090 exakt 19% Unterschied.
Zudem werden Preise natürlich nicht für "heute" erstellt, sondern bleiben für den Rest der Generation bestehen. Damit man Preise nicht erhöhen muss ( Was Nvidia tun musste, auch bei der 3090 ), hat man in dem Form natürlich einen Puffer. Der Euro sieht nämlich nicht so aus, als würde er alsbald wieder die 1.20$ erreichen, siehe Chart über dir. ;)

Ich finde das auch nicht geil, das sind aber nunmal unausweichliche Fakten. Nvidia könnte an der Stelle natürlich auf Marge verzichten, damit wir armen Europäer ADAs für 1599€ kaufen können, denen ist das aber selbstverständlich egal.
Quark kostet auch 3 mal soviel wie vor 2 Jahren. Das wird nicht das erste und auch nicht das letzte mal sein, das wir nun mehr Zahlen als die Amis.

bbott
2022-09-20, 23:17:07
Das der Euro eine Ramschwährung ist kann NV nichts dafür, bitte bei der zuständigen Regierung beschwerden.
Eher EZB

Troyan
2022-09-20, 23:18:35
Nimmst du echt diese Marketing Bias Folien für volle Kanne? Also bitte, warte erstmal "vernünftige" Benches ab.


Laut den Videos ist DLSS 3.0 ca. 50% schneller als DLSS 2.0. Laut nVidia ist die 4090 4,2x schneller mit DLSS 3.0. Macht ca. 2,6x mehr Leistung mit DLSS 2.0 Performance.

Ex3cut3r
2022-09-20, 23:19:22
Es sind seit Release der 3090 exakt 19% Unterschied.
Zudem werden Preise natürlich nicht für "heute" erstellt, sondern bleiben für den Rest der Generation bestehen. Damit man Preise nicht erhöhen muss ( Was Nvidia tun musste, auch bei der 3090 ), hat man in dem Form natürlich einen Puffer.
Der Euro sieht nämlich nicht so aus, als würde er alsbald wieder die 1.20$ erreichen, siehe Chart über dir. ;)

Ziemlicher Unfug den du dir zusammenreimst, klingt wie Jensen persönlich oder einer seiner Anwälte. Ich wette AMD wird nicht im ähnlichen Maße teurer werden, was ja eigentlich sein müsste, laut den ganzen Finanz Experten hier.

Daredevil
2022-09-20, 23:25:53
Ziemlicher Unfug den du dir zusammenreimst, klingt wie Jensen persönlich oder einer seiner Anwälte. Ich wette AMD wird nicht im ähnlichen Maße teurer werden, was ja eigentlich sein müsste, laut den ganzen Finanz Experten hier.
Ex3 ich habe seit letztem Jahr Dollar und Yen als eigenständige Diversifizierung im Portfolio, genau wegen solchen Marktbewegungen. Das ist kein Unfug, das sind einfach nur Fakten und Weltmarktbewegungen.

Auch AMD wird teurer werden, natürlich. Die kochen auch nur mit Wasser.
Schau dir doch mal die aktuellen Preise an bei AMD.
1190€ für eine 6900xt. Das sind Startpreis 999€ + 20%. Voila.
In etwa das gleiche was Apple und Nvidia Aufpreisen.
https://abload.de/img/bildschirmfoto2022-098uf9z.png

Nazar
2022-09-20, 23:26:59
Die Rohdaten sind von einem ad102 full, den es derzeit nicht gibt.

Reine Raster Leistung interessiert im Jahr 2023 doch kein Mensch mehr, da ist dlss3 und rt schon klar wichtiger.


VR != RTX oder DLSS (die Blurr-Kacke tun sich nur Unwissende an)
Da zählt nur reine RZ Power, sonst nichts.

Ex3cut3r
2022-09-20, 23:28:14
Abwarten, glaube nicht das AMD für den Top Dog 2000€ haben möchte, das wurde mich stark wundern. Oder AMD wird immens schneller sein in Raster Spielen.

Hatstick
2022-09-20, 23:30:32
Da hat nVidia sich mal knapp den doppelten UVP zur RTX 3080 gegönnt, wenn man mal grob zur RTX 3080 10GB rüber schaut. :freak:

Schauen wir mal, ob noch was mit den RTX 3080 Neupreisen passiert oder alternativ eine gebrauchte Karte schießen und fertig ist die Laube.
Bei knapp 1500€ UVP sollten sie dann doch etwas weniger dampfen. :biggrin:

Ex3cut3r
2022-09-20, 23:53:52
Da hat nVidia sich mal knapp den doppelten UVP zur RTX 3080 gegönnt, wenn man mal grob zur RTX 3080 10GB rüber schaut. :freak:

Schauen wir mal, ob noch was mit den RTX 3080 Neupreisen passiert oder alternativ eine gebrauchte Karte schießen und fertig ist die Laube.
Bei knapp 1500€ UVP sollten sie dann doch etwas weniger dampfen. :biggrin:

:biggrin:

Laut den "Experten" hier völlig normal da angeblich der Euro und die allgemeine Weltlage Schuld dran sind. Seriously jede Firma die Geld verdienen will, benutzt seit 2 Jahren diese Ausrede, teurer ist alles geworden ja, aber sicherlich nicht in diesem Ausmaße die nun der Endkunde hier abdrücken soll.

RTX 4090 FE ab 1950€ im Nvidia Shop, da fängt das Bullshit Bingo schon wieder an, viel Spaß mit den ganzen Bots. Mir ist 1,5 Jahre nicht gelungen dort eine 3080 oder 3090 zu kaufen.

Vlt. haben wir im November/Dezember keinen Strom für paar Tage oder Wochen, aber der 2000€ Ziegelstein sollte in der Lage sein, Strom für meine Wohnung herzustellen, wenn nicht -> Was erlauben Huang? ^^

Daredevil
2022-09-20, 23:57:27
Ich habe nicht gesagt, dass Nvidia nicht die Hand aufhält, sondern das man die US Preise vergleichen muss, da Dollar und Euro heute nicht mehr den gleichen Stand haben wie noch zum Release von Ampere.

Was übrigens gerne vergessen wird bei Nvidia, das es nicht nur DLSS gibts, sondern auch DL-DSR und das läuft auf Tensor Cores laut Golem.
https://www.golem.de/news/dl-dsr-nvidia-bringt-ai-downsampling-fuer-beste-bildqualitaet-2201-162345.html
Nvidia hat Deep Learning Dynamic Super Resolution (DL-DSR) für den nächsten Geforce-Treiber angekündigt, der am 14. Januar 2022 erscheinen soll. Mit DL-DSR führt Nvidia eine verbesserte Variante ein, bei welcher der Downsampling-Filter mit künstlicher Intelligenz arbeitet und so eine hohe Auflösung auf die native herunterrechnet. Das Resultat ist mit die beste Bildqualität, die für PC-Spiele derzeit verfügbar ist.

https://scr3.golem.de/screenshots/2201/Nvidia-DLDSR/thumb620/nvidia-dldsr-ai-deep-learning-dynamic-super-resolution-performance-image-quality-comparison.jpg
Vielleicht braucht man auch einfach keine Raster Performance für die nativen 8K, wenn die Tensor Cores einem helfen, ein "nahezu 8K" Bild herbei zu zaubern und gleichzeitig das ganze noch spielbar darstellen.
Und demnach braucht man für DL-DSR auch kein DP 2.0, weil alles intern in der GPU berechnet wird.

basix
2022-09-21, 00:08:07
Wie schon im RDNA3 Thread geschrieben: DL-DSR ist ein reiner Downsampler. Kein Upscaler oder gar Upsampler. Du kannst nur von einer höheren Renderauflösung auf eine tiefere Ausgabeauflösung runterrechnen. Also genau das Gegenteil, was DLSS macht ;)

Wenn DL-DSR mit 2880p -> 4K gleichwertig mit nativ 8K ausschaut, jau dann ist das OK. Aus eigenere Erfahrung kann ich aber sagen, dass das nicht unbedingt und überall stimmt ;)

aufkrawall
2022-09-21, 00:08:29
Was übrigens gerne vergessen wird bei Nvidia, das es nicht nur DLSS gibts, sondern auch DL-DSR
Na ja, warum bloß wird das gerne vergessen. Weil DS suckt.

Jupiter
2022-09-21, 00:10:28
Gefiel mir in RDR2 besser als DLSS. Lief auch viel schneller als UHD und sah kaum schlechter aus. Leider gehen in Breakpoint keine 1620p. Nur 1440p und UHD.

Bei World of Warships ist 4x dagegen besser. Kommt auf das TAA an.

basix
2022-09-21, 00:10:51
Na ja, warum bloß wird das gerne vergessen. Weil DS suckt.

DL-DSR war immerhin ein guter Qualitätsprung gegenüber den 1.78x und 2.25x DSR Modi von vorher. Die waren nämlich faktisch unbrauchbar. DSR 4x war OK, ist technisch aber auch nicht falsch hinzubekommen.

DrFreaK666
2022-09-21, 00:10:57
3080: 699$ ( 10G )
4080: 899$ ( 12G )

3080ti: 1199$ ( 12G )
4080: 1199$ ( 16G )

3090: 1499$
4090: 1599$

In US sieht das alles eigentlich noch ganz entspannt aus. Man darf einfach nicht vergessen, dass der Euro schwach geworden ist und wir Europäer deswegen die Arschkarte aktuell ziehen.
Die 16G 4080 fühlt sich so ein wenig wie die 3080ti an.

Du und deine USA-Preise...
Oder war es Troyan?
Jedenfalls: Was bringt uns das wenn es bei denen entspannt ist?

Jupiter
2022-09-21, 00:13:12
DL-DSR war immerhin ein guter Qualitätsprung gegenüber den 1.78x und 2.25x DSR Modi von vorher. Die waren nämlich faktisch unbrauchbar. DSR 4x war OK, ist technisch aber auch nicht falsch hinzubekommen.

Exakt. Ich nutzte vorher ausschließlich DSR 4x.

Ex3cut3r
2022-09-21, 00:13:23
Kennt ihr eigentlich diesen Artikel von Huang aus dem August? Da meinte er noch sowas wie, das GeForce GPUs sich an Konsolen Preise anpassen sollten.

Liest sich stand heute und mit den angekündigten Preisen, wie eine Satire. :biggrin:

https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Durchschnittlicher-Preis-der-GPUs-gleich-Spielkonsolen-1402074/

aufkrawall
2022-09-21, 00:17:02
DL-DSR war immerhin ein guter Qualitätsprung gegenüber den 1.78x und 2.25x DSR Modi von vorher.
Hat aber trotzdem unschärfere Kanten als nativ und ist für mich damit zu 100% wertlos. Das VSR und reguläres DSR <4x noch viel größerer Müll sind, hilft mir auch nicht.

Genau so stufe ich auch den ganzen anderen Kram von NV abseits von DLSS Upsampling und Reflex ein: Ein bisschen nice to have, aber der Kram ist immer irgendwie mängelbehaftet und nervig und wird dann von mir nie wieder angerührt.

Daredevil
2022-09-21, 00:17:13
Du und deine USA-Preise...
Oder war es Troyan?
Jedenfalls: Was bringt uns das wenn es bei denen entspannt ist?
Das bringt dir nichts. Es bringt aber ebenso wenig, sich hier als Opfer von Nvidia darzustellen, nur weil man es versäumt hat, in den letzten Jahren 25% mehr im Job zu verdienen. So könntest du dir heute nahezu genau das gleiche leisten fürs Geld wie die Amis. :uup:

@aufkrawall
Hm okay. Das hatte ich anders in Erinnerung. Raff war da glaube ich gut zu sprechen drauf, dem Bildqualitätsnerd vertraue ich generell erstmal blind. :D

DrFreaK666
2022-09-21, 00:22:00
Das bringt dir nichts. Es bringt aber ebenso wenig, sich hier als Opfer von Nvidia darzustellen, nur weil man es versäumt hat, in den letzten Jahren 25% mehr im Job zu verdienen. So könntest du dir heute nahezu genau das gleiche leisten fürs Geld wie die Amis. :uup:...

Was ist das für ein Quatsch? Wie wäre es wenn du weitere Kosten wie Energie, Nahrung usw. vergleichst oder ernähren sich Amerikaner von Grafikkarten?

Ex3cut3r
2022-09-21, 00:23:18
Hoffnungslos. Das sind die puren Nvidia Verteidiger, da werden Argumente gebracht, da fallen mir die letzen Haare aus, wenn ich Sie lese. :biggrin:

Bzw. Kapitalismus im Endstadium. Ich verdiene ja genug "du Pisser" Was kann ich dafür das du ein Armer Schlucker bist, das wollen Sie eigentlich mit sagen.

ChaosTM
2022-09-21, 00:28:29
Gsd. hab ich dank Propetia* noch fast alle meine Haare ;)

Warten wir mal die benchmarks und "real Life" preise ab.

*nein ich hab einfach Glück

basix
2022-09-21, 00:32:58
Bzw. Kapitalismus im Endstadium. Ich verdiene ja genug "du Pisser" Was kann ich dafür das du ein Armer Schlucker bist, das wollen Sie eigentlich mit sagen.

Da gibt es nur eines zu sagen:

https://i0.wp.com/www.comicschau.de/wp-content/uploads/2021/08/aus-dem-weg-geringverdiener1.jpg?fit=770%2C433&ssl=1

:D

Ne, über die hohen Kosten für alles Mögliche sollte man nicht spotten. Gibt viele, die sind nicht auf Rosen gebettet, haben schwer daran zu knabbern und in Zukunft noch mehr.

Daredevil
2022-09-21, 00:38:31
Was ist das für ein Quatsch? Wie wäre es wenn du weitere Kosten wie Energie, Nahrung usw. vergleichst oder ernähren sich Amerikaner von Grafikkarten?
Wir reden gerade von Währungsunterschiede, nicht vom Angebot und Nachfrage von Rohstoffen aufgrund eines Krieges auf unserem Kontinent.
Ja, Nvidia ist für den Preisaufschlag in USD von 100$ in den USA verantwortlich von 1499$ auf 1599$, das sind 6.7%. Alles weitere liegt an den Differenzen zwischen unseren Währungen.
Wenn du unbedingt Europäische Preise vergleichen möchtest, hast du offenbar als Person versagt, die Inflation mit deinem eigenen Einkommen auszugleichen. ( Surprise, ich auch )



Bzw. Kapitalismus im Endstadium. Ich verdiene ja genug "du Pisser" Was kann ich dafür das du ein Armer Schlucker bist, das wollen Sie eigentlich mit sagen.
Vor wenigen Jahren hast du dich noch drüber lustig gemacht, das man mit Mining Geld verdient hat, dann kaufst du dir ne 3080ti für 1800€ und jetzt zündest du die Mimimirakete. Dir kann man es auch echt nicht recht machen, aus deiner Rolle zu kommen. :D
Ne, mir geht es tatsächlich überhaupt nicht darum, hier den dicken zu machen. Die 4090 ist überhaupt nicht interessant für mich, da die 3090 schnell genug für alles ist, was ich spiele, das schon quasi seit Okt 2020.

Ich will weder hier im Thread noch im Apple Thread noch in anderen Threads irgendjemanden verteidigen, Grafikkarten sind VIEL zu teuer geworden. Grafikkarten können heute aber nunmal auch mehr als einfach nur Grafik zu machen. Wer aber wirtschaftliche Zusammenhänge nicht erkennt und mit dem Finger auf jemanden zeigt, der dafür nicht verantwortlich ist, dem darf man vielleicht ein wenig auf die Sprünge helfen. Oder auch nicht. (:

PS:
Die PS5 hat ja auch schon um 10% zugelegt, da ist ja bekanntlich AMD Hardware drin.
https://www.businessinsider.de/insider-picks/technik/playstation-5-preiserhoehung/
Sony begründet die Preiserhöhung mit den hohen globalen Inflationsraten und ungünstigen Währungstrends......Nur in den USA wird eine Preiserhöhung explizit ausgeschlossen.
Bin wohl doch nicht so dumm.

FastAndy
2022-09-21, 00:43:00
Was bringt es einem eigentlich, sich über zu hohe preise von luxusartikeln zu echauffieren? Hofft ihr jensen liest hier mit und bietet euch per pn einen rabatt?
Würde das gerne verstehen

prinz_valium_2
2022-09-21, 00:43:12
Asus nutzt also auch Vapor Chamber + Heatpipes.

Das ist dann wohl die neue Lösung für alles

ChaosTM
2022-09-21, 00:44:16
Du kriegst um 600 Euro ein komplettes System, das "kaum" schlechter ausschaut. Nennt sich PS5 ;)

Ex3cut3r
2022-09-21, 00:44:44
Wir reden gerade von Währungsunterschiede, nicht vom Angebot und Nachfrage von Rohstoffen aufgrund eines Krieges auf unserem Kontinent.
Ja, Nvidia ist für den Preisaufschlag in USD von 100$ in den USA verantwortlich von 1499$ auf 1599$, das sind 6.7%. Alles weitere liegt an den Differenzen zwischen unseren Währungen.
Wenn du unbedingt Europäische Preise vergleichen möchtest, hast du offenbar als Person versagt, die Inflation mit deinem eigenen Einkommen auszugleichen. ( Surprise, ich auch )



Vor wenigen Jahren hast du dich noch drüber lustig gemacht, das man mit Mining Geld verdient hat, dann kaufst du dir ne 3080ti für 1800€ und jetzt zündest du die Mimimirakete. Dir kann man es auch echt nicht recht machen, aus deiner Rolle zu kommen. :D
Ne, mir geht es tatsächlich überhaupt nicht darum, hier den dicken zu machen. Die 4090 ist überhaupt nicht interessant für mich, da die 3090 schnell genug für alles ist, was ich spiele, das schon quasi seit Okt 2020.

Ich will weder hier im Thread noch im Apple Thread noch in anderen Threads irgendjemanden verteidigen, Grafikkarten sind VIEL zu teuer geworden. Grafikkarten können heute aber nunmal auch mehr als einfach nur Grafik zu machen. Wer aber wirtschaftliche Zusammenhänge nicht erkennt und mit dem Finger auf jemanden zeigt, der dafür nicht verantwortlich ist, dem darf man vielleicht ein wenig auf die Sprünge helfen. Oder auch nicht. (:

PS: Die PS5 hat ja auch schon um 10% zugelegt, da ist ja bekanntlich AMD Hardware drin.
Alles gut. Ich ziehe mich jetzt zurück. Sonst werde ich nur wieder Gesperrt/Gebannt, soll jeder machen, was er möchte natürlich. Aber mein Comment lautet. Mit den offiziellen Preise im Einzelhandel hat Nvidia endgültig den Vogel abgeschossen, auch viele Enthusiasten glaube ich, werden diesmal nein sagen.

Auf Jahre könnte sich Nvidia damit ihr Image/Umsatz zerschießen. Und andere könnten Ihn auch technologisch den Rang abkaufen mittelfristig. Die Raster Performance stand jetzt, lässt einen schon heute etwas komisch auf Ada schielen. Aber gut....Gute Nacht an alle!!!

FastAndy
2022-09-21, 00:52:19
NV weiß schon ganz genau was sie da machen. Die haben eine armada an beratern und wollen das maximum an profit mitnehmen. Das sollte doch eigentlich vollkommen nachvollziehbar sein. Niemand muss eine gpu für über 1k kaufen, lasst es doch einfach und lebt weiter. Verstehe echt das problem nicht??? Ansonsten könnt ihr euch auch gleich darüber aufregen, das nicht jeder einen 911er fahren kann.

Tangletingle
2022-09-21, 00:55:48
4nm kosten ~3x(+) mehr als Samsungs 8nm Prozess. Selbst wenn nVidia die Chipgröße halbiert, kostet der Chip 33% mehr. Da der Chip kleiner ist, lässen sich zwar mehr verwenden, aber im Grunde kostet AD104 genauso viel wie GA102.
Das der Apologet die von NV umbenannten 5nm und die Preise verteidigt, hätte wohl niemand erwartet.

ChaosTM
2022-09-21, 00:56:01
Der Vergleich hinkt etwas.

Wenn der 911er 2020 200k gekostet hätte, würde niemand* für einen 911 aus im Jahr 2022 400k zahlen. Selbst wenn er 50% mehr PS hätte

*oder nur sehr wenige

FastAndy
2022-09-21, 00:59:30
Bitte was?
Niemand hat anspruch auf luxuswaren zum wunschpreis. Ist eigentlich ganz einfach

ChaosTM
2022-09-21, 01:03:29
Bitte was?
Niemand hat anspruch auf luxuswaren zum wunschpreis. Ist eigentlich ganz einfach


Aber kein Luxuswagenbesitzer würde für relativ wenig mehrleistung das doppelte bezahlen

basix
2022-09-21, 01:10:40
NV weiß schon ganz genau was sie da machen. Die haben eine armada an beratern und wollen das maximum an profit mitnehmen. Das sollte doch eigentlich vollkommen nachvollziehbar sein. Niemand muss eine gpu für über 1k kaufen, lasst es doch einfach und lebt weiter. Verstehe echt das problem nicht??? Ansonsten könnt ihr euch auch gleich darüber aufregen, das nicht jeder einen 911er fahren kann.

Naja, P/L unten rum sieht ziemlich dürftig aus. Da liegt Nvidia der Ampere Ballast wohl noch auf dem Magen. Ich meine: 1100 Euro für einen ~300mm2 Chip mit 12 GByte G6X? Well, die 2080 Ti hat mich in etwa das selbe gekostet mit 754mm2 und 11GByte G6. Vor 4 Jahren(!) - und war nicht gerade ein Preisbrecher ;). 2080 Ti: RT ist brauchbar, DLSS2 & DX12-Ultimate bekam man nachgereicht.

Bei der 4080 16GByte sieht es ziemlich gleich aus (~1/3 grösserer Chip und ebenfalls soviel mehr Speicher, analog der Preis).

Eine 4080 12GB scheint sich nur mit RT und DLSS3-Frame-Doubling von einer 3080 absetzen zu können. Und diese 3080 war gerademal 1.3...1.4x so schnell wie eine 2080 Ti...

Noch zum Dickschiff:
Es sind 3-Slot & 61mm https://www.nvidia.com/de-de/geforce/graphics-cards/compare/

N0rG
2022-09-21, 01:10:42
DLSS scheint ganz interessant, aber ich warte erstmal die reviews ab. Die benchmarks ohne DLSS sind außerordentlich mau. Hängt die 4090 da wohl schon im PL? Falls ja, ist der 4N prozess irgendwie kaputt? Von einem 1,5-2 node Sprung hab ich mir mehr erhofft.

Die Preise sind in anbetracht der Lage eigentlich ok. 1600$ + 19% mwst + umrechnungskurs €/$ sind halt momentan 1950€. Da dürfte NV weniger marge haben als bei den 30er Karten.
Die neue gen ist es mir aber Stand jetzt erstmal nicht wert.

FastAndy
2022-09-21, 01:15:21
Muss er ja auch nicht. Aber gerade in der automobilbranche gibt es unzählige beispiele, für wie wenig Mehrwert leute bereit sind unsummen zu zahlen. Zb bei brabus verdreifachst! du den fahrzeugpreis ganz schnell und die sind trotzdem komplett ausgelastet. Wenn der markt dafür da ist, sehe ich keinen grund dagegen, sofern es sich um luxusgüter handelt.
Die titan v für 2700 oder wieviel es waren, hat sich vor jahren auch schon verkauft. Lasst die leute und hersteller doch machen

ChaosTM
2022-09-21, 01:15:22
Man hat 50+% von die Neuleistung scheinbar in RTRT investiert.
Ob es optisch was bringt müssen wir erst sehen.

PHuV
2022-09-21, 01:24:05
The same procedure as every GPU-Launch?

https://c.tenor.com/7uJXEHs7OuUAAAAd/dinner-for-same.gif
Und dann machen doch alle das hier:
https://gfycat.com/amp/shyseveralinexpectatumpleco-dinner-for-one-same-procedure-as-every-year-james-gif


Bin mal gespannt, wer hier dann wieder zum Release ein 4090 hat.

ChaosTM
2022-09-21, 01:25:12
Jop, das gehört dazu ;)

DrFreaK666
2022-09-21, 01:26:44
...Wenn du unbedingt Europäische Preise vergleichen möchtest...

Ich möchte überhaupt keine Preise vergleichen, da es überhaupt nichts bringt. Höchstens im EU-Ausland ohne weitere Kosten - das wäre interessant, USA nicht

... Ansonsten könnt ihr euch auch gleich darüber aufregen, das nicht jeder einen 911er fahren kann.

Wir sind auch nicht im Fast and Furious Forum ;)

basix
2022-09-21, 01:37:19
The same procedure as every GPU-Launch?
Das gibt es erst seit Pascal und spätestens Turing ;) Vorher war der Top Chip bei 600-700$ (exkl. Titan) und die Chips waren entsprechend gross. OK, bei der GTX 680 gab es mal noch Diskussionen.

Bei Ampere war die MSRP der 3080 und 3070 ausserdem OK. Nur gab es die eigentlich nie so zu kaufen. Oder wie ist das P/L Verhältnis einer 4080 zu einer 3080 bei MSRP? ;)

crux2005
2022-09-21, 01:50:40
Noch zum Dickschiff:
Es sind 3-Slot & 61mm https://www.nvidia.com/de-de/geforce/graphics-cards/compare/

Danke für den Link.

Habe mich gewundert ob AV1 encode unterstützt wird. Habe bei nach 5 Minuten Omniverse keine Lust auf den Stream mehr gehabt.

Saugbär
2022-09-21, 02:33:34
Nvidia kann ja noch eine 4080 10G für 799€ nachschieben :freak:
Dann hört wenigstens das Gemecker auf, die 4080 wäre zu teuer ;D

Linmoum
2022-09-21, 02:54:10
Nvidia ordnet das Portfolio einfach neu. Statt 4070, 4060 und 4050 gibt es dann die 4080 10GiB, 4080 8GiB und 4080 6GiB. Letztere ist dann für $499 immerhin ein echtes Schnäppchen für eine x080 SKU. ;)

ChaosTM
2022-09-21, 03:04:46
Eine 4090er mit 6gb fehlt noch :)

crux2005
2022-09-21, 03:11:15
Eine 4090er mit 6gb fehlt noch :)

Pfff, 4GB reichen wenn du DLSS 3.0 benutzt. /s

ChaosTM
2022-09-21, 03:16:03
In NV`s Fall wären das 3,5.. :D (scnr)

Gott1337
2022-09-21, 05:01:34
Man hat 50+% von die Neuleistung scheinbar in RTRT investiert.
Ob es optisch was bringt müssen wir erst sehen.
wasn Bullshit, erstens "von der Neuleistung" und zweitens ändert sich die Darstellung durch Mehrleistung nicht... jeder kann sehen was RTRT bringt, du bekommst einfach nur mehr FPS. traurig

ChaosTM
2022-09-21, 05:04:12
wasn Bullshit, erstens "von der Neuleistung" und zweitens ändert sich die Darstellung durch Mehrleistung nicht... jeder kann sehen was RTRT bringt, du bekommst einfach nur mehr FPS. traurig


Was bringt RTRT konkret und wo

rentex
2022-09-21, 05:59:15
Aber kein Luxuswagenbesitzer würde für relativ wenig mehrleistung das doppelte bezahlen

Ähm, ja das würde er natürlich schon machen. Denn der normale Sportwagenbesitzer, ist in der Regel kein Kenner der Materie. Er hat viel Geld und Ego zur Verfügung, das ist alles.

Edgecrusher86
2022-09-21, 06:21:27
Seh ich das richtig? Laut Nvidias eigenen Benchmarks ohne DLSS 3 ist die 4090 grob 60% schneller als die 3090 Ti, die 4080 16GB etwa 20% und die 4080 12GB leicht langsamer?

Damit wäre die 4090 ca. 70% schneller als ihr direkter Vorgänger, die große 4080 knapp 30% besser als die 3080 Ti zum gleichen MSRP und die kleine 4080 keine 20% über der 3080 12GB. Wenn sich das fortsetzt, kostet die 4070 mit 10GB dann $699 und ist genauso schnell wie die 3080. :freak:

60-70% ist doch ganz ordentlich - ein Pascal-Moment (zumindest blieb ja die TGP gleich zur Ti :freak:). Nun ja, in RT wird richtig geliefert. =)



The same procedure as every GPU-Launch?

https://c.tenor.com/7uJXEHs7OuUAAAAd/dinner-for-same.gif
Und dann machen doch alle das hier:
https://gfycat.com/amp/shyseveralinexpectatumpleco-dinner-for-one-same-procedure-as-every-year-james-gif


Bin mal gespannt, wer hier dann wieder zum Release ein 4090 hat.


;D

Haha, sehr passend - gefällt mir! :freak:
Vor allem die, die am lautesten gemeckert haben. :D

Ja, die 80er Preise hätte ich auch niedriger eingeschätzt - in € mit MwSt. liest sich das schon etwas böse für Karten mit "kleineren Chips" - aber kann man wohl verlangen, wenn die Leistung geliefert wird.

Hm, wie hoch wohl das Max. PT bei der 4090 FE ausfällt? Wieder +50W? Mir würde das langen - geprügelt wird nur einmal kurz für einige Benchmarks. ;)

Sehr schade, dass er nicht auch schon die 4090 Ti zeitig heraus haut - aber so sind sie halt, die guten Geschäftsmänner -> Salamitaktik FTW. Man will ja auch noch 2023/2024 was im (Ada-)Köcher haben.
Ich gehe einmal grob davon aus, dass er $2099-2499 MSRP hier ausrufen würde. Letzteres, wenn er 48GB spendieren würde; also grob 2400-3000€ für die FE.

E: Nun ja, evtl. bekommt der geneigte Käufer nun etwas besser an eine Karte zeitig zu Launch - mal schauen, wieviele Karten NBB so herein bekommt. Ich hätte damals ja auch gerne die FE genommen, aber auf normalen Wege ging selbst mit drei PCs gleichzeitig nichts bei NV. :freak:

wolik
2022-09-21, 06:40:31
Wie schon im RDNA3 Thread geschrieben: DL-DSR ist ein reiner Downsampler. Kein Upscaler oder gar Upsampler. Du kannst nur von einer höheren Renderauflösung auf eine tiefere Ausgabeauflösung runterrechnen. Also genau das Gegenteil, was DLSS macht ;)

Wenn DL-DSR mit 2880p -> 4K gleichwertig mit nativ 8K ausschaut, jau dann ist das OK. Aus eigenere Erfahrung kann ich aber sagen, dass das nicht unbedingt und überall stimmt ;)

Ich spiele RDR2 / HZD / Dead Stranding nur mit DLDSR.
Es ist nicht zu unterscheiden zum 8K vs 4Kx 2,25DLDSR.
Die zweite "gute Nachricht" (nach dem Preis) ist, dass die DLDSR-Leistung ,wahrscheinlich, noch besser sein wird.,

Kriegsgeier
2022-09-21, 06:44:35
komisch: wesentlich mehr
Takt, Shadereinheiten und noch dazu krasse Verbesserungen bei der Architektur!
Und dann nur wahrscheinlich +80% mehr FPS?!
Rechnet man aber den prozentualen Anstiege eben dieser Faktoren (Takt, Shadereinheiten usw.) dann MÜSSTE man doch auf wesentlich mehr + bei FPS kommen, oder?

hier kommt die Selbstberuhigungstherapie:
auch nicht vergessen: die Auflösung macht es!
Ich mit meiner Auflösung 3440 x 1440 ca. 5 MPixel und RTX 3090 fahre ca. gleich
wie einer mit einer 4k Auflösung ca. 8 MPixel und RTX 4090
Da ich kein Monitorupdate beabsichtige somit bleibt die RTX 4090 für mich im Moment sinnlos ;)
Upgrade kommt dann schon zur GTA6 und RTX 5090 in 2025!

Das habe ich schon Ende 2021 behauptet: die 3090 mit ihren 24GB wird die langlebigste Karte werden, für 4-4,5 Jahre!

Nicht zur letzt wegen den Konsolen aber auch weil ich immer 60 FPS als Ziel-FPS habe!
Brauche keine 90 FPS, die 60 FPS sind für mich optimal

Was sagt ihr dazu?:

da die kleinere 4080 bei ca. 1100€ liegt wird die 3090 nie unter 1000€ rutschen!
Da finde ich persönlich die 3090 mit 24GB attraktiver als die kleine 4080 mit ihren 12 GB.

ChaosTM
2022-09-21, 06:50:05
Eine 3090(ti)er mir 24 ist definitiv interessanter und wohl auch schneller als der 12GB (4080er) Kastrat.. Jesus

Wer denkt sich so was aus ?

Edgecrusher86
2022-09-21, 06:56:18
EKWB kündigt an (https://videocardz.com/press-release/ek-announces-water-block-for-geforce-rtx-4090-founders-edition-ready-for-3-ghz-clocks) - das wird wieder kostspielig. :D

EK-Quantum Vector² FE RTX 4090 D-RGB – Nickel + Plexi 239.90€
EK-Quantum Vector² FE RTX 4090 D-RGB – Nickel + Acetal 239.90€

Die BPs werden bestimmt auch wieder gut kosten.

https://abload.de/img/ekwb-rtx4090-founders50c83.jpg

Für die FE.

https://abload.de/img/ek-rtx4090-fe-wb-27yicg.jpg https://abload.de/img/ek-rtx4090-fe-wb-1yvic8.jpg


Mehr Varianten - je Originalgröße:

https://abload.de/img/ek-rtx4090-fe-wb-2o3dqh.jpg https://abload.de/img/ek-rtx4090-fe-wb-1f0ek3.jpg

Der alte GeForce-Font ist doch schöner, gut so. ;)

https://abload.de/img/ekwb-rtx4090-founderszcfbe.jpg
https://abload.de/img/ek-rtx4090-wb-1pxciq.jpg

https://abload.de/img/ek-rtx4090-wb-2qtcjm.jpg
https://abload.de/img/ekwb-rtx4090-foundersopdu4.jpg

dargo
2022-09-21, 06:58:38
Hier die 4090:
https://abload.de/img/bildschirmfoto2022-09z6dfy.png

Boah ist das ein Klotz. ;D

Kriegsgeier
2022-09-21, 07:00:07
Eine 3090(ti)er mir 24 ist definitiv interessanter und wohl auch schneller als der 12GB (4080er) Kastrat.. Jesus

Wer denkt sich so was aus ?

Wieso? Alles richtig gemacht: somit muss man keine 4070 für 699€ vorstellen sondern eine 4080 für 899€ - eher alles richtig gemacht

PS:
erwartet keine 4070 oder 4060 so schnell!

Die 3060 und 3070 sowie 3080 werden noch sehr lange uns erhalten bleiben. Denn diese Chips kommen ja aus SAMSUNGs Fertigung - somit nehmen die nichts bei TSMC weg

Sardaukar.nsn
2022-09-21, 07:07:46
EKWB kündigt an - das wird wieder kostspielig. :D

Den Umbau möchte ich diese Generation nicht mehr mitmachen. So viele Ressourcen für einen Luftkühler mit bis zu 13 Heatpipes und Vapor Chamber in die Tonne hauen. Garantie Verlust usw.

Zum Glück gibt es direkt sehr kompakte Karten mit Wasserblock: https://videocardz.com/press-release/inno3d-announces-geforce-rtx-4090-4080-gpu-series

Hott3X
2022-09-21, 07:10:28
Das ist alles nur noch Wahnsinn. Wo die Reise mit den Preisen hingeht war ja zu erwarten. Das diese aber, vor allem für die kleine 4080, nochmal übertroffen wurden ist schon heftig. Dazu die der saftige Stromverbrauch und die Kartengröße. Also rein vom Platz passt sowas schon nicht bei mir rein.
Dazu kommt noch die Sache mit dem DLSS3. Hat für mich auch ein bisschen faden Beigeschmack. Nach dem Motto: wir müssen trotzdem noch was finden um von dem anderen abzulenken.
Ich bin froh, dass ich mit Mitte 40 das alles entspannter sehe. Dann wird halt noch eine Stufe tiefer gekauft. Von 1080 auf 2070s auf 4060, oder halt auch gar nichts.
Bin mal gespannt, was AMD so vom Stapel lässt.

dargo
2022-09-21, 07:13:01
Ex3 ich habe seit letztem Jahr Dollar und Yen als eigenständige Diversifizierung im Portfolio, genau wegen solchen Marktbewegungen. Das ist kein Unfug, das sind einfach nur Fakten und Weltmarktbewegungen.

Auch AMD wird teurer werden, natürlich. Die kochen auch nur mit Wasser.
Schau dir doch mal die aktuellen Preise an bei AMD.
1190€ für eine 6900xt. Das sind Startpreis 999€ + 20%. Voila.
In etwa das gleiche was Apple und Nvidia Aufpreisen.
https://abload.de/img/bildschirmfoto2022-098uf9z.png
Wen interessieren die aktuellen Preise der Referenzkarten bei AMD wenn eine Custom RX 6900XT bereits ab 779€ in DE zu haben ist?
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6900+XT


Wir sind auch nicht im Fast and Furious Forum ;)
Naja... eigentlich schon, nur auf Pixelebene. :D

Daredevil
2022-09-21, 07:15:29
Mich, weil der UVP ein Indiz dafür ist, dass AMD ebenso Preise nach oben korrigieren muss für die jetzige und die zukünftige Generation für den europäischen Bereich.
Sehr nette Preise aber btw. :)

ChaosTM
2022-09-21, 07:19:17
Wieso? Alles richtig gemacht: somit muss man keine 4070 für 699€ vorstellen sondern eine 4080 für 899€ - eher alles richtig gemacht

PS:
erwartet keine 4070 oder 4060 so schnell!

Die 3060 und 3070 sowie 3080 werden noch sehr lange uns erhalten bleiben. Denn diese Chips kommen ja aus SAMSUNGs Fertigung - somit nehmen die nichts bei TSMC weg


Ja, aus Marketing-Sicht schaut das wieder genial aus

ad. die kleine 4080er ist genug kastriert um eine 4700er zu sein


Die Kunden werden wie immer verarscht.. 12gb 4080er lool

Das ist maximal eine 4070er ;)

Kriegsgeier
2022-09-21, 07:31:54
geil, meine 3090 wird noch gute 2 Jahre preisstabil über 1000€ gehandelt werden! Finde ich gut!

dargo
2022-09-21, 07:53:23
Die Rohdaten sind von einem ad102 full, den es derzeit nicht gibt.

Reine Raster Leistung interessiert im Jahr 2023 doch kein Mensch mehr, da ist dlss3 und rt schon klar wichtiger.
Was ist das denn wieder für ein Unfug? ;D

Selbst ein zwei Jahre altes CP77 läuft gerade mal so schnell genug in 1440p im reinen Rasterizer mit den aktuell schnellsten GPUs. Und das bei diesem lächerlichen LOD wo dir alles auf gefühlte 50 Meter ins Gesicht springt. Würde CDPR das LOD auf ein akzeptables Niveau erhöhen würden womöglich die fps bis zu 30-40% einbrechen. Und echte Next-Gen Spiele die alte Konsolen nicht mehr berücksichtigen kommen erst noch. Glaubst du ernsthaft bei diesen Spielen wird die Rasterizerpower keine Rolle mehr spielen? Dann bist du ganz schön naiv.

Dampf
2022-09-21, 07:53:54
Das ist maximal eine 4070er ;)

Was bei den Laptops funktioniert, geht auch bei den Desktops. So war wohl Nvidias Gedanke :biggrin:

Dorn
2022-09-21, 07:57:29
Eine 3090(ti)er mir 24 ist definitiv interessanter und wohl auch schneller als der 12GB (4080er) Kastrat.. Jesus

Wer denkt sich so was aus ?Die Nummer 1...

Also wenn man das so weiter spinnt:

4070 RTX : 10 GB Ram
4060 RTX : 8 GB Ram

Also wenn das so kommen sollte, dann pfui pfui pfui....:P

Eigentlich muss jetzt AMD mit Radeon Verkäufen anziehen, aber das dachte ich damals schon als PS4 und XBOX mit AMD Hardware raus kamen...;)

Cubitus
2022-09-21, 08:02:10
DLSS 3 ist insofern gut, dass ich meinen 10900F noch nicht in Rente schicken muss. Die Demos zu FlightSim und Cyberpunk waren beeindruckend. Auch mit einer schwächeren CPU kannst du mit der fetten 4090 Spaß haben..

Daredevil
2022-09-21, 08:05:46
Stichwort Raw Performance: Die 4080 scheint wohl nicht weit weg zu sein von der 4090.
https://abload.de/img/bildschirmfoto2022-0954db5.png
https://abload.de/img/bildschirmfoto2022-09w4dog.png
https://abload.de/img/bildschirmfoto2022-09phd62.png

M4xw0lf
2022-09-21, 08:09:34
Wie diese Performanceversprechen von DLSS3 völlig unkritisch für bare Münze genommen werden :confused:

Nazar
2022-09-21, 08:42:46
wasn Bullshit, erstens "von der Neuleistung" und zweitens ändert sich die Darstellung durch Mehrleistung nicht... jeder kann sehen was RTRT bringt, du bekommst einfach nur mehr FPS. traurig

Man sollte tunlichst vermeiden, einen Elefanten zusammen mit einer Maus in einem Glashaus einzusperren. Ja, durchaus, es ist traurig. :rolleyes:

Edgecrusher86
2022-09-21, 08:43:48
Den Umbau möchte ich diese Generation nicht mehr mitmachen. So viele Ressourcen für einen Luftkühler mit bis zu 13 Heatpipes und Vapor Chamber in die Tonne hauen. Garantie Verlust usw.

Zum Glück gibt es direkt sehr kompakte Karten mit Wasserblock: https://videocardz.com/press-release/inno3d-announces-geforce-rtx-4090-4080-gpu-series

Ich fahre seit Pascal auch wieder unter Luft - es ist mit UV auch nicht mehr wirklich nötig - vor allem jetzt, wo die Kühlkonstruktionen immer wuchtiger werden.

Platz habe ich eh genug im MAGNUM TX10V - insofern...könnten die Karten auch gerne länger als einen halben Meter sein - hauptsache, gut gestützt. :freak:

Nazar
2022-09-21, 08:47:44
60-70% ist doch ganz ordentlich - ein Pascal-Moment (zumindest blieb ja die TGP gleich zur Ti :freak:). Nun ja, in RT wird richtig geliefert. =)






;D

Haha, sehr passend - gefällt mir! :freak:
Vor allem die, die am lautesten gemeckert haben. :D

Ja, die 80er Preise hätte ich auch niedriger eingeschätzt - in € mit MwSt. liest sich das schon etwas böse für Karten mit "kleineren Chips" - aber kann man wohl verlangen, wenn die Leistung geliefert wird.

Hm, wie hoch wohl das Max. PT bei der 4090 FE ausfällt? Wieder +50W? Mir würde das langen - geprügelt wird nur einmal kurz für einige Benchmarks. ;)

Sehr schade, dass er nicht auch schon die 4090 Ti zeitig heraus haut - aber so sind sie halt, die guten Geschäftsmänner -> Salamitaktik FTW. Man will ja auch noch 2023/2024 was im (Ada-)Köcher haben.
Ich gehe einmal grob davon aus, dass er $2099-2499 MSRP hier ausrufen würde. Letzteres, wenn er 48GB spendieren würde; also grob 2400-3000€ für die FE.

E: Nun ja, evtl. bekommt der geneigte Käufer nun etwas besser an eine Karte zeitig zu Launch - mal schauen, wieviele Karten NBB so herein bekommt. Ich hätte damals ja auch gerne die FE genommen, aber auf normalen Wege ging selbst mit drei PCs gleichzeitig nichts bei NV. :freak:

Woran macht ihr das bei RT fest?
Es gibt !!keine!! greifbaren Daten, die diese Aussage bestätigen.

unl34shed
2022-09-21, 08:49:10
Wie diese Performanceversprechen von DLSS3 völlig unkritisch für bare Münze genommen werden :confused:

Eigentlich ist es ja nicht mal eine Performancesteigerung, sondern nur eine Frameverdopplung, die Engine und Physik läuft im Hintergrund ja immer noch langsam weiter. Nur der FPS-Counter wird verdoppelt.
Und das soll das beste Feature diese Generation sein :eek::confused:

Btw. gab es das nicht vor Jahren mal als aktives HDMI Kabel?

Loeschzwerg
2022-09-21, 08:53:54
Platz habe ich eh genug im MAGNUM TX10V - insofern...könnten die Karten auch gerne länger als einen halben Meter sein - hauptsache, gut gestützt. :freak:

Wegen mir könnte man auch endlich auf 4 Slots gehen und dann einen 60mm Lüfter vorne dranschnallen, dann wäre die Hitze wenigstens gleich aus dem Gehäuse raus. (siehe auch das Kühlkonzept des Mac Pro)

Rolsch
2022-09-21, 08:57:47
So ne 4090 für den Flight Simulator mit VR wär ne feine Sache. Aber abseits der Enthusiasten sehe ich nicht warum man diese Preise bezahlen sollte. Die ganzen Miner Karten werden die Preise hoffentlich gewaltig nach unten drücken.

monstar-x
2022-09-21, 08:57:53
Alles gut. Ich ziehe mich jetzt zurück. Sonst werde ich nur wieder Gesperrt/Gebannt, soll jeder machen, was er möchte natürlich. Aber mein Comment lautet. Mit den offiziellen Preise im Einzelhandel hat Nvidia endgültig den Vogel abgeschossen, auch viele Enthusiasten glaube ich, werden diesmal nein sagen.

Auf Jahre könnte sich Nvidia damit ihr Image/Umsatz zerschießen. Und andere könnten Ihn auch technologisch den Rang abkaufen mittelfristig. Die Raster Performance stand jetzt, lässt einen schon heute etwas komisch auf Ada schielen. Aber gut....Gute Nacht an alle!!!

Mach dir keine Hoffnung, Nvidia weis schon genau was die machen.
Während wir (Forum) keinerlei Einblicke in deren genauen Geldfluss haben und nur Spekulationen anstellen "dazu die meisten ohne BWL Studium" sitzen dort dutzende der Weltbesten BWL/Berater/Analysten.

Keine Sorge die haben Ihre Hausaufgaben gemacht, die haben genug Werkzeuge um alles auszuwerten, Analysieren und dann eine passenden Preis zu nennen den der Markt bezahlt.

Troyan
2022-09-21, 09:12:42
Eigentlich ist es ja nicht mal eine Performancesteigerung, sondern nur eine Frameverdopplung, die Engine und Physik läuft im Hintergrund ja immer noch langsam weiter. Nur der FPS-Counter wird verdoppelt.
Und das soll das beste Feature diese Generation sein :eek::confused:

Btw. gab es das nicht vor Jahren mal als aktives HDMI Kabel?

Immerhin siehst du hier ja mal was. Bei Battlefield 5 wurde ja noch behaupten, dass Reflektionen in Pfützen unrealistisch wären und so nicht existieren würden. ;D

Achja, die Physik-Engine berechnet nunmal Physik - also wie sich Dinge verhalten. Daher wird auch die CPU-Last reduziert, weil DLSS 3.0 selbstständig Motion Vectors erzeugt. Für dich: Physikalische Bewegungen werden ebenfalls interpoliert.

Exxtreme
2022-09-21, 09:16:42
Mach dir keine Hoffnung, Nvidia weis schon genau was die machen.
Während wir (Forum) keinerlei Einblicke in deren genauen Geldfluss haben und nur Spekulationen anstellen "dazu die meisten ohne BWL Studium" sitzen dort dutzende der Weltbesten BWL/Berater/Analysten.

Keine Sorge die haben Ihre Hausaufgaben gemacht, die haben genug Werkzeuge um alles auszuwerten, Analysieren und dann eine passenden Preis zu nennen den der Markt bezahlt.

Naja, BWLer sind für Preisgestaltung eher nicht zuständig. ;)

Meine Vermutung ist eher: sie können nicht mit den Preisen runter weil sie nicht billiger herstellen können.

The_Invisible
2022-09-21, 09:16:51
So ne 4090 für den Flight Simulator mit VR wär ne feine Sache. Aber abseits der Enthusiasten sehe ich nicht warum man diese Preise bezahlen sollte. Die ganzen Miner Karten werden die Preise hoffentlich gewaltig nach unten drücken.

Wieso sollte das, die haben die neuen 4000er ja genau deswegen preislich darüber platziert damit diese nicht in Konflikt mit den 3000ern kommen.

Hier kann nur (hoffentlich) AMD dazwischenpfuschen, bin gespannt ob diese Kampfpreise anbieten oder doch mit den höheren Preisen mitgehen.

@topic
Bin doch sehr verwundert über die hohen 80er Preise, hier wollte man sich aber wohl nicht selbst ausstechen mit der alten 3000er Serie. Dazu halt noch der schwache EUR der noch ein paar 100er drauflegt, mit der sonstigen fast 1:1 Umrechnung würde es ja bedeutent besser aussehen.

Bin aber auf die ersten Reviews gespannt, die Performancemetrics sind irgendwie sehr eigenartig...

ShinyMcShine
2022-09-21, 09:17:02
Zum Glück überspringe ich normalerweise immer eine Generation und so wohl auch dieses Mal. Die 3070Ti reicht bei 3440x1440 mit GSync vollkommen. Bei einer 16GB Karte im dreistelligen Euro-Bereich wäre ich ggf. schwach geworden (ich weiß: unrealistisch). Für VR hätte ich gerne mehr Leistung gekauft, aber da für das gerade wenig bis gar keine Zeit bleibt, kann ich mich zurücklehnen. Darum: Next...

Platos
2022-09-21, 09:19:39
Blöderweise ist DLSS 3.0 nicht Treiberweit einstellbar. Wäre es das, könnte man sich glatt eine neue CPU sparen als jemand, der ne ältere hat und somit auch RAM und Mobo.

Tja... Hätte hätte Fahradkette.

Stichwort Raw Performance: Die 4080 scheint wohl nicht weit weg zu sein von der 4090.
https://abload.de/img/bildschirmfoto2022-0954db5.png
https://abload.de/img/bildschirmfoto2022-09w4dog.png
https://abload.de/img/bildschirmfoto2022-09phd62.png

Nur frage ich mich, wie geht das? Takt ist zwischen 4090 und 4080 praktisch identisch, aber Einheitenzahl grob gesagt halbiert.

Wie soll das gehen?

Realistisch sieht es beim Unterschied der 4080 und der fake-4080 aus. Aber bei der 4080 zur 4090 stimmt einfach etwas nicht.

The_Invisible
2022-09-21, 09:22:29
Zum Glück überspringe ich normalerweise immer eine Generation und so wohl auch dieses Mal. Die 3070Ti reicht bei 3440x1440 mit GSync vollkommen. Bei einer 16GB Karte im dreistelligen Euro-Bereich wäre ich ggf. schwach geworden (ich weiß: unrealistisch). Für VR hätte ich gerne mehr Leistung gekauft, aber da für das gerade wenig bis gar keine Zeit bleibt, kann ich mich zurücklehnen. Darum: Next...

Die Frage ist halt ob es jemals wieder billiger wird. Kenne auch einige die gesagt haben die 3000er sind zu teuer und überspringen diese. :D

Daredevil
2022-09-21, 09:26:14
Nur frage ich mich, wie geht das? Takt ist zwischen 4090 und 4080 praktisch identisch, aber Einheitenzahl grob gesagt halbiert.
.
https://abload.de/img/bildschirmfoto2022-094ci9w.png
:confused:

Redneck
2022-09-21, 09:32:05
Die Präse hat kaum Erläuchtung gebracht. Vielleicht sollte sie es auch gar nicht.
Wegen der Preise.. Ja mei.. Aufregen lohnt nicht. AMD wirds richten, weil sie den kleineren, kostengünstigeren Chip haben, günstigeren Speicher verwenden und wahrscheinlich auch weniger an TSMC zahlen muessen.. AMD kann nur gewinnen mit ihren 20irgendwas % Anteil während NV fürchten muss Anteile abzugeben. Mit dem riesen Chip können sie kostentechnisch wahrscheinlich nicht viel weiter runter im Preis.. AMD hat da sicherlich mehr Luft in Zukunft. Beide haben shareholder im Nacken, aber AMD kann versuchen über Masse zu gehen, was bei NV bei den Kosten/Preisen eher nicht möglich ist.

Porsche Vergleiche hinken dermassen, das Man nur mit dem Kopf schütteln kann.
Ein Porsche ist per se ein Luxusgut. Eine Grafikkarte richtet sich aber an Gamer und sollte an deren Geldbeutel ausgerichtet sein. Porsche kann und will gar keine Massenautos produzieren, weil sie das Image mit verkaufen..

basix
2022-09-21, 09:34:49
Wie diese Performanceversprechen von DLSS3 völlig unkritisch für bare Münze genommen werden :confused:

Wird es nicht ;) Eine Frameverdopplung via Interpolation wird nicht den gleichen Effekt haben wie real verdoppelte gerenderte Frames. Die Input Latency wird nicht reduziert.

Immerhin ist Reflex bei DLSS 3 automatisch dabei. Das könnte helfen, dass die Input Latency sinkt und somit die gefühlten FPS eben doch auch ansteigen. Echte FPS wird es aber nicht ersetzen können (z.B. 120fps + Reflex > 60fps*2 + Reflex)

Ich sehe ein paar Anwendungen und Edge Cases, bei welchen eine Frameverdopplung einiges ausmachen kann.
- VR
- 30fps -> 60fps (bei 30fps stottert das Bild und/oder man ist Out-of-Gsync/Freesync-Range)

Im Endeffekt: Reviews abwarten und allenfalls selbst testen.

https://abload.de/img/bildschirmfoto2022-094ci9w.png
:confused:
Was hat das mit seiner Frage zu tun? Er vergleicht ja AD102 mit AD103 und nicht Ampere mit Ada.

Troyan
2022-09-21, 09:36:27
Wie soll AMD günstiger fertigen? Die liegen bei 520mm^2 oder so. Lovelace ist 15% größer. Mit 76 Mrd. Transistoren hat man auch alles genutzt, was möglich ist. Immer noch irre, dass die 126 Millionen Transistoren pro mm^2 packen können.

basix
2022-09-21, 09:38:42
Geringere Gesamtfläche und 5nm / 6nm Chiplets sind nicht günstiger zu fertigen? Erzähl mehr.

PHuV
2022-09-21, 09:39:54
Stichwort Raw Performance: Die 4080 scheint wohl nicht weit weg zu sein von der 4090.
https://abload.de/img/bildschirmfoto2022-0954db5.png
https://abload.de/img/bildschirmfoto2022-09w4dog.png
https://abload.de/img/bildschirmfoto2022-09phd62.png
In welchem Video und wo sind diese Werte aufgetaucht?
Ah, da ists her:
https://blogs.nvidia.com/blog/2022/09/20/nvidia-studio-geforce-rtx-40-series/

HOT
2022-09-21, 09:40:33
AMD liegt bei 305mm² N5 mit 6x 48mm² im billigen N6 oder sowas. Das ist wohl kaum vergleichbar mit einem 605mm² N4.
Die AMDs werden in der Herstellung erheblich weniger kosten. Die Kosten explodieren bei steigender Die-Größe.

unl34shed
2022-09-21, 09:41:52
Immerhin siehst du hier ja mal was. Bei Battlefield 5 wurde ja noch behaupten, dass Reflektionen in Pfützen unrealistisch wären und so nicht existieren würden. ;D

Wow, nach 4 Jahre hast es fast begriffen um was in der damaligen Diskussion ging :facepalm:
Nicht Reflexionen sind unrealistisch, sondern deren Implementierung in dem Spiel. Und weil das ja ein Angriff auf dein geheiligtes Nvidia war, steckt dir jetzt immer noch einer quer... wow, bist echt nachtragend. :facepalm:
Nur als Beispiel: Es wurden Dinge reflektiert, die eigentlich verdeckt waren und sichtbares ignoriert. Aber mal schauen, vielleicht raffst du es ja in den nächsten 4 Jahren, das Thema scheint dir ja echt nicht mehr aus dem Kopf zu gehen, so oft wie du versuchst mir damit ans Bein zu pissen :facepalm:
Eigentlich erschreckend, dass du für diesen Fortschritt 4 Jahre gebraucht hast, stehst du bei anderen Diskussionen auch so auf dem Schlauch? Das würde einige erklären ;D

Achja, die Physik-Engine berechnet nunmal Physik - also wie sich Dinge verhalten. Daher wird auch die CPU-Last reduziert, weil DLSS 3.0 selbstständig Motion Vectors erzeugt. Für dich: Physikalische Bewegungen werden ebenfalls interpoliert.

Ja, Ne, so funktioniert das nicht :facepalm:

Troyan
2022-09-21, 09:42:59
Geringere Gesamtfläche und 5nm / 6nm Chiplets sind nicht günstiger zu fertigen? Erzähl mehr.

Dafür ist es teurer zusammenzubauen und man benötigt mehr Platz auf 6nm (50%+).

nVidia hat dagegen die Möglichkeiten von 4nm genommen und gepackt bis zur Unendlichkeit.

Wow, nach 4 Jahre hast es fast begriffen um was in der damaligen Diskussion ging :facepalm:
Nicht Reflexionen sind unrealistisch, sondern deren Implementierung in dem Spiel. Und weil das ja ein Angriff auf dein geheiligtes Nvidia war, steckt dir jetzt immer noch einer quer... wow, bist echt nachtragend. :facepalm:
Nur als Beispiel: Es wurden Dinge reflektiert, die eigentlich verdeckt waren und sichtbares ignoriert. Aber mal schauen, vielleicht raffst du es ja in den nächsten 4 Jahren, das Thema scheint dir ja echt nicht mehr aus dem Kopf zu gehen, so oft wie du versuchst mir damit ans Bein zu pissen :facepalm:
Eigentlich erschreckend, dass du für diesen Fortschritt 4 Jahre gebraucht hast, stehst du bei anderen Diskussionen auch so auf dem Schlauch? Das würde einige erklären ;D

Immer diese ausreden. Niedlich.

Ja, Ne, so funktioniert das nicht :facepalm:

Es funktioniert exakt so. Die Motion Vectors kommen von der Engine (ergo CPU). Genau das übernimmt DLSS 3 in jedem zweiten Bild, wodurch die Bildbewegung (nennt sich Physik btw.) interpoliert werden.

Dural
2022-09-21, 09:45:02
Was ist das denn wieder für ein Unfug? ;D

Selbst ein zwei Jahre altes CP77 läuft gerade mal so schnell genug in 1440p im reinen Rasterizer mit den aktuell schnellsten GPUs. Und das bei diesem lächerlichen LOD wo dir alles auf gefühlte 50 Meter ins Gesicht springt. Würde CDPR das LOD auf ein akzeptables Niveau erhöhen würden womöglich die fps bis zu 30-40% einbrechen. Und echte Next-Gen Spiele die alte Konsolen nicht mehr berücksichtigen kommen erst noch. Glaubst du ernsthaft bei diesen Spielen wird die Rasterizerpower keine Rolle mehr spielen? Dann bist du ganz schön naiv.

Quatsch, die Leistung heute hängt zu 100% an RT, und auf RT will ich definitiv nicht verzichten.

Was bringen mir 60FPS und sobald ich RT einschlte habe ich nur noch 20FPS? Richtig genau nichts.

Cubitus
2022-09-21, 09:46:21
Wie diese Performanceversprechen von DLSS3 völlig unkritisch für bare Münze genommen werden :confused:

Wieso auch nicht? DLSS ist eine bewährte Technik wo Nvidia abgeliefert hatte.

Hier soll DLSS 3.0 zum Einsatz kommen:


A Plague Tale: Requiem
Atomic Heart
Black Myth: Wukong
Bright Memory: Infinite
Chernobylite
Conqueror's Blade
Cyberpunk 2077
Dakar Rally
Deliver Us Mars
Destroy All Humans! 2 – Reprobed
Dying Light 2 Stay Human
F1 22
F.I.S.T.: Forged In Shadow Torch
Frostbite Engine
HITMAN 3
Hogwarts Legacy
ICARUS
Jurassic World Evolution 2
Justice
Loopmancer
Marauders
Microsoft Flight Simulator
Midnight Ghost Hunt
Mount & Blade II: Bannerlord
Naraka: Bladepoint
NVIDIA Omniverse
NVIDIA Racer RTX
PERISH
Portal with RTX
Ripout
S.T.A.L.K.E.R. 2: Heart of Chornobyl
Scathe
Sword and Fairy 7
SYNCED
The Lord of the Rings: Gollum
The Witcher 3: Wild Hunt
THRONE AND LIBERTY
Tower of Fantasy
Unity
Unreal Engine 4 & 5
Warhammer 40,000: Darktide


Schön ist dabei der Support der Unreal Engine..

Sollte mit weniger Aufwand oder Mods für weitere Titel möglich sein, DLSS 3 zu implemtieren..
Und ja das spart dir wirklich nen neuen Unterbau. :)

guggt euch mal die aktuellen Mobo Preise an :freak:

AMD muss sowohl in der Rohleistung anknüpfen, und eben dann noch gegen DLSS 3 ankommen... mal abwarten.

Platos
2022-09-21, 09:49:20
guggt euch mal die aktuellen Mobo Preise an :freak:

Oder: guggt euch mal die Grafikkartenpreise von RTX 4000 an;)

Redneck
2022-09-21, 09:51:18
Wie soll AMD günstiger fertigen? Die liegen bei 520mm^2 oder so. Lovelace ist 15% größer. Mit 76 Mrd. Transistoren hat man auch alles genutzt, was möglich ist. Immer noch irre, dass die 126 Millionen Transistoren pro mm^2 packen können.
A) günstigere Verfahren
B) weil TSMC sie lieber hat als NV

Dural
2022-09-21, 09:52:45
Die Präse hat kaum Erläuchtung gebracht. Vielleicht sollte sie es auch gar nicht.
Wegen der Preise.. Ja mei.. Aufregen lohnt nicht. AMD wirds richten, weil sie den kleineren, kostengünstigeren Chip haben, günstigeren Speicher verwenden und wahrscheinlich auch weniger an TSMC zahlen muessen.. AMD kann nur gewinnen mit ihren 20irgendwas % Anteil während NV fürchten muss Anteile abzugeben. Mit dem riesen Chip können sie kostentechnisch wahrscheinlich nicht viel weiter runter im Preis.. AMD hat da sicherlich mehr Luft in Zukunft. Beide haben shareholder im Nacken, aber AMD kann versuchen über Masse zu gehen, was bei NV bei den Kosten/Preisen eher nicht möglich ist.


Zum Glück kostet das zusammen setzen rein gar nichts, zum Glück müssen die Die ziemlich sicher 100% lauffähig sein, zum Glück ist ja nur auf der 4090 ein ad102 mit 10% Deaktivierung drauf, eine Karte die 1500.- + kostet (Herstellungskosten praktisch egal...)

Die 4080 192Bit 12GB mit ad104 (teildeaktiviert) und 4080 256Bit 16GB mit ad103 (auch teildeaktiviert) dürften deutlich kleiner ausfallen.

Ich behaupte die 4080 sind was die Margen anbelangt der Bringer schlecht hin und da ist noch seehhhhrrr viel Spielraum nach unten.

Und zu glauben das die Herstellungskosten vor Grafikkarten was mit dem Marktpreis zu tun haben finde ich "lustig"

Platos
2022-09-21, 09:53:43
B) weil TSMC sie lieber hat als NV

;D;D
Klar, die haben AMD aber ganz doll lieb. Viel lieber als nvidia ;D

Cubitus
2022-09-21, 09:54:54
Oder: guggt euch mal die Grafikkartenpreise von RTX 4000 an;)

Dann geb halt im günstigsten Fall 800 Euro für ne HighEnd Grafikarte aus ohne DLSS 3. Rechne noch 450 Euro+ für nen gutes Mobo drauf, + 700 Euro für den neuen Intel oder AMD + DDR5 Arbeitsspeicher 250 Euro und zusätzlich noch 200 Euro für nen 1k Netzteil kommst du auf 2400 Euro :freak: und hast dabei noch ne Menge Aufwand.

Oder du schiebst dir ne 2k Karte ins Gerät und fertig :D
Der Rechner mit der alten CPU mit PCIE 3.0 wird bei Games dennoch immer schneller sein, sofern DLSS 3 zum Tragen kommt.
Ansonsten hast du mit der 4090 noch die brachiale Rohleistung.


Alles Ansichtssache ;D

Troyan
2022-09-21, 09:55:03
A) günstigere Verfahren
B) weil TSMC sie lieber hat als NV

Nun, wenn ich TSMC wäre, würde ich nVidia lieben. Produzieren die doch auch Switches mit 100 Mrd. Transistoren auf meinem arschteuren 4nm Prozess. :eek::cool:

unl34shed
2022-09-21, 09:55:24
Immer diese ausreden. Niedlich.

Welche Ausreden? :confused:

Es funktioniert exakt so. Die Motion Vectors kommen von der Engine (ergo CPU). Genau das übernimmt DLSS 3 in jedem zweiten Bild, wodurch die Bildbewegung (nennt sich Physik btw.) interpoliert werden.

Nein, die Motionvektoren werden mittels Optical Flow aus den letzten beiden Bildern berechnet und kommen nicht aus der Engine! Deswegen kann man das auch als Mod in anderen Spielen nachschieben ;)

Und nein eine geratene Bewegung eines Objekts anhand der vorherigen Bilder ist keine Physikberechnung. :facepalm:

Tangletingle
2022-09-21, 10:03:06
The same procedure as every GPU-Launch?

https://c.tenor.com/7uJXEHs7OuUAAAAd/dinner-for-same.gif
Und dann machen doch alle das hier:
https://gfycat.com/amp/shyseveralinexpectatumpleco-dinner-for-one-same-procedure-as-every-year-james-gif


Bin mal gespannt, wer hier dann wieder zum Release ein 4090 hat.nach der letzten Beschwerdesession oder war es die vorletzte, hast du ja noch völligem Aussetzer die Koffer gepackt und hast dich verdünnisiert. Bist du auf eine Wiederholung aus?

Platos
2022-09-21, 10:16:08
Dann geb halt im günstigsten Fall 800 Euro für ne HighEnd Grafikarte aus ohne DLSS 3. Rechne noch 450 Euro+ für nen gutes Mobo drauf, + 700 Euro für den neuen Intel oder AMD + DDR5 Arbeitsspeicher 250 Euro und zusätzlich noch 200 Euro für nen 1k Netzteil kommst du auf 2400 Euro :freak: und hast dabei noch ne Menge Aufwand.

Oder du schiebst dir ne 2k Karte ins Gerät und fertig :D
Der Rechner mit der alten CPU mit PCIE 3.0 wird bei Games dennoch immer schneller sein, sofern DLSS 3 zum Tragen kommt.
Ansonsten hast du mit der 4090 noch die brachiale Rohleistung.


Alles Ansichtssache ;D

Seit wann ist man gezwungen, eine DDR5 Plattform zu kaufen? Warum ist man überhaupt gezwungen, eine neue Plattform zu kaufen?

Was ist das bitte für eine schräge Rechtfertigung der Preise von nvidia.

Tangletingle
2022-09-21, 10:17:05
Dann geb halt im günstigsten Fall 800 Euro für ne HighEnd Grafikarte aus ohne DLSS 3. Rechne noch 450 Euro+ für nen gutes Mobo drauf, + 700 Euro für den neuen Intel oder AMD + DDR5 Arbeitsspeicher 250 Euro und zusätzlich noch 200 Euro für nen 1k Netzteil kommst du auf 2400 Euro :freak: und hast dabei noch ne Menge Aufwand.

Oder du schiebst dir ne 2k Karte ins Gerät und fertig :D
Der Rechner mit der alten CPU mit PCIE 3.0 wird bei Games dennoch immer schneller sein, sofern DLSS 3 zum Tragen kommt.
Ansonsten hast du mit der 4090 noch die brachiale Rohleistung.


Alles Ansichtssache ;DFür ne rdna3 Karte braucht man nen neuen Rechner aber für Lovelace nicht? Steile These.

Tomahawk
2022-09-21, 10:20:17
Das Argument von Troyan macht schon Sinn. nVidia scheint ein Kostenproblem zu haben und „muss“ die Preise so hoch ansetzen.

Wie wahrscheinlich ist es, dass die 4090 „nur“ proportional zum Preis schneller als die 4080 ist, also ca. 25%?

dargo
2022-09-21, 10:22:59
Quatsch, die Leistung heute hängt zu 100% an RT, und auf RT will ich definitiv nicht verzichten.

Was bringen mir 60FPS und sobald ich RT einschlte habe ich nur noch 20FPS? Richtig genau nichts.
Du raffst es immer noch nicht oder? :freak: Du hast bisher noch gar nicht Rasterizerlast von Nextgen Titeln gesehen. Diese kommt erst noch. Spiele haben weiterhin einen hybriden Ansatz und das wird auch noch viele Jahre so bleiben.

gnomi
2022-09-21, 10:24:43
Mach dir keine Hoffnung, Nvidia weis schon genau was die machen.
Während wir (Forum) keinerlei Einblicke in deren genauen Geldfluss haben und nur Spekulationen anstellen "dazu die meisten ohne BWL Studium" sitzen dort dutzende der Weltbesten BWL/Berater/Analysten.

Keine Sorge die haben Ihre Hausaufgaben gemacht, die haben genug Werkzeuge um alles auszuwerten, Analysieren und dann eine passenden Preis zu nennen den der Markt bezahlt.

So einfach ist die Sache nicht.
Die ersten RTX Karten beispielsweise haben sich nicht so enorm verkauft beim Launch. (2080/2080 TI)
Man konnte Ende 2018 auch sehr gut die zu stark korrigierende Aktie unten kaufen.
Bis zur Übertreibung Ende 21 gab es dann wieder eine Verzehnfachung. :wink:

Zwar sind GPU's tatsächlich in so einen Luxusbereich mit zahlungswilliger Kundschart vorgestoßen, aber es kommt nicht von ungefähr, dass parallel die große Masse jetzt erst Ampere im Abverkauf konsumieren soll. (zweiter Teil der Strategie)
Man kann also ähnlich wie bei Autos auch in die Mittelklasse zurück wechseln als Enthusiast, weil Oben die Technologie gegenüber den Pionierzeiten zu teuer für ein bisschen Spaß beim Gaming wird.
Leider machen das einfach zu wenig, die entsprechend Geld haben.
Das kann sich allerdings jetzt gerade ändern wegen Inflation/Rezession.
Ich denke, die Strategie geht auf, aber die größten Gewinne haben wir 2020/2021 vermutlich erst einmal gesehen. Ist aber auch sehr davon abhängig, was so an Software kommt und ob man nicht ne PS5 bald mal auf Lager bekommt.

Rancor
2022-09-21, 10:24:56
Also ich werde meine 2080 dann wohl noch etwas länger behalten :D Ne abgespeckte 4080 für 1099€ ? Die merken echt nichts mehr :D

dargo
2022-09-21, 10:28:15
Das Argument von Troyan macht schon Sinn. nVidia scheint ein Kostenproblem zu haben und „muss“ die Preise so hoch ansetzen.

Naja... so teuer kann ein AD103 ja nicht sein oder? Wie groß ist das Ding? >450mm²?

Edit:
Hier steht sogar was von mageren 380mm², keine Ahnung obs stimmt.
https://www.techpowerup.com/gpu-specs/nvidia-ad103.g1012

Und dann ist ne RTX 4080 auch nur "Abfall" (Salvage) davon.

Neurosphere
2022-09-21, 10:28:31
Zusammengefasst sieht es danach aus das man nach bisherigem stand wohl bei 50-70%+ mit der 4090 zur 3090ti landet, wenn DLSS 3.0 außer vor gelassen wird.

Kein schlechter Wert, aber auch recht weit von dem Entfernt was vorher angepriesen wurde.

Was mir im nachhinnein nochmal am Stream gestern aufgeallen ist, man spricht in dem Video zu 80% Unternehmen und keine Privatuser an, da kann man auch erkennen wo viel vom Transistorcount hingegangen ist. Außerdem würde mich mal interessieren wieviel MH/s die GPU schafft und Nvidia evtl. so manches Ziel aus den Augen verloren hat.

Troyan
2022-09-21, 10:29:39
Nein, die Motionvektoren werden mittels Optical Flow aus den letzten beiden Bildern berechnet und kommen nicht aus der Engine! Deswegen kann man das auch als Mod in anderen Spielen nachschieben ;)

Und nein eine geratene Bewegung eines Objekts anhand der vorherigen Bilder ist keine Physikberechnung. :facepalm:

Einfach mal richtig lesen, was andere schreiben.

Auch ratet DLSS 3 nicht die Bewegung sondern interpoliert. Wenn ein Ball sich von links nach rechts auf einer geraden Linie bewegt, dann ist das Verhalten determinierbar. Und da DLSS 3 zusätzliche Bewegungsinformationen über Frames einbezieht, kann dies hoffentlich auch die nervige Fehler von DLSS 2.0 und Co. reduzieren.

Leonidas
2022-09-21, 10:31:24
Wie diese Performanceversprechen von DLSS3 völlig unkritisch für bare Münze genommen werden :confused:

Das kapiere ich auch nicht. Jeder denkende Mensch hört weg, wenn es um "Performance mit DLSS" geht. Das ist ZUSATZ - etwas, mit was man sich beschäftigt, wenn man die NORMAL-Performance kennt.

Linmoum
2022-09-21, 10:34:10
Zusammengefasst sieht es danach aus das man nach bisherigem stand wohl bei 50-70%+ mit der 4090 zur 3090ti landet, wenn DLSS 3.0 außer vor gelassen wird.

Kein schlechter Wert, aber auch recht weit von dem Entfernt was vorher angepriesen wurde.Also allein für rund +52% FP32-ALUs und +40% (?) mehr realem Takt ist das schon extrem mau und da sind etwaige uArch-Verbesserungen noch gar nicht mit eingepreist.

Perf/TFLOP scheint bei Ada noch schlechter als noch bei Ampere zu werden. Das hat harte Fiji/Vega-Vibes, wenn sich das auch in Reviews bestätigen sollte.

aceCrasher
2022-09-21, 10:36:37
Wer hier sagt dass die Enthusiasten eh kaufen, irrt sich meiner Meinung nach gewaltig. Klar, es gibt immer Menschen die so viel Geld haben, dass sie eine 4090 auch für 3000€ kaufen würden, aber die wenigsten sind so drauf.

Ich war bis gestern 17 Uhr wirklich fest entschlossen zeitnah eine neue Karte für 1000-1300€ zu kaufen, aber Nvidias Angebot ist einfach maximal unattraktiv. Die einzige Karte, die meiner Meinung nach ein gutes Preis/Leistungsverhältnis bietet, ist meiner Meinung nach die 4090, fast schon absurd wenn man bedenkt dass die das Topmodell ist.

Beide 4080s sind katastrophal überteuert für das Gebotene - so sehr dass ich lieber gar keine neue Karte kaufe als mir diese Modelle anzuschaffen.

Dieser Preiswahn bestärkt mich nur in meinem Plan eher eine AMD Karte zu kaufen. Aber auch nur wenn von denen ein attraktives Modell im Bereich 1000-1300€ kommt.

Cubitus
2022-09-21, 10:43:19
Wer nur spielen will, ist mit einer Konsole wesentlich besser dran.
Einerseits finde ich es auch nicht gut, dass die Preise für den PC-Markt so abartig in die Höhe gehen.

Die Ampere Generation bleibt zudem weiterhin attraktiv.
Alles, bis zum nativen 3k Auflösung, was in Zukunft kommen wird, lässt sich auch gut mit Ampere spielen.

fondness
2022-09-21, 10:48:20
Also allein für rund +52% FP32-ALUs und +40% (?) mehr realem Takt ist das schon extrem mau und da sind etwaige uArch-Verbesserungen noch gar nicht mit eingepreist.

Perf/TFLOP scheint bei Ada noch schlechter als noch bei Ampere zu werden. Das hat harte Fiji/Vega-Vibes, wenn sich das auch in Reviews bestätigen sollte.

Das finde ich ziemlich seltsam. Die haben defacto 2 fullnode Shrinks vs. Ampere, da muss doch mehr raus schauen.

gnomi
2022-09-21, 10:49:04
Also ich werde meine 2080 dann wohl noch etwas länger behalten :D Ne abgespeckte 4080 für 1099€ ? Die merken echt nichts mehr :D

Im Nachhinein war das wohl eine der besten GPU's von nvidia seit langem. :)
Kein vierstelliger Preis und auch für RTX Dank DLSS noch brauchbar vier Jahre später.
Performance etwas über PS5/Xbox Series X.
3080 war einfach von den Stückzahlen und der Lieferbarkeit her Mist.
Mit der 3080TI wurde man dann abgezockt.
Na ja. Immerhin ist die für UWQHD und ein paar Goodies auf Ultra dann potenter.
Und ich kann immer schöne Vergleichstests mit der 2080 machen und am Zweitrechner weiterbasteln. Ersatzteile hat man so auch gleich. :freak:

dargo
2022-09-21, 10:50:45
Hier meint der Typ die Produktionskosten von Ada sind mindestens um 50% gestiegen vs. Ampere, deshalb wurde u.a. die 4070 "still" in 4080 12GB umbenannt.
u07OVq3x0dc

why_me
2022-09-21, 10:53:19
Beide 4080s sind katastrophal überteuert für das Gebotene - so sehr dass ich lieber gar keine neue Karte kaufe als mir diese Modelle anzuschaffen.

Man hat volle Lager mit 30er karten, die müssen auch noch verkauft werden.
Es wird leider auch genug Leute geben, die sich die abgespeckte 4080 kaufen werden. Aber auch viele die auf Ada gewartet haben, werden jetzt doch noch eine 30er im Abverkauf holen, weil die Preise eben so unatraktiv sind. In einem Halben Jahr, wenn die Lager leer sind, gibts dann ein Refresh mit einer Super und eine Preisanpassung nach unten.

Auch ratet DLSS 3 nicht die Bewegung sondern interpoliert.

interpoliert oder extrapoliert? Interpolation wäre ja noch schlimmer was das Inputlag angeht.

GrimReaper85
2022-09-21, 11:01:56
https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/rtx-40-series-graphics-cards-announcements/geforce-rtx-40-series-gaming-performance.png

Zur Rasterung schauen Sie sich die ersten 3 Spiele an. Die unterstützen auch kein DLSS.

3090 Ti - 100%
4080 12GB - 90%
4080 16GB - 120%
4090 - 160%

33% Leistungssteigerung bei jedem Modell bei gleicher Preissteigerung.

Ich kann das tatsächlich nicht auf der Nvidia US Site finden. Ich habe es aus dem WCCF Kommentarbereich.
Sie haben es wahrscheinlich heruntergenommen, jetzt zeigen sie nur noch DLSS 3 Spiele, Flight Simulator, Warhammer 40.000: Darktide und Cyberpunk 2077.

Daredevil
2022-09-21, 11:04:58
Hier meint der Typ die Produktionskosten von Ada sind mindestens um 50% gestiegen vs. Ampere, deshalb wurde u.a. die 4070 "still" in 4080 12GB umbenannt.
https://youtu.be/u07OVq3x0dc
"Last Gen" Samsung 8nm, wo niemand fertigen möchte.
"Next Gen" TSMC 4nm, wo jeder fertigen möchte. ( Direkte Konkurrenz ist Apple )
Da braucht es doch keine Insider für. :D

Und dafür, dass die 4090 "nur" 100$ teurer geworden ist, bedeutet einfach nur, dass Nvidia uns mit der 3090 einfach die Taschen leer gemacht hat. ;D
Und/oder es bedeutet, dass Nvidia die 3070/3080 wirklich günstig angeboten hat, weil sie sonst von AMD komplett ausgezogen worden wären.

Dural
2022-09-21, 11:13:29
Klar kostet 4nm mehr als die 8nm Fertigung :rolleyes: welche neue Fertigung der letzten 10 Jahre war nicht teurer?!?

Sollte es nur 50% sein wäre ich sogar überrascht.

Ich bin immer wieder erstaunt über diese "neuen" Erkenntnisse.


Die Zeiten von 200.- Mainstream Karten ist doch schon lange vorbei, und wird auch nie mehr wieder kommen.

Adam D.
2022-09-21, 11:15:43
"Last Gen" Samsung 8nm, wo niemand fertigen möchte.
"Next Gen" TSMC 4nm, wo jeder fertigen möchte. ( Direkte Konkurrenz ist Apple )
Da braucht es doch keine Insider für. :D

Und dafür, dass die 4090 "nur" 100$ teurer geworden ist, bedeutet einfach nur, dass Nvidia uns mit der 3090 einfach die Taschen leer gemacht hat. ;D
Abseits davon, dass es gut sein kann, dass die angegebenen UVP wieder irgendein Scheinkonstrukt sind. Kann mir kaum vorstellen, dass es eine Partnerkarte für unter 2200€ zu kaufen geben wird.

Mancko
2022-09-21, 11:18:13
Das Lineup ist echt ein bisschen blöd. Ich will mir einen neuen PC zusammenbauen und natürlich gern eine RTX4xxx einbauen. Ich kaufe aber eigentlich nie das Top Modell sondern immer so in der 80er oder eher sogar 70er Reihe, sprich 2080/2070 oder 3080/3070.

Neben dem reinen Preis hat das auch was mit Leistungsaufnahme und Abwärme und auch Größe zu tun. Ich brauch jetzt nicht zwingend 4K Ultra blah irgendwas. Mir ist es wichtiger, dass der PC leise bleibt auch idealerweise ohne große WAKÜ Aktionen mit klassisch Luft.

Dieses Mal sind die aber echt zumindest am Start weg die Modelle unter der 4090 uninteressant. Wenn man am Start dabei ist kann man eigentlich nur die 4090 kaufen aber in der Klasse will ich gar nicht. Die 4080er darunter hat man extrem gekürtzt zur 4090 im Vergleich und die 12GB Version ist ohnehin mit Augen zudrücken nur ne 70er Variante. Das ist schon echt doof.

Die 3080er Serie will ich eigentlich nicht mehr. Gerade als MS Flight Simulator Fan lacht mich die aktuelle Generation schon an aber das Linup ist von der Hardwareausgestaltung und den Abständen und dann dazu im Vergleich der Preis echt bescheiden.

M.E. deutet das eigentlich weniger auf Gier hin. Ich vergleiche hier auch nur die Netto Dollar Preise. TEURO ist nochmal ein anderes Thema wo eher die EU und damit die EZB das Problem sind. Da müssten wir nur die Zinsen in der EURO Zone auf US Niveau anheben oder zumindest artikulieren, dass dies mittelfristig passieren wird und die EURO würde wieder aufwerten.

Ich glaube die hätten schon gern ein stimmeres Lineup gelauncht. Das scheint mir doch stark in den folgenden 2 Themen begründet zu sein

1) Early Adopter Kosten des Fertigungsprozesses
2) Notwendiger Abverkauf von Ampere Inventory bei den Partnern durch den Krypto Crash.

Auch den noch recht frühen Status des Fertigungsverfahrens sieht man m.E. an der Leistungsaufnahme.

Ich fürchte da bleibt mir nur warten. Es kommen ja auch neue CPUs von Intel und AMD. Dann werd ich wohl bis Q1/Q2 noch warten müssen bis sich die Lage ein wenig ausgeglichen hat. Das Weihnachtsgeschäft könnte ja zumindest beim Inventory Clearing helfen.

AMDs GPU Launch wird m.E. an den Preise der 4xxx Reihe erstmal nicht so viel ändern. Die werden eher die Gelegenheit nutzen Geld mitzunehmen und wenn die Fertigungskosten hoch sind, dann wird Nvidia wiederum die Preise hoch halten und einfach eine Verknappung einführen. Glaube nicht, dass die dann groß mit den Preisen runter gehen. Die verknappen dann einfach das Angebot in der oberen Klasse und bewegen die Leute zum warten.

Sardaukar.nsn
2022-09-21, 11:20:23
Zusammengefasst sieht es danach aus das man nach bisherigem stand wohl bei 50-70%+ mit der 4090 zur 3090ti landet, wenn DLSS 3.0 außer vor gelassen wird.

Kein schlechter Wert, aber auch recht weit von dem Entfernt was vorher angepriesen wurde.

Es gab doch in den Leaks 3Dmark Timespy Extreme Werte von über 20.000. Also da würde schon für fast +100% in DX12 Rohleistung sprechen.

https://www.pcgameshardware.de/Geforce-RTX-4000-Grafikkarte-278189/News/Angeblich-ueber-20K-Punkte-im-3D-Mark-1402989/

Die 3Ghz wurden ja auch gestern von Jenson angesprochen, aber dafür wird man wohl mehr als 450 Watt benötigen.

Als 1080ti bzw. 3080 Kunde holen mich die 4080er Karten auch überhaupt nicht ab. Da gibt es eigentlich nur zwei Möglichkeiten, Generation aussetzen oder direkt 4090.

Linmoum
2022-09-21, 11:22:04
TSE muss aber nichts mit realer Spieleperformance zu tun haben.

Und wenn NV schon drei Spiele aufzeigt, bei denen die Performance nur um 50-70% steigt, dann würde ich auch nicht mehr damit argumentieren, dass das bei TSE aber mehr ist.

dargo
2022-09-21, 11:25:54
Und dafür, dass die 4090 "nur" 100$ teurer geworden ist, bedeutet einfach nur, dass Nvidia uns mit der 3090 einfach die Taschen leer gemacht hat. ;D

Nicht unbedingt, denn beim AD103 verlangt Nvidia Mondpreise für einen poppeligen 380mm² Chip der noch 2x teildeaktiviert ist. Mischkalkulation und so. ;) Bei AD102 machst du nur einen kleinen Aufpreis, beim AD103 sahnst du dann richtig ab. ;)

Edgecrusher86
2022-09-21, 11:33:43
AD104 ist auch extrem lukrativ, gerade im Vollausbau als 80er. :D

davidzo
2022-09-21, 11:35:49
Technisch korrekt ist es wohl keine Zwischenbildberechnung (Interpolation) sondern eine Estimation für zukünftige Bilder. Lag dürfte es daher auch nicht verursachen, da es nur auf die letzen x Frames zugreift und daraus die Motionvektoren berechnet.

Ein Geschmäckle hat es allerdings schon, wenn man im Prinzip nur damit die Performance einer neue Generation an Grafikkarten verkaufen will.

Lag im Vergleich zu was? Wenn ich 60FPS nativ habe und mit DLSS3 dann 120, dann erzeugt es kein lag gegenüber den 60FPS. Gegenüber nativen 120FPS ist es trotzdem hinterher und zwar genau dann wenn es darauf ankommt: Bei Nutzereingaben. Für kompetitive Spiele ist das kein FPS Gewinn!

Das Problem dass ich damit habe ist dass nvidia es nicht mit 60FPS Nativ vergleicht, als qualitative Verbesserung um ein flüssigeres Spielerlebnis zu ermöglichen, sondern so tut als wäre es vergleichbar zu 120FPS nativ.

Es ist eben kein neues Bild, weil keine neuen Inhalte gerendert werden sondern dieselben aus dem vorherigen Frame nur leicht verschoben. Es sollte daher im Vergleich auch nicht als echter Frame gezählt werden. Die CPU und game-engine hat keinen neuen Frame angefordert der mit neuen Inhalten berechnet würde. Es ist der alte Frame, leicht verändert.

Es ist IMO eine Technologie zur Qualitätssteigerung, so wie FSAA, Aniso oder image sharpening, nur eben in Bezug auf die Flüssigkeit der Darstellung. Aber es sind imo keine echten FPS.
Natürlich kann man selbst in Shootern DLSS3 einschalten um in den Genuss eines flüssigeren Spielerlebnisses zu kommen. 120Bilder statt 60 nativ sieht sicher besser aus. Dann darf man sich aber bloß nicht einbilden dass man plötzlich 120FPS hätte die doch so gut zum 120hz monitor passen. Denn der Input Lag ist immer noch derselbe wie mit 60FPS.

Der Vergleich muss also immer sein Nativ 1x zu smoothed DLSS3 2x FPS.
Der hypothetische 2xFPS Nativ Vergleich zu DLSS3 2xFPS ist einfach falsch!

dargo
2022-09-21, 11:36:52
AD104 kommt noch als 80-er? :confused:

Redneck
2022-09-21, 11:36:58
Hier meint der Typ die Produktionskosten von Ada sind mindestens um 50% gestiegen vs. Ampere, deshalb wurde u.a. die 4070 "still" in 4080 12GB umbenannt.
https://youtu.be/u07OVq3x0dc
Die Kosten werden bei AMD auch hoch gegangen sein, aber der ältere Prozess ist sicher nicht so teuer wie High End.
Die höheren Kosten kann NV nur Mit ihrem
High Endern covern deshalb die Entscheidung zur 4080/12.
AMD hatte das doch auch kürzlich erst kommuniziert und TSMC ebenso, meine ich (gestiegene Material und Energie kosten).

Das man als langjähriger Kunde einen loyalty Bonus bekommt ist doch unbestritten und NV hüpft halt oftmals in das Bett der günstigsten (was jetzt aber nicht mehr ging, da sie gegen RDNA3 mit good old Samsung erst recht keine Chance gehabt hätten auf die Taktraten zu kommen, die es braucht).

Ausserdem ist Lisa Sue ne ganze Ecke sexier als der alte Mann im Lederkostüm ;-)

CoolhandX
2022-09-21, 11:37:13
Was sind denn das für Preise. Die 4090 in USA für 1599$ aber in Europa 1950€. Die 4080 für 1469€. Ist schon echt heftig. Wie gut das ich diese Generation überspringe. Wobei die nächste wird dann wohl noch teurer. :-D

Edgecrusher86
2022-09-21, 11:38:06
AD104 kommt noch als 80-er? :confused:

Hallo RTX 4080 12GB - (GA104-400, 60SM => 7680SP). Kein schlechter Deal hierzulande für die 1099€ als FE (und dann wohl bis zu 300€ Aufpreis für AIB Modelle). :D


Was sind denn das für Preise. Die 4090 in USA für 1599$ aber in Europa 1950€. Die 4080 für 1469€. Ist schon echt heftig. Wie gut das ich diese Generation überspringe. Wobei die nächste wird dann wohl noch teurer. :-D

2020 war der Euro ein wenig mehr wert...leider. :freak:

PHuV
2022-09-21, 11:38:58
Das kapiere ich auch nicht. Jeder denkende Mensch hört weg, wenn es um "Performance mit DLSS" geht. Das ist ZUSATZ - etwas, mit was man sich beschäftigt, wenn man die NORMAL-Performance kennt.
Sehe ich auch so. Wobei ich mich schon wundere, 328 Tensor Cores zu 1400 Einheiten ist schon eine gewaltige Steigerung bei der 4090, das ist Faktor 4, was dann auch die Steigerung 4x bei DLSS 3.0 erklärt. Ich selbst vermeide bis heute DLSS, und die ersten echten Benchmarks werden dann hoffentlich die realen Werte zeigen.

Trotzdem finde ich es wieder beeindruckend, was da geschaffen wurde, auch wenn real vielleicht nur 55% rauskommt. Für ML/DL dürfte eine 4090 wieder der Renner werden.

@Rest

Ist doch wieder unschön zu sehen, daß sich die Leute angesichts vieler Krisen auf der Welt hier nur unsachlich und bösartig anfeinden, und sich hier rein gar nichts geändert hat, incl Mods, die das alles so durchgehen lassen. Nehmt Euch mal ein Beispiel an anderen Foren, die sowas deutlich konsequenter und besser bereinigen. 3D-Center ist an sich nur noch ein Schatten seiner selbst und weit weg von einem Enthusiastenforum wie früher.
Ich bin dann mal bis zum Kauf wieder :weg:

dargo
2022-09-21, 11:40:00
Hallo RTX 4080 12GB. :D
Habe da was verwechselt. Ich dachte die 4080 16GB und 12GB wären beide AD103. Letzteres ist ja AD104. Das ist ja noch bekloppter als zuerst vermutet... ein 300mm² Chip hat ne UVP von 899$. :lol:

Redneck
2022-09-21, 11:40:40
Was sind denn das für Preise. Die 4090 in USA für 1599$ aber in Europa 1950€. Die 4080 für 1469€. Ist schon echt heftig. Wie gut das ich diese Generation überspringe. Wobei die nächste wird dann wohl noch teurer. :-D
Sind die US Preise excl VAT? (hier sind sie inkl MwSt).. Wenn drüben noch die VAT draufkommt, nähern sich die Preise ja an

Edgecrusher86
2022-09-21, 11:42:55
Habe da was verwechselt. Ich dachte die 4080 16GB und 12GB wären beide AD103. Letzteres ist ja AD104. Das ist ja noch bekloppter als zuerst vermutet... ein 300mm² Chip hat ne UVP von 899$. :lol:

Ach, sowas ähnliches gab es doch schon früher - GTX 1080 FE etwa => 789€ und ich habe natürlich zwei gekauft gehabt als Übergang zum 1080 Ti FE SLI. Hach, früher war alles besser ^^.... 2x Ada 102 mit DLSS wäre ein Traum....16K ahoi [48GB dann, natürlich]. ;D

Troyan
2022-09-21, 11:45:08
Lag im Vergleich zu was? Wenn ich 60FPS nativ habe und mit DLSS3 dann 120, dann erzeugt es kein lag gegenüber den 60FPS. Gegenüber nativen 120FPS ist es trotzdem hinterher und zwar genau dann wenn es darauf ankommt: Bei Nutzereingaben. Für kompetitive Spiele ist das kein FPS Gewinn!

Diese Spiele haben von sich aus schon hohe Frames. Außer wir nehmen Battlefield 2042. ;D


Es ist eben kein neues Bild, weil keine neuen Inhalte gerendert werden sondern dieselben aus dem vorherigen Frame nur leicht verschoben. Es sollte daher im Vergleich auch nicht als echter Frame gezählt werden. Die CPU und game-engine hat keinen neuen Frame angefordert der mit neuen Inhalten berechnet würde. Es ist der alte Frame, leicht verändert.

Lmao, was? Wenn ein Monitor 100Hz hat, kann es jede 10ms ein neues Bild anzeigen. Wenn ein Spiel nur alle 20ms ein Bild rendert, dann wird das selbe Bild dupliziert. Mit Frame Generation wird also innerhalb der 20ms ein neues Bild generiert, was den Übergang zwischen 1 und 2 darstellt. Wie das geschieht, ist genauso wie bei TAAU für uns Spieler vollkommen egal.


Es ist IMO eine Technologie zur Qualitätssteigerung, so wie FSAA, Aniso oder image sharpening, nur eben in Bezug auf die Flüssigkeit der Darstellung. Aber es sind imo keine echten FPS.
Natürlich kann man selbst in Shootern DLSS3 einschalten um in den Genuss eines flüssigeren Spielerlebnisses zu kommen. 120Bilder statt 60 nativ sieht sicher besser aus. Dann darf man sich aber bloß nicht einbilden dass man plötzlich 120FPS hätte die doch so gut zum 120hz monitor passen. Denn der Input Lag ist immer noch derselbe wie mit 60FPS.

Natürlich hat man 120FPS. :freak:

In dem Video von Cyberpunk hat man bei 60 FPS eine Eingabeverzögerung von 66ms. Fast 4x länger als die Darstellung der Bilder. Da ist die Diskussion irgendwie strange über Eingabeverzögerung von DLSS 3 zu reden.

Platos
2022-09-21, 11:53:46
2x Ada 102 mit DLSS wäre ein Traum....16K ahoi [48GB dann, natürlich]. ;D

Sowas wie DSR 8k ist im Vergleich zu nem nativen 8k Bildschirm einfach nur ein Witz. Ergo ist DSR ne enorme Ressourcenverschwendung, gerade, wenn man sowieso schon bei 8K Nativ ist (also auf 16k gehen will).

Das macht eig. nur Sinn, wenn sowohl Framerate als auch Auflösung und Settings auf Max sind und man noch Leistung übrig hat.

Abgesehen davon gibts gar keine 16K Bildschirme :D Also ist das nur so möglich.

igg
2022-09-21, 11:55:34
Die Preise sind ja Wahnsinn... das wars dann wohl für PC Gaming erstmal, zumindest was neue Spiele angeht...

Wuge
2022-09-21, 11:56:55
Ne Nacht drüber geschlafen und ziemlich enttäuscht... ich hatte auf 3090x2 Rasterleistung gehofft. Immerhin, die 4090 ist trotz 60% mehr Rohleistung nur 20-30% schneller als 4080 - das wird dann wohl powerlimitiert sein. Vielleicht kann die 4090 auch noch mal 20% on top, wenn man die Leistungsaufnahme inkauf nimmt.

Neurosphere
2022-09-21, 12:00:47
https://pbs.twimg.com/media/FdIRNDLWAAA5s7D?format=jpg&name=large

Strix Alt gegen Neu.

Hammer wenn man bedenkt das die 4080 16GB wohl den gleichen Kühler bekommt.

Konami
2022-09-21, 12:14:08
Das Argument von Troyan macht schon Sinn. nVidia scheint ein Kostenproblem zu haben und „muss“ die Preise so hoch ansetzen.
nVidia hat Margen von 65%+. Dieses so genannte "Kostenproblem" geht eher darum, den Aktionären zu verkaufen, dass man auch nach dem Mining-Bust noch extrem hohe Gewinne beibehalten kann.

Gut, das war ja irgendwie zu erwarten. Bei Rasterization ist irgendwie der Punkt erreicht, dass man mit jeder Generation noch groß was holen kann. Breiter skaliert nicht wirklich, höhere Frequenzen kosten Effizienz. RT als nächster Schritt ist die logische Konsequenz, AI-Upscaling/Filtering/etc hilft auch.
Wetten, dass wir plötzlich super Skalierung hätten, wenn die Speicherbandbreite mal wieder proportional mit der Rechenleistung ansteigen würde? Dafür müsste man halt entsprechend breite Interfaces verbauen oder gar auf HBM setzen, und das würde wiederum nVidias Margen reduzieren. Ist also leider ausgeschlossen. :freak:

DLSS3 soll keine Zwischenbildberechnung sein. Es verwendet bewegungsvektoren.



https://twitter.com/BartWronsk/status/1572249913005641730?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1572249 913005641730%7Ctwgr%5Efa291bcd80ffc3d08cfd35c8fb00bdd53d5a2204%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fforum.beyond3d.com%2Fthreads%2Fnvidia-ada-speculation-rumours-and-discussion.62474%2Fpage-66
I don't buy it. "Kein zusätzlicher Inputlag" wäre nur möglich, wenn man einen Monitor mit unendlich Refreshrate hätte – dann könnte das nächste "reale" Frame instantan nach dem DLSS-Frame angezeigt werden.
In Wirklichkeit setzt der Monitor (v.a. bei Adaptive Sync) aber quasi ein Timeout, bis zu dem nix Neues mehr angezeigt werden kann. Wenn also meine GPU ein "Fake-Frame" an den Monitor schickt und damit einen Refresh triggert, dann wird es schon dadurch ggf. länger dauern, bis das nächste Frame angezeigt werden kann, wo z.B. mein neuer Maus-Input berücksichtigt wird.
Durch die Kopplung von DLSS 3.0 mit Reflex kaschiert nVidia hier halt klugerweise das Problem, aber solange man Reflex auch ohne Frame-Interpolation haben kann, wird das immer vorzuziehen sein.

Exxtreme
2022-09-21, 12:18:50
Die Preise sind ja Wahnsinn... das wars dann wohl für PC Gaming erstmal, zumindest was neue Spiele angeht...

Die neuen Spiele werden auch auf Uralthardware gut laufen. Musst halt einige Regler runtersetzen.

Edgecrusher86
2022-09-21, 12:20:56
Abgesehen davon gibts gar keine 16K Bildschirme :D Also ist das nur so möglich.

Dann halt 8K nativ + 4.00x DL-DSR (später), egal. War eh bezogen auf das Orb-Tool. Hauptsache man kann klotzen und ein png ist ein paar hundert MB schwer.
Mal schauen, wann man endlich das gute alte Max Payne 3 in 16K+8xMS zocken können wird - für die RTX 5090 mache ich mir da wenig Hoffnung bei nur 48GB, da werden 64GB Pflicht sein. :freak:

P.S.: Grob 52GB VRAM möchte das Spiel bei 5760p + 8xMSAA sehen, meine 60+ GB Schätzung dürfte also für 16:9 hin hauen. :D

HPVD
2022-09-21, 12:21:00
selbst die neue Profi Karte
NVIDIA RTX 6000
auf Ada Basis (Vollausbau 102)
bleibt bei bereits vom Vorgänger bekanntem:
- 48GB
- 4x DisplayPort 1.4
- PCIe Gen 4 x 16

https://www.nvidia.com/en-us/design-visualization/rtx-6000/

-> hätte ich nicht erwartet, da man gerade im pro Bereich von mehr/dem neuesten profitiert hätte...

=> kann der Chip nicht mehr oder hebt man sich das einfach schon für den Refresh in nem Jahr auf?
- etwas mehr Takt,
- etwas mehr freigeschaltete Einheiten (in Consumer Varianten),
- neue Schnittstellen und
- neue PCIe Generation?

Sardaukar.nsn
2022-09-21, 12:22:17
Kann man eigentlich schon was kaufen oder zumindest vorbestellen?