PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

Prinzenrolle
2024-10-02, 14:27:05
Wird die 5080 schneller sein als die 4090?

Ja, das sollte trotz der 10752 Shader der Fall sein. Das sind zwar nur 5% mehr Shader gegenüber der 4080 Super, allerdings sollten die Taktraten wie die IPC und die Bandbreite höher ausfallen. Ich würde sagen es wird etwa vergleichbar sein, also eine 4090 zum deutlich gesunkenen Preis.

999 wird nicht passieren, das ist zu wenig

999 Dollar klingen für eine "light" RTX 5080 mit 16GB Speicher und ~ 300Watt TDP Korsett eigentlich ziemlich perfekt.
Nvidia muss irgendwie auf den anscheinend günstigen N44 reagieren.
Die 5090 kommt ende November und dann schauen wir wo die anderen Modelle sich einreihen werden.:uexplode:

OgrEGT
2024-10-02, 16:36:41
mit sehr hoher Wahrscheinlichkeit - ja.
Wie gesagt, hat die 4090 60% mehr CCs, ein 50% breiteres VRAM Interface und 28% mehr Bandbreite bezogen auf die derzeit spekulierte 5080...
https://videocardz.com/newz/nvidia-geforce-rtx-5080-also-rumored-with-24gb-memory-reportedly-using-3gb-gddr7-modules
Das ist schon einiges an Rohleistungsparametern, die da erstmal aufgeholt werden wollen... Fraglich ist die IPC von BW sowie der Takt der 5080 sowie die damit verbundene Leistungsaufnahme... Laut Link wohl nur bis 400W...

Kriegsgeier
2024-10-02, 16:37:15
Ich versuche auch was positives in dem hypothetisch hohen Preis einer RTX 5090 zu sehen:

Für 2500€-3000€ wird man die Karte zumindest länger als nur 10 Min. im NVIDIA Shop kaufen können. Für Preise nahe 2000€ eher 5-8 Sekunden.

Schnitzl
2024-10-02, 16:44:37
soll ich dir ne Tüte geben zum reinatmen? Nicht dass du hier noch hyperventilierst =)

@OgrEGT: sehe ich genauso, die 5080 muss sich seeeehr weit strecken um an die 4090 ranzukommen

The_Invisible
2024-10-02, 17:00:37
999 wird nicht passieren, das ist zu wenig. außerdem hat die 4090 24GB vs. 16GB und "prestige" was am gebrauchtmarkt ebenfalls einen wert hat. die 2080Ti hat sich z.B. gegen die 3070 lange zeit recht gut im preis gehalten aus diesen zwei gründen.

Denk ich auch, bei Reddit & Co wird für KI Zeugs ja sogar noch 3090er empfohlen wegen den 24GB, da müsste die 5000er schon ein "ultrageiles" 5000er only Feature bringen

BlacKi
2024-10-02, 17:52:27
999 wird nicht passieren, das ist zu wenig. außerdem hat die 4090 24GB vs. 16GB und "prestige" was am gebrauchtmarkt ebenfalls einen wert hat. die 2080Ti hat sich z.B. gegen die 3070 lange zeit recht gut im preis gehalten aus diesen zwei gründen.Hot ist der einzigste, der hier so niedrige summen in den raum wirft. ich bin mir nicht sicher, ob er einen hypetrainversucht aufzubauem, damit er dann möglichst heftig entgleist, oder ob er wirklich denkt, das die rdna4 karten so billig zu haben sein werden, das nv sich genötigt fühlt, den preis so tief zu setzen.


ich halte nach wie vor 1199$ für realistischer.

Platos
2024-10-02, 18:57:31
AMD weiss doch, dass sie eh keine Marktanteile gewinnen, sofern sie nicht agressive Preise fahren und fahren daher (anscheinend) einfach die Hochpreisschiene und setzen auf ihre DieHard Käufer, die alles kaufen, solange AMD drauf steht.

m.M.n kann amd nur noch durch aggressive Preise Marktanteile gwinnen, denn beim der Hardware hinken sie einfach zu sehr hinterher. Tun sie aber bisher gar nicht.

basix
2024-10-02, 19:36:15
Wie gesagt, hat die 4090 60% mehr CCs, ein 50% breiteres VRAM Interface und 28% mehr Bandbreite bezogen auf die derzeit spekulierte 5080...

Die 4090 ist die falsche Basis. Lieber die 4080 nehmen und hier höhere Taktraten und mehr SMs annehmen. Das wird näher an der Wahrheit liegen.

Hot ist der einzigste, der hier so niedrige summen in den raum wirft. ich bin mir nicht sicher, ob er einen hypetrainversucht aufzubauem, damit er dann möglichst heftig entgleist, oder ob er wirklich denkt, das die rdna4 karten so billig zu haben sein werden, das nv sich genötigt fühlt, den preis so tief zu setzen.


ich halte nach wie vor 1199$ für realistischer.
Tesseract hat in seinem Post den Preis der 4090 nach 5080 Release gemeint und dass der nicht auf <999$ fallen wird auch wenn die 5080 für 999$ kommen sollte. Einfach weil es der alte Big Chip ist und 24GByte bietet. ;)

Wie gesagt, gleicher Preis wie die 4080 Super bei +30% Performance sind keine riesige P/L Steigerung. Herstellungskostten werden in etwa ähnlich sein. Höhere Preise bei der 4080 haben sich schlecht verkauft und im post-Corona Zeitalter wird sich das noch schlechter verkaufen.

OgrEGT
2024-10-02, 19:41:39
Die 4090 ist die falsche Basis. Lieber die 4080 nehmen und hier höhere Taktraten und mehr SMs annehmen. Das wird näher an der Wahrheit liegen.


Tesseract hat in seinem Post den Preis der 4090 nach 5080 Release gemeint und dass der nicht auf <999$ fallen wird auch wenn die 5080 für 999$ kommen sollte. Einfach weil es der alte Big Chip ist und 24GByte bietet. ;)

Wie gesagt, gleicher Preis wie die 4080 Super bei +30% Performance sind keine riesige P/L Steigerung. Herstellungskostten werden in etwa ähnlich sein. Höhere Preise bei der 4080 haben sich schlecht verkauft und im post-Corona Zeitalter wird sich das noch schlechter verkaufen.
Naja... die 4080/S liegen ohne großen Aufwand vor der 3090/ti...
3090 vs 4080 +25%
3090ti vs 4080 +18%

diesmal sieht es nicht so selbstverständlich danach aus...

BlacKi
2024-10-02, 19:49:11
Wie gesagt, gleicher Preis wie die 4080 Super bei +30% Performance sind keine riesige P/L Steigerung. Herstellungskostten werden in etwa ähnlich sein. Höhere Preise bei der 4080 haben sich schlecht verkauft und im post-Corona Zeitalter wird sich das noch schlechter verkaufen.erstens, gibts vermutlich keinen druck, die karten werden anfangs nicht massenhaft verfügbar sein.


zweitens, wann gabs denn bei der x080 das letzte mal +30% perf. per watt direkt beim start?


der unterschied zur 4080 super ist der, das die 4080super uvp vs 4080 uvp in der marge zwar eingebüst hast durch den preisdrop, aber man anfangs durchaus die marge mitgenommen hat. das wird man bei der 5080 genauso tun, und auch tun können. denn selbst wenn die karte dieselben herstellerungskosten hat, wird sie anfangs garantiert nicht zum selben preis verkauft werden, denn dann kann man nachträglich nichtmehr viel senken.


ich reminde dich an die 999$ 4080 12gb. nv wird nv dinge tun.



mehr als einen steigerung der perf/€ von 15% wird man kaum sehen. alles andere würde auch das restliche portfolio killen.

Sardaukar.nsn
2024-10-02, 19:59:49
...
ich reminde dich an die 999$ 4080 12gb. nv wird nv dinge tun.
...

Die Episode hatte ich schon völlig verdrängt. :freak:

basix
2024-10-02, 20:00:03
Naja... die 4080/S liegen ohne großen Aufwand vor der 3090/ti...
3090 vs 4080 +25%
3090ti vs 4080 +18%

diesmal sieht es nicht so selbstverständlich danach aus...

Man wird nicht viel schneller als die 4090 sein, nein. Darum geht es aber gar nicht. Die 4090 skaliert so schlecht mit FLOPS und Bandbreite, dass sich das als Referenz für die 5080 eben nicht eignet. AD107 bis AD103 skalieren in etwa so wie erwartet (ausser AD106, welcher etwas an Bandbreite krankt). AD102 ist was die Skalierung angeht völlig nicht in der Linie mit den anderen Ada Karten.

y33H@
2024-10-02, 20:22:37
Nvidia hat bei der RTX 4090 den L2 böse kastriert, meine Vermutung warum das Ding nicht mit SMs und Bandbreite skaliert wie man es erwarten würde.

Schnitzl
2024-10-02, 20:32:13
(...) ich reminde dich an die 999$ 4080 12gb. nv wird nv dinge tun. (...)
:D

wie wärs denn damit:
die 4090 bleibt, wird ggf. umbenannt in 5080ti
wäre dann ein runderes Portfolio... man wird ja noch träumen dürfen ... ;)

The_Invisible
2024-10-02, 21:19:14
Nvidia hat bei der RTX 4090 den L2 böse kastriert, meine Vermutung warum das Ding nicht mit SMs und Bandbreite skaliert wie man es erwarten würde.

Hat keiner eine rtx6000ada um das gegenzuprüfen :D

Altehardware
2024-10-03, 08:53:19
mal meine Sparbüchse holen schlappe 8000€ für ne optimal konfigurierte ad102 142sm 2,5ghz 62tf
ich sage ohne es zu testen das diese gpu auch nicht skaliert das problem der rtx4090 ist die cpu
Aktuell schnellste cpu ist er r7 7800x3d und manchmal der oc ci9 1400ks sofern stabil.
Und dennoch kommt die gpu in ein cpu limit oft sieht man da 65-80% gpu load
Da braucht es schon pathtracing um überhaupt die gpu auszulasten aber dann schlägt das PT limit mit 450w zu und der Takt sinkt auf baseclock von 2,2ghz was dann nur noch 49tf sind vs rtx4080super+30%
Die rtx 6000 ada ist gut ausbalanciert und wäre mit dem 300w tbp ideal als gaming gpu nur die 48gb vram müssten nicht sein.

Dural
2024-10-03, 10:05:40
Bei den Quadro Karten gibt es ja AD102 voll, und die skalieren auch nicht wirklich besser.

Haben aber auch GDDR6.

y33H@
2024-10-03, 10:41:32
Eine RTX 6000 Ada ist auf 300W begrenzt und hat 20 Gbps GDDR6, man müsste eine RTX 4090 ergo minimal untertakten (21 Gbps GDDR6) und Power drosseln oder aber bei der Quadro das Power Limit anheben falls möglich.

ChaosTM
2024-10-03, 12:32:02
Die 4090er kann sich unter speziellen Bedingungen schon recht gut von der 80er absetzten.
Kurz vor dem Wechseln von 80er auf 90er hab ich viel herumexperimentiert, unter anderem mit GTA5 @ 8k und 4x MSAA.
Die 80er hat knapp 30fps geschafft. Bei 8x MSAA ging ihr dann der Speicher aus und die Sache verkam zu einer Diashow.
Die 90er erreicht mit den selben Einstellungen immerhin 47fps.
Bei 8x MSAA wirds auch zach mit ~35.

Das sind natürlich keine Einstellung mit denen man ernsthaft spielen will.

Also +50(+)% ist schon drinnen. Sah ich auch bei ein oder zwei anderen Spielen @ 4K MAX/RT/PT/RR usw..
CP77 gehört da glaub ich auch dazu.
HighRes Mods die den Speicher der 80er zumüllen nicht mit eingerechnet.

The_Invisible
2024-10-03, 14:03:49
Jap in outlaws rtxdi zieht sie zb auch mit >40% davon, min FPS sogar fast 50%: https://www.pcgameshardware.de/Star-Wars-Outlaws-Spiel-74306/Specials/Review-Test-Release-Benchmark-Grafikkarte-CPU-1454951/2/

reaperrr
2024-10-03, 14:10:13
Ich glaube, dass es bei der 4090 einfach mehrere Dinge sind, je nach Spiel:

- 25% weniger L2 je MemController/Speicherkanal, kaum höhere L2-Hitrate als ne 4080 bzw. je Speicherkanal sogar weniger.
- etwas niedrigerer Speichertakt, also nicht nur je Speicherkanal früher auf VRAM zugreifen müssen, sondern der ist dann auch noch etwas langsamer.
- GigaThread-Engine (oder wie auch immer Nvidia's CommandProcessor-Gegenstück heißt) muss 60% mehr SM je Takt füttern be gleichzeitig etwas niedrigerem Takt.
- Nvidia's Treiber hat bei Ada definitiv in manchen Spielen einen höheren CPU-Overhead als bspw. der von AMD bei RDNA3, das bremst die 4090 manchmal auch noch aus.
- Manche generell CPU-hungrige Spiele profitieren ab einem bestimmten Punkt vermutlich so oder so nicht so stark von leistungsfähigeren Grakas, weil es dafür erst deutlich schnellere CPUs bräuchte.

Die 5080 wird neben sonstigen uArch-Verbesserungen mindestens eine bessere Auslastung durch deutlich mehr Takt bei weniger SM haben.
Bei der 5080 würde es mich außerdem nicht überraschen, wenn NV vielleicht doch direkt auf 30-32 Gbps Speicher setzt statt der 28Gbps-Gerüchte, denn eigentlich wollen ja alle GDDR7-Hersteller direkt zum Start 32Gbps-G7 im Angebot haben.
Dann wäre die 5080 auch bei der Bandbreite ca. auf 4090-Niveau.
Für die 5090 wären 28Gbps wegen dem breiteren SI und wachsenden L2 wohl ausreichend (die TDPs deuten außerdem darauf hin, dass die 5090 näher am SweetSpot takten wird als die 5080), aber die 5080 könnte die 32Gbps vermutlich schon gebrauchen bzw. würde davon profitieren.

dildo4u
2024-10-03, 14:11:43
Ist Outlaws nicht ein Vram Fresser da muss man aufpassen ob die 16GB mit RTXDI reichen.

ChaosTM
2024-10-03, 15:06:19
Das könnte in dem Fall in der Tat mit hineinspielen.
Beim GTA Beispiel lag die Speicherbelegung bei 4x MSAA noch deutlich drunter.
Bei 8x mit 17,4 GB aber drüber und das merkt man extrem.

+ da gehts dann gleich auf 12-15 runter

BlacKi
2024-10-04, 19:06:43
ist blackwell ultra jetzt ein refresh? ein architektur refresh?
https://www.computerbase.de/news/grafikkarten/nvidia-ceo-jensen-huang-blackwell-wird-in-serie-gefertigt-die-nachfrage-ist-verrueckt.89845/

horn 12
2024-10-04, 19:18:10
Denke da lief nicht alles Rund bei Blackwell, deshalb Refresh und durch Rubin Mitte 2026 ersetzt

Linmoum
2024-10-04, 19:29:03
Deswegen gibt's auch Rubin Ultra, weil bei Rubin nicht alles rund läuft? Es gibt in Zukunft jährlich ein Architektur-Update bei Nvidia, ob das nun Ultra, Mega oder Hansguckindieluft heißt, ist am Ende doch völlig egal.

Neosix
2024-10-04, 20:14:17
Genau, es wurde schon früher kommuniziert, dass die AI Chips jährlich kommen sollen, das hat aber auf die 2 Jahres Gaming Chips keine Auswirkungen.

Blase
2024-10-05, 10:08:44
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:

Ich hoffe auf Preise spürbar unterhalb von 2.500€, wäre aber wahrscheinlich auch bereit, eben die 2.500€ auf den Tisch zu legen, wenn das "Mehr" gegenüber der 4090 das für mich rechtfertigt. Immerhin gibt es für die 4090 ja noch gutes Geld zurück.
Ich wüsste aber nicht, wie dieses "Mehr" aussehen sollte, damit ich beispielsweise auch 2.900€ - 3.000€ auf den Tisch legen würde. Wie seht ihr das?

MfG Blase

boxleitnerb
2024-10-05, 10:21:38
Ich will die 499.- GTX 580 zurück 😜

prinz_valium_2
2024-10-05, 10:29:52
https://youtu.be/cvL-Mplhog8
Das Video sagt eigentlich alles zu den Preisen und warum viele Probleme damit haben



Wenn die 5090 und 5080 so weit von den Specs auseinanderliegen, dann hoffentlich auch beim Preis
Und das geht nur, wenn die 5090 mindestens $1999 kostet. Sonst müsste die 5080 ja günstig werden

OgrEGT
2024-10-05, 10:30:17
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:

Ich hoffe auf Preise spürbar unterhalb von 2.500€, wäre aber wahrscheinlich auch bereit, eben die 2.500€ auf den Tisch zu legen, wenn das "Mehr" gegenüber der 4090 das für mich rechtfertigt. Immerhin gibt es für die 4090 ja noch gutes Geld zurück.
Ich wüsste aber nicht, wie dieses "Mehr" aussehen sollte, damit ich beispielsweise auch 2.900€ - 3.000€ auf den Tisch legen würde. Wie seht ihr das?

MfG Blase

Meister Yoda sagt:
Tu es oder tu es nicht... es gibt kein versuchen...

Sardaukar.nsn
2024-10-05, 10:30:36
@Blase: Kann ich nicht beantworten, ohne die Leistung zu kennen. Ohne neue must-have Features wird es aber schwieriger.

Blase
2024-10-05, 10:31:37
Ich will die 499.- GTX 580 zurück ��

Da bin ich schon bei dir. Meine HD5870 hat mich seinerzeit keine 400€ gekostet. Die GTX 1070 ebenso wenig. Beides tolle Karten zu ihrer Zeit. Oder für meinen damaligen Wohnzimmer PC - ne HD4870 für 110€. Für den Preis gibt's heute nen Taschenrechner :freak:

Aber es nutzt nix, diesen Zeiten hinterher zu trauern. Die kommen nie wieder...

@Blase: Kann ich nicht beantworten, ohne die Leistung zu kennen. Ohne neue must-have Features wird es aber schwieriger.

Das steht außer Frage. Für +20% würde ich selbst dann nicht umsteigen, selbst wenn sie die 5090 für 1.999€ verramschen würden. Aber hast du keine Schmerzgrenze nach oben hin? So lange die Leistung entsprechend ist? Und was wäre für dich "entsprechend"?

Meister Yoda sagt:
Tu es oder tu es nicht... es gibt kein versuchen...

Im Kontext der Preissituation seit einigen Jahren... Vergessen du musst, was früher du gelernt ;)

MfG Blase

Fragman
2024-10-05, 10:34:26
Das Problem sehe ich eher darin, das es auf der Softwareseite nichts gibt, was 2500 Euro rechtfertigen würde.
Selbst wenn die Karte in PT doppelt so schnell wäre als die 4090 bringt das nichts.
Mehr Frames klar, aber ist das genug in diesen Preis-und Leistungsregionen?

Die Frage ist eher, ob eine 5090 mit diesem Preis noch als Gamingkarte gewertet werden kann wenn viele sowieso nur 5070 Level kaufen das preislich eher unter 800 Euro angesiedelt ist, was ein drittel des Preises ist.
Die Karte ist dann ein reines Haloprodukt bei dem sich so eine Frage nicht stellt.

Da müsste nv schon einiges präsentieren, um diese Karte noch als Gamingkarte einzuordnen.
Eigentlich einige Spielepatches die PT in bekannte Spiele bringen.
Dazu Hardwareoptimierungen, die bisherigen RT Spielen massive Leistungszuwächse bringen, die dann nur auf dieser Karte sichtbar wären. Das ist alles aber nicht zu erwarten.

Ich kann die Frage für mich auch nicht beantworten, weil meine Antwort an vielen (unwahrscheinlichen) "wenns" hängt.

Sardaukar.nsn
2024-10-05, 10:38:20
Problem ist aber das Warten auch nicht lohnt. So ein Teil muss man eigentlich am Day-1 möglich zum UVP kaufen und zwei Jahre nutzen.

basix
2024-10-05, 10:43:56
ist blackwell ultra jetzt ein refresh? ein architektur refresh?
https://www.computerbase.de/news/grafikkarten/nvidia-ceo-jensen-huang-blackwell-wird-in-serie-gefertigt-die-nachfrage-ist-verrueckt.89845/

Blackwell Ultra ist vermutlich ein N3E Aufguss von Blackwell. Sagen wir mal 1.5x Performance wegen höherer Density und Perf/Watt aber keine wesentlichen Änderungen an der Architektur. Dazu beim HBM nachziehen (etwas mehr Bandbreite, mehr Kapazität). Es bleibt aber bei 8x HBM-3E-Stacks.

Deswegen gibt's auch Rubin Ultra, weil bei Rubin nicht alles rund läuft? Es gibt in Zukunft jährlich ein Architektur-Update bei Nvidia, ob das nun Ultra, Mega oder Hansguckindieluft heißt, ist am Ende doch völlig egal.
Bei Rubin könnte es ähnlich wie bei Blackwell sein. Rubin kommt in N3E (12x HBM4-Stacks) und Rubin Ultra in N2(P). Dann dito hinsichtlich mehr HBM Speed und Kapazität, es bleibt aber auch hier bei 12x Stacks (wird vom Packaging limitiert).

Eine neue Architektur mit 1 Jahr Kadenz kann sich auch Nvidia nicht leisten.

Der Nachfolger von Rubin Ultra wird dann aber interessant:
Hier könnte zum ersten Mal Wafer-Scale-Packaging zum Einsatz kommen (CoW-SoW). Anstatt 4-8x GPUs hätte man einen einzelnen Wafer pro Blade. Dort passen dann allerdings 2-3x so viele GPUs drauf wie Blackwell mit total 1600mm2 und der ganze GPU <-> GPU Interconnect wird massiv beschleunigt. Daneben kann man NVLink-Bridges (Blade-to-Blade / Intra-Rack Kommunikation) und DPU-Chips sowie optische Tranceiver (Rack-to-Rack Kommunikation) auch gleich auf den Wafer knallen. Für die Datacenter Skalierung wäre das massiv.

TSMC CoW-SoW:
https://www.anandtech.com/show/21372/tsmcs-system-on-wafer-platform-goes-3d-cow-sow

Edit:
TSMC Co-Packaged Optics: https://www.anandtech.com/show/21373/tsmc-adds-silicon-photonics-coupe-roadmap-128tbps-on-package

Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:

Ich hoffe auf Preise spürbar unterhalb von 2.500€, wäre aber wahrscheinlich auch bereit, eben die 2.500€ auf den Tisch zu legen, wenn das "Mehr" gegenüber der 4090 das für mich rechtfertigt. Immerhin gibt es für die 4090 ja noch gutes Geld zurück.
Ich wüsste aber nicht, wie dieses "Mehr" aussehen sollte, damit ich beispielsweise auch 2.900€ - 3.000€ auf den Tisch legen würde. Wie seht ihr das?

MfG Blase
Eigentlich war mir die 4090 schon zu teuer (habe etwas mehr als 2000 Euro beim Day-1 Kauf gezahlt) aber ich hatte und habe viel Spass damit. 2000 Euro MSRP sind bereits deutlich mehr als die 4090 in "guten" Zeiten gekostet hat. Ich würde also in diese Richtung tendieren: 1899...1999$ MSRP. Ob ich die dann kaufen werde? Hängt vom Mehrwert ab. "Nur" 1.5x Performance werden nicht reichen. 2500 Euro werde ich auch nicht zahlen, irgendwo hat es Grenzen und mit der 4090 bin ich ja nicht schlecht versorgt.

y33H@
2024-10-05, 10:45:36
Die RTX 5090 bringt wahrscheinlich signifikant mehr Fps solange die CPU mitspielt - das reicht mir persönlich als Argument bereits für Stalker 2 und Co, alles andere ist dann nice to have on top.

Weltraumeule
2024-10-05, 12:03:45
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:

1000 €, mehr kann ich mir einfach nicht leisten :smile: Also hole ich mir die 5090 oder etwas in der Leistung erst in 3-4 Jahren, wenn es die Leistung für den Preis geben wird.
Habe mir gerade die 4080 Super für den Preis geholt. Hoffe das war kein Fehler.

basix
2024-10-05, 12:05:14
Eine 5080 könnte bei diesem Preispunkt landen :)

ChaosTM
2024-10-05, 12:08:18
Problem ist aber das Warten auch nicht lohnt. So ein Teil muss man eigentlich am Day-1 möglich zum UVP kaufen und zwei fünf Jahre nutzen.

ftfy

Früher hab ich auch dauernd gewechselt. Die 90er wird wieder 5 Jahre "halten"

Weltraumeule
2024-10-05, 12:19:00
Eine 5080 könnte bei diesem Preispunkt landen :)
Meinst du? Nicht eher ab 1200 €?

BlacKi
2024-10-05, 12:26:11
man könnte ja mal eine umfrage machen, denn die preiseinschätzungen hier im forum scheinen stark zu variieren.

Sardaukar.nsn
2024-10-05, 12:28:59
ftfy

Früher hab ich auch dauernd gewechselt. Die 90er wird wieder 5 Jahre "halten"

Könnte hier auch passieren, wenn es keine Killer Features gibt. Leistung ist für 4K/120 auf dem LG C2 meist noch voll ausreichend. Aber ich habe auch viel Spaß an neuer Hardware, ist halt Hobby. Was hauen meine Mitmenschen an Kohle für Fahrräder, E-Bikes und Hifi raus. Ist gesellschaftlich voll akzeptiert. Jedem das Seine ;)

ChaosTM
2024-10-05, 12:30:36
Jensen könnte diesmal "großzügig" sein und humane Preise verlangen. Verdient ja genug mit E-Ei.

Lol, just scherzing..

Die 90er wird auf jeden Fall mondpreisig, bei der 80er bin ich mir nicht sicher

@Sardaukar.nsn so wie hier..

basix
2024-10-05, 12:56:36
Meinst du? Nicht eher ab 1200 €?

Bei 999$ MSRP wären das ca. 1100-1200 Euro, ja.

Altehardware
2024-10-05, 13:14:34
Den vergleich den HWU macht hat was
https://youtu.be/cvL-Mplhog8
So habe ich das nicht gesehen trotz paar schwächen bei den alu fp32 Leistung den diese ist gravierend
ich sage nur
gtx700 Serie hatte noch die sfu aktiv davon gab es je sm 32
Das hat leicht die Leistung erhöht
Somit ist je sm dann gtx700 1,1ghz 1sm 192alu 0,5tf maxed 16sm maxed 15 aktiv
Sku dann
gtx 780ti 15sm 2880alu + 480sfu faktisch 3120alu 100% 800€ Heute +30% 1040€
gtx 780 12sm 2304 +384 Effektiv 2496 alu 80% 600€ heute +30% 780€
gtx770 8sm 1536alu +480 effektiv 1792 alu 57% 400€ Heute +30% 520€
gtx760 6sm 1152alu + 192sfu Effektiv 1344 alu 43% 240€ heute +30% 310€
gtx750ti 5sm (andere arch ) 640alu +160sfu Effektiv 720 alu 23% 150€ heute +30% 195€

verglichen mit der maxwell arch gtx980ti 6gb war der sprung klein
maxed waren es 22sm mit je 64alu per sm =2816 da aber die sfu deaktiv waren war der sprung von kepler gk110 klein. +- 10% daher stimmen die alu vergleiche da
Mit pascal (gtx10) war es auch korrekt und mit turing (rtx20) ebenso aber ab ampere /rtx30 sieht das anders aus da sich die arch massiv verändert hat

ga102 rtx3090 hat 82sm effektiv 7216 alu 100%
ga102 rtx3080ti 80sm effektiv 7040 alu 97%
ga102 rtx3080 68sm Effektiv 5984 82%
ga104 rtx3070 46sm effektiv 4048 alu 56%
ga104 rtx3060ti 38sm effektiv 3168 alu 43%
ga106 rtx3060 28sm effektiv 2464 alu 34%
ga107 rtx3050 8gb 24sm effektiv 2112 alu 29%

ada rtx40 ist identisch mit ampere bei mehr Takt.
ad102 rtx4090 128sm effektiv 11264 alu 100%
ad103 rtx4080 76sm effektiv 6688 alu 59%
ad104 rtx4070 46sm Effektiv 4048 alu 35%
ad106 rtx4060it 34sm Effektiv 2992 alu 26%
ad107 rtx4060 24sm Effektiv 2112 alu 18%

gb202 wird cowos sein sowie auch gb203
da aber nvidia die arch blackwell identisch ist in allen nodes wird erst ab gb205 monolithische geben

gb202 rtx5090 170sm durch wieder Aktivierung der sfu und eine ähnliche Struktur wie in fermi wird es folgendes geben je alu cluster 128sm wird 8 sfu geben 2 je gruppe von 32 alu in vier gruppen.
Somit sind 170sm +80sfu effektiv dann 17680 alu 100% (tsmc cowos 2,3ghz)
gb203 unklar welche sku vermutlich rtx5080 84sm effektiv 8736 alu 49% (tsmc cowos 2,3ghz)
gb205 rtx5060 50sm effektiv 5200 alu 29% (anderer node sf4 2,3ghz)
gb206 name unsicher 36sm 3744 alu 21% mobil ist sicher (wie der gb205)
gb207 20sm 2080 alu 11% Sehr wahrscheinlich laptop (anderer node tsmc n4p 2,8ghz)

gründe cowos und zwei wafer
n12 4000$
n4x 12000$
Und packaging +20%

Die Monolithen
samsung sf4 8000$
tsmc n4p 11000$

AffenJack
2024-10-05, 13:50:44
Mit der Knappheit der 4090 bin ich mir sicher, dass wir die 5090 noch dieses Jahr sehen. Nvidia wird sich bestimmt nicht so verkalkuliert haben, dass man das weihnachtsgeschäft im Enthusiastbereich verpasst.

Die Frage ist für mich eher, nur Nvidia Referenz dieses Jahr? Das würde zur Geheimhaltung passen. In der Regel kommen die Leaks durch die Partner. Nvidia könnte exklusiv das Weihnachtsgeschäft mitnehmen, während die Partner zur CES launchen.

MiamiNice
2024-10-05, 13:53:41
Jop +1

aceCrasher
2024-10-05, 14:29:23
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:
Ganz ehrlich, unabhängig davon dass ich mit der 4090 sowieso die 50er Serie aussitze: Bei 2500€ uvp bin ich raus.

Für die 4090 habe ich kurz nach Release zwar "ähnlich" viel (~2100€) gezahlt und sie ist unbestritten ein geiles Produkt, aber im Nachhinein hätte es eine 4080 auch getan. In den meisten Spielen brauche ich die Leistung nicht und in den paar Spielen wo sie was bringt hätte ich mit der 4080 dann halt DLSS Performance statt DLSS Quality benutzt. Letztendlich habe ich dann doch nicht so viele RT/PT Grafikbrecher gespielt wie ich mir vorgenommen habe.

Womit mich Nvidia bei der 4090 damals geködert hat ist wie viel größer der Chip im Vergleich zur 4080 war (+60% mehr Shader), es hätte sich einfach nicht richtig angefühlt sich eine 4080 zu kaufen. Bei der 5090 scheint das jetzt wohl auf die Spitze getrieben zu werden mit spekulierten 100% mehr Shadern im Vergleich zur 5080. Ich hoffe dass ich bei meinem nächsten Kauf, vermutlich 2026, mehr Vernunft zeigen werde ;D

MiamiNice
2024-10-05, 15:24:32
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:

Ich hoffe auf Preise spürbar unterhalb von 2.500€, wäre aber wahrscheinlich auch bereit, eben die 2.500€ auf den Tisch zu legen, wenn das "Mehr" gegenüber der 4090 das für mich rechtfertigt. Immerhin gibt es für die 4090 ja noch gutes Geld zurück.
Ich wüsste aber nicht, wie dieses "Mehr" aussehen sollte, damit ich beispielsweise auch 2.900€ - 3.000€ auf den Tisch legen würde. Wie seht ihr das?

MfG Blase

Ich sehe das genau so und auch im selben Preisbereich. Wäre allerdings auch bereit 3k für ne 5090 auf den Tisch zu werfen. Eine Titan dürfe um die 5k kosten.

basix
2024-10-05, 17:50:37
Wenn man die "erwarteten Preise" von manchen so liest gibt es Leute, denen Geld irgendwie egal ist oder zu viel davon haben... :uconf3:

rentex
2024-10-05, 17:58:20
Wenn man die "erwarteten Preise" von manchen so liest gibt es Leute, denen Geld irgendwie egal ist oder zu viel davon haben... :uconf3:

Ja und denen haben wir das aktuelle Preisgefüge zu verdanken.

Slipknot79
2024-10-05, 18:03:16
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:



Die liegt bei >=100% performanc-plus. 99% und Lederjacke bekommt keine Kohle von mir, Pech für ihn, win für mich. Die 4090 wird dann eben 4 Jahre durchballern. (y)

BlacKi
2024-10-05, 18:08:02
Ja und denen haben wir das aktuelle Preisgefüge zu verdanken.das liegt aber nicht an einzelnen, das ist schon eine großer anteil an leuten die bereit sind mehr geld auszugeben. ich sehe da aber auch keine aussicht auf besserung, gerade auch was AI angeht. würden die leute keine teuren gpus kaufen, dann würde lediglich gaming sterben, nicht die gpus billiger werden, da die hersteller von den margen durch AI verwöhnt sind die durchausbereit pc gaming vergammeln zu lassen.

The_Invisible
2024-10-05, 18:18:11
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:


Wenn es ein reines Perf Upgrade ist müsste da schon ordentlich was rumkommen, also vor allem mit RT/PT gegenüber der 4090. Ich erwarte mir da eher wieder ein geiles neues Feature, aber keine Ahnung wie das aussehen kann.

@basix
lol, bei so manch anderem Hobby lacht man über 3k, da bekommt man ja nicht mal einen gscheiten AV/Receiver/Endstufe;D

MiamiNice
2024-10-05, 19:48:07
Wenn man die "erwarteten Preise" von manchen so liest gibt es Leute, denen Geld irgendwie egal ist oder zu viel davon haben... :uconf3:

Ist Dir mal in den Sinn gekommen, dass die Leute, die diese Preise zahlen, da nichts mit zu tun haben? Wenn keiner die Preise zahlen würde, würde die 5090 wahrscheinlich nicht mit solchen Specs kommen. Sondern wahrscheinlich mit einem deutlich kleinerem Chip, weniger Ram, weniger Bandbreite. NV kann die Chips auch anderweitig für viel mehr Geld verkloppen, als an uns Gamer. Wir können froh sein überhaupt noch einen 2er Chip zu bekommen und dann noch mit 512 bit und 32 GB.

Ein bissel mehr Realismus wäre schon irgendwie nett. Seid lieber froh, dass es überhaupt Leute gibt die das noch kaufen können/wollen. Sonst wäre die 5080 nicht die Hälfte von der coolen 5090, sondern die Hälfte einer 5080.

Aquaschaf
2024-10-05, 20:03:29
Ja und denen haben wir das aktuelle Preisgefüge zu verdanken.

Ich denke das driftet etwas ins Off Topic ab, aber das Preisgefüge im oberen Segment liegt vielleicht am ehesten daran dass es da keine Konkurrenz gibt.

basix
2024-10-07, 09:35:01
@basix
lol, bei so manch anderem Hobby lacht man über 3k, da bekommt man ja nicht mal einen gscheiten AV/Receiver/Endstufe;D

Es geht nicht direkt um den Betrag an sich, sondern wie manche über das Thema reden. Bei manchen hat man das Gefühl, sie "wünschen" sich Preise von 3000 Euro. Wenn man es sich leisten kann, schön. Kann man aber für sich behalten ;)

Und zudem kann man sich mit deiner Methode auch alles schönreden. Hey, eine Patek Philippe kostet 100k, ist ja nicht so schlimm wenn der Espresso 15 Euro kostet. Ich hoffe ihr versteht meinen Standpunkt ;)

Ist Dir mal in den Sinn gekommen, dass die Leute, die diese Preise zahlen, da nichts mit zu tun haben? Wenn keiner die Preise zahlen würde, würde die 5090 wahrscheinlich nicht mit solchen Specs kommen. Sondern wahrscheinlich mit einem deutlich kleinerem Chip, weniger Ram, weniger Bandbreite. NV kann die Chips auch anderweitig für viel mehr Geld verkloppen, als an uns Gamer. Wir können froh sein überhaupt noch einen 2er Chip zu bekommen und dann noch mit 512 bit und 32 GB.

Ein bissel mehr Realismus wäre schon irgendwie nett. Seid lieber froh, dass es überhaupt Leute gibt die das noch kaufen können/wollen. Sonst wäre die 5080 nicht die Hälfte von der coolen 5090, sondern die Hälfte einer 5080.
Darf ich dich daran erinnern, dass Nvidia bereits vor dem AI-Boom eine Brutto Marge von 60%+ gehabt hatte und man mittlerweile bei 75%+ angelangt ist (primär wägen Datacenter)? Die Gamer-Karten könnten bei selben Specs deutlich günstiger verkauft werden und Nvidia hätte es immer noch sehr gut.

Mir ist schon klar, dass es immer Leute geben wird, die hohe Preise zahlen werden. Und dass Nvidia im Highend Sektor momentan keine Konkurrenz hat. Doch Nvidia könnte eine 5090 auch für 1500$ verkaufen und würde immer noch sehr gut daran verdienen. Auch eine 5080 könnte einiges günstiger sein (eine 4070 Ti Super mit vermutlich ähnlicher Die-Size und ebenfalls 16GB gibt es für 799$ und das ist nicht der Selbstkostenpreis). Man kann auch von dieser Seite her realistisch sein, Nvidia hätte die hohen Preise nicht nötig um zu funktionieren.

PHuV
2024-10-07, 10:37:20
Mich würde mal ne Umfrage interessieren, wo die individuelle Schmerzgrenze der potenziellen 5090 Käufer liegt :freak:
Bei mir wären dieses Mal, je nachdem, wie gut die Karte ist, 3000-3500€ drin. Ist nicht schön und bestimmt nicht gewollt, aber ich sehe es einfach realistisch anhand der Erfahrungen aus den letzten 10 Jahren. Anderseits hat sich der schnelle Kauf gleich zu Anfang mit 2-Jahreszyklus doch bewährt, weil man danach einfach technisch Ruhe hat, wenn man sich das aktuelle Topmodell leistet.

Ich hoffe auf Preise spürbar unterhalb von 2.500€,

Nicht nur Du.

wäre aber wahrscheinlich auch bereit, eben die 2.500€ auf den Tisch zu legen, wenn das "Mehr" gegenüber der 4090 das für mich rechtfertigt.
Das blöde ist ja, daß der angekündigte Preis immer massiv von den Marktpreisen abweicht. Der Preis für eine 4090 FE war 1799 €, 100 € mehr zur 3090 FE. Die Preissteigerung war - angesichts angespannter Rohstoffpreise und Marktlage Corona - sehr human. Fakt ist, daß wenn Du dann zum Releasetag kaufen wolltest

online eine FE zu Kaufen eher einer Lotterie bei NBB mit deren wirren Konzept glich, wo Du ohne Scapling-Methoden gar keine faire Chance hattest, eine zu ergattern
die GPUs in den Shops in kleine Zahlen vor Ort nicht unter 2499 € zu haben waren
online sonst es auch eine Herausforderung war, irgendwie eine Karte normal zu ordern

Zudem kam bei der 3090 wie bei der 4090 nach 3 Monaten kaum zu einer Entspannung noch zu geringeren Preisen, im Gegenteil, bei der 4090 stiegen sie ja sogar noch an. Ich hatte dann zugunsten der Palit 4090 zum ersten Mal seit langem wieder auf eine direkt Nvidia-GPU verzichtet, weil sie nicht zu bekommen war.
Wenn man die "erwarteten Preise" von manchen so liest gibt es Leute, denen Geld irgendwie egal ist oder zu viel davon haben... :uconf3:
Das nach wie vor immer wieder - auch von langwierigen Mitgliedern - immer wieder diese unterschwellige und vollkommen unnötige Neiddebatte angeheizt wird, nervt. :rolleyes: Das war ja auch der Grund, warum ich hier mich lange rauszog, und dann überrascht feststellte, wie viele sich hier doch eine 4090 gönnten!

Ich behaupte mal, niemanden ist hier weder das Geld egal noch haben sie zuvlel davon. Du legst doch selbst fest, was Deine Prioritäten im Leben sind, oder? Sei es Hausbau, Fahrzeuge, andere Hobbys, Drogen... Du brauchst doch nur mal anschauen, wo und wie die Leute ihr Geld oftmals sinnlos verballern. Und es liegt doch an jedem selbst, wie er was wie investiert, oder wie er seine Ressource einerseits erwirtschaftet

(guter Job, Bildung -> höheres Gehalt),
Nebenjobs, sonstwie Geld verdienen durch Flohmarkt, verkauf anderer unnötiger Dinge usw.
oder einfach sparen (jeden Montag 100 € 24 Monate zurückgelegt = 2400 €),
oder kluges Shiften (alte GPU für 40-50% oder mehr zum Release verkaufen, und damit nur 40-50% wieder aufwenden für neue GPU
Ratenzahlung gibts ja auch noch, wer will oder braucht
...

Und natürlich tun jede Investition mehr oder minder weh, ich würde dann das Geld auch lieber anderweitig verwenden. Aber es zwingt Dich doch keiner, neues zu kaufen, oder? Einem Technikfreund ist eben eine neue GPU wichtiger als neue Kleidung oder anderes. Jammern hilft bei der Marktlage einfach nicht, und eine pragmatische wie realistische Haltung ist einfacher wie nützlicher. Fakt, mit Verzicht oder Boykott bewegt man aktuell schlichtweg gar nichts mehr, weil weltweit eben anders agiert wird. Nvidia ist mittlerweile gar nicht mehr auf die Gamer angewiesen:
https://www.computerbase.de/news/grafikkarten/nvidia-ceo-jensen-huang-blackwell-wird-in-serie-gefertigt-die-nachfrage-ist-verrueckt.89845/

basix
2024-10-07, 11:28:08
Ach komm, das hat nichts mit Neid zu tun. Ich habe selbst eine 4090. Und kann mir auch eine 5090 leisten. Ich bin ein Technik-Freak und das waren die Hauptgründe für meine Käufe der 2080 Ti und 4090. Nur unterstütze ich nicht, dass Dinge teurer verkauft werden als es eigentlich sinnvoll wäre und manche das fast noch abfeiern oder so tun, als hätte das einen validen Grund. Ich kann mir aufgrund Informationen im Internet relativ gut ausrechnen, wie teuer eine Grafikkarte in der Herstellung ist. Und glaube mir, Nvidia verdient sich dumm und dämlich, auch bei den Gamer-GPUs. Das hat nichts mit jammern zu tun, das ist Kritik. Da wir seit 2020 (eigentlich bereits seit 2017/2018 und dem Kryptoboom) in dieser Hinsicht keinen funktionierenden Markt mehr haben, sind wir als Kunden in einer ungünstigen Position. Friss oder stirb. Die Preise wurden von Dingen wie Krypto, Covid und nun AI hochgetrieben, was nichts mit Gaming zu tun hat. Und anscheinend haben sich (zu) viele an die Preise gewöhnt und sind sich nicht bewusst, dass sich die aus mehreren Sonderfaktoren ergeben haben. Kurze Aufmerksamkeitsspanne und so...

Kann ich was daran ändern? Vermutlich nicht, das gibt die aktuelle Markt-Dynamik und das Wettbewerbsumfeld nicht her. Es einfach hinnehmen und akzeptieren tue ich aber ebenfalls nicht. Eine "Ist jetzt halt so"-Haltung macht einem das Leben zwar einfacher, langfristig schneidet man sich damit aber ins eigene Fleisch -> Frosch im heissen Wasser

Aber OK, wir können hier diese Diskussion jetzt beenden. Ich diskutiere viel lieber über die technischen Aspekte von GPUs und nicht deren Preise ;)

PHuV
2024-10-07, 12:16:27
Ach komm, das hat nichts mit Neid zu tun. Ich habe selbst eine 4090. Und kann mir auch eine 5090 leisten.
Dann ist doch alles gut. (y)
Nur unterstütze ich nicht, dass Dinge teurer verkauft werden als es eigentlich sinnvoll wäre und manche das fast noch abfeiern oder so tun, als hätte das einen validen Grund.
Ich hab bisher keinen kennengelernt, der Preissteigerungen irgendwie abfeiert. Aber valide Gründe kann ich mir sehr wohl vorstellen, und momentan muß uns allen klar sein, daß der ganze KI-Hype uns Gamern, wie zuvor schon das ganze Blockchain-Geraffel, uns gewaltig da dreinspuckt und die Preise kaputt macht. Dazu noch die angespannte Lage durch Kriege, Konflikte und Umweltkatastrophen
https://www.welt.de/wirtschaft/article253807602/Chips-Wie-ein-Hurrican-die-Weltwirtschaft-lahmzulegen-droht.html
Du hast doch mitbekommen, wie selbst ein Huster von einem führenden Wirtschaftsboss schon zu Kursabfall und steigenden Preisen führten. Da sind einfach zu viele Stellen beteiligt, welche Preise an vielen Orten ungünstig beeinflußen.
Kann ich was daran ändern? Vermutlich nicht, das gibt die aktuelle Markt-Dynamik und das Wettbewerbsumfeld nicht her.

Eben, bekomme ich auch in den diversen (Scrum, Kanban)-Refinements mit, was soll man sich über Management oder andere Abteilungen aufregen, die negativ die Arbeit beeinflußen, aber man eh nichts daran ändern kann? Nix, so kommts immer wieder zum allgemeinen Fazit.

Aber OK, wir können hier diese Diskussion jetzt beenden. Ich diskutiere viel lieber über die technischen Aspekte von GPUs und nicht deren Preise ;)
(y)

Weltraumeule
2024-10-07, 13:21:01
Letztendlich sind die Preie für 4080 und 4090 fast egal, die Enthusiasten zahlen dies, weil es ihr Haupthobby ist.
Es ist aber tragisch, das auch mittel und Unterklasse Karten im Preis stark angestiegen ist. Die meisten Leute welche früher z.B. im 150-200 € Preissegment gekauft haben, können sich keine 400 € mal eben leisten.

PHuV
2024-10-07, 13:39:44
Das ist natürlich tragisch und findet bestimmt keiner gut. Aber dann dann von einer gewissen Klientel dann alle HighEnd-Käufer dann als vermeidliche Schuldige für die hohen Preise verdammt werden, ist eben auch nicht ok. An der Preisspirale schrauben viele Faktoren.

Sardaukar.nsn
2024-10-07, 13:41:02
Ein großer Faktor sind natürlich die hohen Auflösungen die entsprechende Hardware benötigen. Ist man auf 1080p unterwegs, ist das alles kein Drama mit den Preisen und ab 200€ dabei: https://www.gamestar.de/artikel/beste-grafikkarten-2024,3383103.html

r-or
2024-10-07, 17:53:42
These: das eigentliche Problem ist, dass das Hobby PC Gaming immer unleistbarer wird.

Spiele haben klassisch als Zielgruppe erstmal Jugendliche, die sich keine 4090 leisten können. So verschiebt sich der Markt immer weiter, die Zielgruppe wird älter. Ältere haben weniger Zeit zu zocken, die Spielzeit / Anzahl gekaufer Spiele sollte also abnehmen.
Es sollte sich also weniger rechnen, grafisch aufwändige Spiele zu produzieren für den kleiner werdenden Markt.

Stimmt das alles so oder ist es eher Projektion meiner eigenen Gegebenheiten auf den Markt? Mal sehen:
89688
https://backlinko.com/steam-users
Laut Steam haben sich außerdem die total hours played entsprechend positiv entwickelt, also nicht nur bot accounts. Das sagt aber nichts aus über die Art der Spiele - und da es größtenteils e-sports titles sind, potentiell unbedeutend für AAA. Zumal viele AAA nicht mehr auf Steam unterwegs sind. Auch sagt es wenig über die Demographie/Altersstruktur aus - nur Valve kennt wohl die Details hier.

89687
https://www.extremetech.com/gaming/341860-discrete-gpu-sales-plummet-to-historic-lows
Das ist etwas aufschlüssiger. Gesamteinheiten verkauft sind deutlich rückläufig seit 2014, wir sind jetzt bei ca. der Hälfte. Oder halten vielleicht Grakas länger? Wenn ich heute ne 4090 für 4 Jahre benutzen kann, ist dann der relative Preiszuwachs gerechtfertigt? Sind heute onboard Lösungen "gut genuger" als 2014?

AAA Markt allein ist noch schwieriger, müsste mal alle großen Publisher durchsehen. Viele Entlassungen und merger. Und gefühlt kommt sehr wenig - weder PC, noch Konsolen. Aber das ist eben sehr subjektiv, da meine Interessen sich ändern.

The_Invisible
2024-10-07, 19:10:58
Es geht nicht direkt um den Betrag an sich, sondern wie manche über das Thema reden. Bei manchen hat man das Gefühl, sie "wünschen" sich Preise von 3000 Euro. Wenn man es sich leisten kann, schön. Kann man aber für sich behalten ;)

Und zudem kann man sich mit deiner Methode auch alles schönreden. Hey, eine Patek Philippe kostet 100k, ist ja nicht so schlimm wenn der Espresso 15 Euro kostet. Ich hoffe ihr versteht meinen Standpunkt ;)



Also wünschen würde ich mir Lederjacke würde persönlich vorbeikommen und sie mir gleich im PC verbauen, bekommt dann auch einen Kaffee dafür ;-)

Naja mit den wirklichen luxushobbys bin ich gar nicht gekommen weil da wird's absurd. Im ernst, soll jeder machen mit seinem Geld was er will.

Ich fand schon den 4090 Launch hier im Forum interessant wenn erste User ihre Erfahrungen und Benchmarks posteten inkl. Auto abhol poserfotos ;-) Werde sicher nicht bei den ersten dabei sein aber freu mich schon wieder auf die Berichte hier, dafür bin ich auch in diesem Forum unterwegs und nicht irgendwelche preisdiskussionen.

Sardaukar.nsn
2024-10-07, 19:24:54
@r-or: Hobby PC Gaming immer unleistbarer weil sich die absoluten Topmodell immer weiter noch oben entwickeln? Hmmm, der These gehe ich nicht mit.

Da könnte man auch sagen das Hobby "Musik hören" oder "Fahrradfahren" wäre extrem unleistbar, weil es am ganz oberen Ende so furchtbar teure, ja regelrechte Luxus Produkte gibt.

In der breite wird Gaming immer populärer, aber halt diverser. Zu meiner Jugend gab es nur PC oder Konsole. Heute ist der Mobile Bereich so unglaublich groß geworden und es muss doch auch nicht alles schlecht sein. Zudem finde ich Mittelklasse Hardware für den PC auch gar nicht teuer. Gerade über die vielen Vertriebswege kommt man doch heute auch sehr gut und günstig an Spiele. Nur der immer das Neueste, Schnellste, ect. haben möchte, muss ordentlich bezahlen. Aber war das je anders?

rentex
2024-10-07, 19:52:52
Das grundlegende Problem sind die mittlerweile übertriebenen HW Anforderungen...teils durch mieses entwickeln.

Platos
2024-10-07, 20:30:40
Dank DLSS und Framegen wird bald kein Spiel mehr ohne laufen, verglichen mit früher (selbe Settings, Auflösung und erwartete FPS).

Spiel mal heute ein AAA Spiel ohne Framegen und DLSS in einer hohen Auflösung (4k). Viel Spass...

Man kriegt also nicht wirklich mehr FPS durch die "neuen" Techniken, man ist einfach gezwungen, sie zu nutzen, wenn man nicht gerade nur E-Sport Titel spielt.

Schnitzl
2024-10-07, 20:36:53
Falls es noch niemand aufgefallen ist: das ist die falsche Richtung! [ bzw. OT]
auch du, Brutus ... äh Platos ;)

Sardaukar.nsn
2024-10-07, 21:21:57
@Topic: Blackwell wird unser geliebtes Hobby wieder ordentlich voran treiben. Ich erwarte immer noch reale Steigerungen der Rohleistung um 50-70%. Wie bisher alle zwei Jahre.
Da gibt es kaum eine eine Branche die so zuverlässig, so viel Leistungssteigerung erzeugt. Wir hatten hier ja erst den großen 25 Jahre Rückblick auf das 3Dcenter. Aber wie positiv hat sich das Thema denn bitte entwickelt?

horn 12
2024-10-08, 07:32:29
Da wird man "weit" unter 50% bleiben denke ich mal
Bei Raytracing kann dies anders aussehen,- aber die 5080 max. 4090 Performance, denke gar 10% darunter und 5090 um die gute 35% über 4090

ChaosTM
2024-10-08, 08:58:29
@Topic: Blackwell wird unser geliebtes Hobby wieder ordentlich voran treiben. Ich erwarte immer noch reale Steigerungen der Rohleistung um 50-70%. Wie bisher alle zwei Jahre.
Da gibt es kaum eine eine Branche die so zuverlässig, so viel Leistungssteigerung erzeugt. Wir hatten hier ja erst den großen 25 Jahre Rückblick auf das 3Dcenter. Aber wie positiv hat sich das Thema denn bitte entwickelt?

Eher unwahrscheinlich wegen des diesmal sehr kleinen Node Sprungs, außer das Ding ist nochmals deutlich größer, was aber zu noch mehr Ausschuss führen würde.
Das wird Nvidia nicht riskiert haben, da man die vollen oder fast vollen Chips für die H200er braucht.
Bei RT könnte es höher ausfallen
Bin da eher bei Horn mit +30% Raster und vielleicht +50% RT.
Sollte man die Leistung deutlich besser aus die Straße bringen als Ada, vielleicht etwas mehr.


Spekulieren ist was schönes..

Kriegsgeier
2024-10-08, 09:06:55
tendiere auch eher zu ca. 60% gegenüber RTX 4090.

Drei Parameter werden schon dafür sorgen:

Anzahl der Shader von 128 auf 170!
Shader selbst sind effizienter (gesteigerter Cash)
min. +500 MHz

Somit gehe ich von min 60% Plus bei RTX 5090 vs. RTX 4090!

BlacKi
2024-10-08, 09:19:56
man verbaut nicht 70% mehr speicherbandbreite um dann bei 30% zu landen. leute, ihr liegt da komplett falsch.

wenn nichts schief läuft, dann kommen da auch +70% rasterperformance raus.

und damit, so krass es auch klingt 2,5x schneller als der schnelleste rdna4 chip. und wohl auch 2x schneller als alles was amd in den nächsten jahren bieten wird.

krasse zeiten...

anorakker
2024-10-08, 09:29:08
Eher Zufall, dass man mit Datacenter Hardware auch spielen kann. Gaming ist maximal noch Marketing für NVidia. Es wird gerade im grossen Stile der Markt von Gaminghardware entfremdet, Gibt zwar so Bubbles wie hier, wo alte Säcke sich noch absurd teure HW kaufen, aber am Ende bleibt in den unteren Rängen die Leistungssteigerung auf den Preis bezogen komplett hängen.
Die 5080 wird imo Leistungmässig ziemlich in der Mitte von 4090 und 4080 hängen - und der Preis wird das ebenso.

ChaosTM
2024-10-08, 09:34:13
Tu mir immer noch schwer an den 512er Bus zu glauben, aber die +30% sind vielleicht wirklich nur "Wunschdenkern", um mir den irren Neupreis sparen zu können.
Bei +70% bin ich wohl blöd genug sehr viel Geld in die Hand zu nehmen, auch wenn es relativ sinnarm ist.

2,5 mal die Raster Performance der 7900XTX ist aber illusorisch. Bei Gewissen NV optimierten RT Titeln haben wird das aber jetzt schon.

BlacKi
2024-10-08, 09:38:14
2,5 mal die Raster Performance der 7900XTX ist aber illusorisch. Bei Gewissen NV optimierten RT Titeln haben wird das aber jetzt schon.2x raster schon. die 2,5 waren auf die schnellste rdna4 karte bezogen.

Sardaukar.nsn
2024-10-08, 13:14:08
...Gibt zwar so Bubbles wie hier, wo alte Säcke sich noch absurd teure HW kaufen...

Ach komm, meine 4090 wird mich nach gut zwei Jahren fast täglicher Nutzung wohl ca. 20€ im Monat gekostet haben. Dann muss man halt mal 1x im Monat auf eine kleine andere Sache verzichten. So what.

Neurosphere
2024-10-08, 13:25:17
Hypetrain ich hör dich tschuu tschuu

mironicus
2024-10-08, 16:11:09
3000 Euro für eine RTX 5090? Was erwartet ihr? :freak:

Sardaukar.nsn
2024-10-08, 17:26:00
Am 6. Januar wissen wir wohl mehr: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-5090-CES-Keynote-1457116/

Bis dahin wird der hypetrain sicher noch fahrt aufnehmen.

gnomi
2024-10-08, 18:10:01
Doppelte 4080S Performance zu 2000$.
5080 mit ~ 4090 Performance zu 1200$.
Das wäre so meine Vorstellung.

Weiß aber nicht, ob ich kaufen würde.
Ist mir einfach zu teuer geworden.
So viele Betriebsstunden laufen die Karten nicht, und AAA Titel sind gefühlt seit einiger Zeit auch nicht mehr ganz so faszinierend.
Zudem reichen mir auch 60fps bei 4K DLSS Performance mit der 4080S und dem alten I9 9900KF.
Und dann eben noch FG einschalten.

Trap
2024-10-08, 19:42:32
3000 Euro für eine RTX 5090? Was erwartet ihr? :freak:
Wird doch jede GPU an AI-Performance gemessen heute. Also +70% Speicherbandbreite = +70% Preis.

Nicht von den Gamern, aber von den sonstigen Käufern. Ist halt Mining-Bubble 2.0

ianm
2024-10-08, 21:28:54
Als ich das erste Mal 5080 16GB gelesen habe und das Gerücht aufkam es wird später eine 5080 mit 24GB nachgereicht, musste ich sofort an die "4080" mit 12GB denken, welche uns Nvidia verkaufen wollte.

Gleiche Kiste nun wieder. Daniel Owen sprach dasselbe heute an, vielleicht für den ein oder anderen interessant.

4vxsCOkSJD4

ChaosTM
2024-10-08, 21:45:53
Immer vorausgesetzt die Leaks sind kein kompletter BS, dann spielt NV halt wieder das gute alte
"unser Fanboys sind sowieso so dämlich, dass sie alles fressen" Spiel, nur diesmal halt von hinten herum. Fliegt ihnen hoffentlich wieder um die Ohren..
Der Abspeckungsgrad ist einfach viel zu hoch.

basix
2024-10-08, 21:51:37
Als ich das erste Mal 5080 16GB gelesen habe und das Gerücht aufkam es wird später eine 5080 mit 24GB nachgereicht, musste ich sofort an die "4080" mit 12GB denken, welche uns Nvidia verkaufen wollte.

Gleiche Kiste nun wieder. Daniel Owen sprach dasselbe heute an, vielleicht für den ein oder anderen interessant.

https://youtu.be/4vxsCOkSJD4

Ja er zeigt ziemlich genau auf, wie es wohl sein wird:
- 5080 = 999$ mit 16GB (~50% SMs der 5090)
- 5070 = 599$ mit 12GB (~28% SMs der 5090)

Später dann weitere Modelle:
- 5080 (Super) 24GB = 1199$ (immer noch mit GB203)
- 5080 Ti 24GB = 1599$ (Ende 2025, mit GB202, zusammen mit den Super Refreshes)

horn 12
2024-10-08, 22:09:42
Um RDNA 5 zu kontern
Dann würde die 5080 keinen Sinn ergeben, Preis zwar noch OK
aber weniger Speicher als 4090 bei nicht mal dessen Performance
Da muss NV aufpassen nicht von der XTX überrollt zu werden!

Altehardware
2024-10-09, 10:04:00
rdna5 wird gewaltig da amd auf mcm setzen wird in cowos auf nenn 512bit si wie nvidia schon mit blackwell gb202 macht
Da aber amd bei etwa 3,0ghz Takten wird und in n3 node ist dürfte amd einen node Vorsprung haben.
Demzufolge physisch vergrößert sich die Se auf 24 cu 8 Se 83tfgibt es 160cu nutzbar maximal sind es 83tf (Die realen) mit 24gb gddr7 24gbit chips
nvidia gb202 ist in n4 mit eine n12 Si chip grob 170smn 75tf 32gb Der Grund ist das nvidia deutlich geringer Takten kann 2,3ghz während amd design bis zu 4ghz monolithisch gehen kann folglich 3,0ghz in cowos chip.

Ein refresh der blackwell design ist denkbar aber eher unwahrscheinlich da rubin schon an der Türe steht.
Dies dürfte grob q1 2027 so weit sein

Könnte nvidia mit nenn vollen gb202 reagieren akä titan b 192sm sicherlich.
Wir werden sehen sicher ist nur das amd aktuell nur bei einen node Vorsprung gewinnt

gnomi
2024-10-09, 10:54:20
Ja er zeigt ziemlich genau auf, wie es wohl sein wird:
- 5080 = 999$ mit 16GB (~50% SMs der 5090)
- 5070 = 599$ mit 12GB (~28% SMs der 5090)

Später dann weitere Modelle:
- 5080 (Super) 24GB = 1199$ (immer noch mit GB203)
- 5080 Ti 24GB = 1599$ (Ende 2025, mit GB202, zusammen mit den Super Refreshes)

Klingt plausibel.
Letztendlich würde ich einfach weniger auf die Specs und den Namen gucken.
Welche GPU habe ich und wieviel Performance bekomme ich zu welchem Preis?
Die halbierte 5080 zu 999$ wäre für 4080S Käufer wahrscheinlich zu wenig.
Für die könnte der Refresh interessant werden.
Ursprüngliche 4080 Käufer könnten es in kleiner Zahl machen, wenn die günstiger kommt als die 4080 zum Release. 4070TI Super kaufen sowas nicht. Wieder andere Zielgruppe.
5090 Enthusiasten kann man scheinbar jeden Preis nehmen. Geht eh weg.
Was machen Kunden, die die 40er Serie ausgelassen haben?
Für die wäre eine halbierte 5080 zu 999$ sogar gut.
Die Preise sind nach der 3080 eh allesamt schlecht.
Alles unterhalb von 3090 hat zudem relativ wenig VRAM. Meistens nur 12.
Nvidia hat nur manche untere Mittelklasse Karte mal mit extra Ram zu mehr Geld verkauft.
Von daher denke ich, dass diese Karte für diese Zielgruppe vielleicht passt.
Manche werden aber schon 4070TI Super bis 4080S gekauft haben.
Für die ist dann der Refresh wieder passend.
Alles in allem. Die Strategie wird aufgehen. :wink:

BlacKi
2024-10-09, 11:43:49
ich frag mich, wie so ein refresh aussehen soll. ein -30% kastrierter gb202?

ich bezweifle, das es zwischen der 5080 und 5090 etwas geben wird. selbst die 5090 ist schon beschnitten. als 4080(s) nutzer kann man sich, bis es eine neue gen gibt, zurücklehnen, oder auf die 5080 upgraden. denn zwischen der 4080 und 4090 gibts bis heute nichts ausser der gleichschnellen 4080 super, die kein wirklicher refresh ist, sondern eine preissenkung.

im prinzip erwartet uns die 4080 vs 4090 situation, nur noch wilder. upselling auf godlike niveau.

basix
2024-10-09, 12:08:09
Kommt auf den Unterschied zwischen 5080 und 5090 an. Sind das 1.7x oder so, wird da vermutlich schon noch etwas dazwischen geschoben werden. Ausser Nvidia ist der Meinung, dass man mit 5080 auf GB203 Basis (16 & 24 GByte) sowie 5090 oben dran unter dem Strich mehr verdient als wenn man z.B. eine 5080 Ti dazwischen schiebt. Die Chancen dafür sind gegeben, da GB203 vermutlich nur etwa halb so gross wie GB202 sein wird.

Etwas Bewegung könnte auch reinkommen, wenn RDNA5 schon ziemlich früh erscheinen sollte (Ende 2025 / Anfang 2026). Das ist aber ziemlich ungewiss.

ChaosTM
2024-10-09, 12:25:21
Eine in jedem Detail auf die Hälfte eingedampfte Karte sollte einfach nicht "5080" heißen.
Egal was hinten herauskommt. Das riecht einfach nach [insert appropriate term].

BlacKi
2024-10-09, 12:48:10
Kommt auf den Unterschied zwischen 5080 und 5090 an. Sind das 1.7x oder so, wird da vermutlich schon noch etwas dazwischen geschoben werden. Ausser Nvidia ist der Meinung, dass man mit 5080 auf GB203 Basis (16 & 24 GByte) sowie 5090 oben dran unter dem Strich mehr verdient als wenn man z.B. eine 5080 Ti dazwischen schiebt. Die Chancen dafür sind gegeben, da GB203 vermutlich nur etwa halb so gross wie GB202 sein wird.

Etwas Bewegung könnte auch reinkommen, wenn RDNA5 schon ziemlich früh erscheinen sollte (Ende 2025 / Anfang 2026). Das ist aber ziemlich ungewiss.
du gehst aber genau 0 darauf ein, das die 5080 ein halber 5090 chip ist. die unterschiede in der größe war noch nie so hoch. einen 5090 chip zur 5080ti zu kastrieren kann man nur machen, wenn man nicht genug 5090er verkauft. das ist auch der grund dafür das es nie eine 4080ti auf basis von ad102 gegeben hat. man hatte nie zuviele 4090 karten.


du müsstest also ein szenario kreiren, das ein überschuss an chips vorsieht.



das sehe ich in den 2 jahren einfach nicht kommen.



deshalb bleibt die lücke zwischen der 5080 und 5090 rießig.

DrFreaK666
2024-10-09, 14:07:45
NVIDIA GeForce RTX 5090 32 GB, RTX 5080 16 GB, RTX 5070 12 GB To Launch at CES
https://wccftech.com/nvidia-geforce-rtx-5090-32-gb-rtx-5080-16-gb-rtx-5070-12-gb-ces-2025-launch/

70er Modell wieder nur mit 12GB?

HOT
2024-10-09, 14:18:56
Vielleicht treiben die die Verarsche ja jetzt mal so auf die Spitze, dass die Nutzer endlich mal lernen, den Mist nicht zu kaufen.

Langlay
2024-10-09, 14:29:05
Der Grund ist das nvidia deutlich geringer Takten kann 2,3ghz während amd design bis zu 4ghz monolithisch gehen kann folglich 3,0ghz in cowos chip.


Ada läuft schon ootb mit 2.7-2.8 GHz, da wird Blackwell sicherlich nicht knapp 20% langsamer takten. Und es ist noch nichtmal RDNA4 raus und bis RDNA5 kommt ist auch Blackwell ein Alteisen. AMD hat die Taschen leer, das ist alles was ich sehe.

fondness
2024-10-09, 15:04:01
GB202: 24,576
RTX 5090: 21,760 / GB202-300-A1 / 512-bit / 32GB GDDR7, 28Gbps, ~1.8TB/s / 600W TBP / 14-Layer FE PCB

GB203: 10,752
RTX 5080: 10,752 / GB203-400-A1 / 256-bit / 16GB GDDR7, 32Gbps, 1TB/s, 400W TBP

GB205: 6,400
RTX 5070: TBD / GB205 Based / 192-bit / 12GB GDDR7, 28Gbps, 672GB/s / 250W TBP

PCIe 5.0 interface / single 12V-2x6 / DP2.1a 80Gbps support / CES 2025

https://x.com/harukaze5719/status/1843998006900887680?t=RJrc4WlxSTwaqVnTRnywuQ&s=19

y33H@
2024-10-09, 15:11:01
Oh, ein Vollausbau und ein Krüppel ^^

MiamiNice
2024-10-09, 15:11:07
single 12V-2x

Auch die 5090? Das wären nur 600 Watt max.

fondness
2024-10-09, 15:13:18
Auch die 5090? Das wären nur 600 Watt max.

Nur? :D wieviel hättest du denn gerne?

MiamiNice
2024-10-09, 15:15:02
2x den Stecker + freies Bios. Meine 3090 zieht schon die 600 Watt aus der Leitung mit 1000 Watt Bios @ max OC. Für die 5090 würde ich schon gerne um 800 Watt verbraten können, mit OC ;) Zumindest die Option haben über 600 Watt zu gehen, wäre nett. So glühen doch nur wieder die Kabels ...

Stechpalme
2024-10-09, 15:19:45
GB205: 6,400
RTX 5070: TBD / GB205 Based / 192-bit / 12GB GDDR7, 28Gbps, 672GB/s / 250W TBP
[/url]

Da wird bestimmt wieder später die 5070TI Super Hyper Extrem nachgeschoben mit 16GB :freak:
In der Leistungsklasse der 5070 nur 12GB anzubieten ist sportlich. Dennoch wird es wieder sehr sehr viele geben, die sie kaufen werden.
Nach den Daten dürfte sie ja grob zwischen der aktuellen 4070 und 4070TI landen.

Da ist dann aber auch eine ziemliche Lücke zwischen 5070 und 5080 in Sachen Leistung (Speicher mal außen vor).

Fragman
2024-10-09, 15:38:11
Naja, 12GB dürfte so das Minimum sein.
Man darf halt nicht vergessen, die 5070 ist eigentlich eine 5050+ wenn wir nach ADA Leistungsklassen gehen und dessen Verschiebung seit Lovelace.
Die 5080 eigentlich eine 5070 und eine echte 5080 gibt es erst mit TI Release, wenn überhaupt.
Damit sind die 12GB schon passend gesetzt. ;)

maximus_hertus
2024-10-09, 15:40:33
Auch die 5090? Das wären nur 600 Watt max.

Die "großen" Custom Karten werden 2 x den Stecker haben :) "Nur" die "kleinen" 5090 / Basisversion kommt mit einem aus.

Sardaukar.nsn
2024-10-09, 16:45:19
Galax HOF und (jetzt PNY?) Kingpin ziemlich sicher. Da werden schon ein paar verrückte Karten kommen.

AffenJack
2024-10-09, 17:18:02
https://wccftech.com/nvidia-geforce-rtx-5090-32-gb-rtx-5080-16-gb-rtx-5070-12-gb-ces-2025-launch/

70er Modell wieder nur mit 12GB?

Solange nicht endlich mal die 3gb Rambausteine verfügbar sind war das klar. Nvidia wird die 5070 sicher nicht doppelt bestücken.

Weltraumeule
2024-10-09, 17:40:36
Huhu, ich bin mit den nerven am Ende :( Seit 23 Jahren baue ich meine PCs selber zusammen, musste in dieser Zeit nur ein einziges Mal etwas zur Retoure schicken, hatte nie (stark wahrnembares) Spulenfiepen oder Lüfter-Lagerschaden. Und nun in den letzten Monaten, beim Upgrade meiner kfa2 4070:

- Asus Pro Art 4070 Ti Super: extrem lautes Klackern eines Lüfters -> Retoure

- nochmal Asus Pro Art 4070 Ti Super: extremes unerträgliches Spulenfiepen (oder was anderes?), bereits wenn die Lüfter unter Desktop von 0 auf 30 % angegangen sind

- überlegt nun auf 4080 S zu steigen und PNY 4080 S xlr8 gekauft: 30 % Lüfter waren 1400 rpm, dank neuem BIOS von PNY. Habe altes PNY BIOS gefunden und geflasht, immerhin 1100 rpm, dann das Suprim X BIOS geflasht, nun leise 900 rpm bei 30 %.
Aber einer der drei Lüfter rattert leise, mit Kopfhörern nicht zu hören, aber es ist da. Muss noch ausbauen und schauen ob da nicht Kabel oder Fremdkörper im Weg sind. Aber falls nicht und es sich um einen Lagerschaden handelt, muss ich kein schlechtes Gewissen haben bei einem über 1000 € teurem Teil drittes Mal Retoure zu machen oder? Beim ersten Mal war es computeruniverse, beim zweiten nbb per ebay. Die dritte Karte ist nun von nbb Webseite, die werden doch nichts sagen wegen zweiter Retoure oder? :confused:
Sollte ich die PNY 4080 nochmal bestellen, dann bei nem anderen Händler danach

So und das ist nun die Frage hier, weswegen ich all das in den Blackwell Thread schreibe, lohnt sich das überhaupt jetzt noch von 4070 auf eine 4080 S zu setzen?
Ich spiele auf 1440p mit 120 Hz und 110 fps cap. Über 90 fps sollten es sein für flüssiges Spielgefühl.

Die 1025 € für 4080 S sind bereits weit über meine Schmerzgrenze, eine 5080 welche bestimmt 1200 oder mehr € kosten wird, steht also außer Frage.
Und die 5070 soll ja nun laut den Gerüchten von heute die 4080 S Leistung nicht erreichen und nur 12 GB haben??
Wo bleibt die 5070 Ti? Was schätzt ihr, wann wird sie erscheinen, wie schnell im Vergleich zur 4080 S sein, die 16 GB auch haben und die leiseren Modelle PNY z.B. 900-1050 € kosten?

Bin halt unsicher. Es juckt mir in den Fingern die 4080 S jetzt zu haben für manche Spiele, aber ich könnte auch ältere wenige anspruchsvolle und Indietitel zocken mit der 4070 und erstmal warten. Aber wenn es z.B. noch 8 Monate bis zur 5070 Ti dauert und die kaum Mehrwert brächte, wäre das sinnlose Wartezeit voller Ungeduld. Andererseits, wird es vielleicht "Blackwell-only" Neuerungen geben, DLSS 4 oder sowas? Bin so unschlüssig.

Sagen wir es mal so, hätte meine PNY 4080 S nicht dieses Lüfterrattern, würde ich sie wohl behalten...

EDIT: Dass die 5080 1000 € kosten und die 4080 auf 850 € sinken werden ist illusorisch oder??

Kriegsgeier
2024-10-09, 17:51:59
Endlich, die erste wahre 4K-GraKa --> RTX 5090! Hoffentlich nicht für 4k!

vinacis_vivids
2024-10-09, 17:53:37
Vielleicht treiben die die Verarsche ja jetzt mal so auf die Spitze, dass die Nutzer endlich mal lernen, den Mist nicht zu kaufen.

12GB sind doch genug oder schon zu viel für Nvidianer.
Im Steam-Survey herrschen 8GB über allem mit 37,4% vor 12GB mit 19,37%.

Alles im "grünen Bereich".

Die 16GB und 24GB Karten ergeben zusammen ~ 5,5% Marktanteil.

Huang tritt seit mindestens 10 Jahren auf die VRAM-Bremse, seinem Geheimnis für sein Reichtum aka GTX970 "3,5GB" gegen die großzügige R9 390 8GB.

VRAM, Ruckeln und schlechte BQ gemeinsam teuer verkaufen ist das Kerngeschäft für Nvidia. Das ist Erfolgspolitik und wird auch niemals geändert, zumindest nicht so lange Huang der Chef ist.

Er will Nvidia ja in Apple verwandeln und in Zukunft mit Blackwell noch mehr VRAM-Aufschlag noch teurer verkaufen (was auch Apples Geheimnis ist).

Die RTX5090 32GB wird als reines Marketing & Halo-Produkt erscheinen um den Mangel in der Mittelklasse zu kaschieren. RTX5060 wieder mit gewohnten 8GB dann für 599 USD während AMD in der gleiche Preisklasse 16GB liefert.

Ist nicht neu, aber die Käufer sind halt auch größtenteils Sturköpfe. Wer will schon 16GB von AMD wenn man die "besseren" 8GB von Nvidia kaufen kann? (nach Raff`s wiederholten Falschaussagen).

Die gleichen Aussagen kenne ich schon seit knapp 10 Jahren wo Sturköpfe die GTX970 mit 3,5GB lieber kauften als die R9 390 mit satten 8GB.

Alter Wein in neuen Schläuchen. Aber hey, für Tulpenzwiebeln wurden auch viel bezahlt zur gegebener Zeit. 5000 Gulden für eine Tulpenzwiebel und dann 10.000 Gulden für eine Tulpenzwiebel oder dafür ein Haus in Amsterdam.

Die Tulpe RTX5090 wird sicherlich über 2000€ kosten und in der Spezialversion sicherlich ~2500€.

Apple verkauft 8GB shared RAM/VRAM für 2000€, für 16GB wollen die 2500€ sehen. Für 36GB sind sind 4000€ fällig.

Insofern sind die 2000€ bis 2500€ bei 32GB von Huang irgendwo auch "gerechtfertigt".... nicht.

Schnitzl
2024-10-09, 20:34:53
*nVidia Rant part 1*
VRAM, Ruckeln und schlechte BQ gemeinsam teuer verkaufen ist das Kerngeschäft für Nvidia. Das ist Erfolgspolitik und wird auch niemals geändert, zumindest nicht so lange Huang der Chef ist.
*nVidia Rant part 2*
Ruckeln tut da gar nix - hast du nicht Raffs Artikel gelesen? Es wird die Texturqualität reduziert.
Theoretisch ist das auch gar nicht so schlecht, da es beim schnellen Spielen gar nicht so auffällt.
Dafür bleiben dann eben die fps hoch. Wenn man Texturfetischist ist muss man eben zu AMD oder Intel greifen, oder 1.000€+ in die Hand nehmen ;)
bzw. gibts ja inzwischen die 4070ti 16GB also alles halb so wild

now back to topic :)

ChaosTM
2024-10-09, 20:51:33
.. tmi

Dorn
2024-10-09, 21:33:25
70er Modell wieder nur mit 12GB?
nvidia kann sich quasi alles erlauben, da die Konkurrenz vorerst geschlagen wurde.

12 GB sind für mich im Jahre 2025 keine Option mehr.

monstar-x
2024-10-10, 02:22:57
nvidia kann sich quasi alles erlauben, da die Konkurrenz vorerst geschlagen wurde.

12 GB sind für mich im Jahre 2025 keine Option mehr.

Wenn 12GB VRAM für dich keine Option sind, dann steht es dir jederzeit frei, eine 24GB oder gar 32GB VRAM Karte kaufen.
Es ist für alle etwas dabei von 8 - 32GB.


Die Entscheidung liegt ganz alleine bei dir und dem was du dir leisten möchtest.

x-force
2024-10-10, 02:28:14
nvidia kann sich quasi alles erlauben, da die Konkurrenz vorerst geschlagen wurde.

12 GB sind für mich im Jahre 2025 keine Option mehr.

nicht nur für dich

es wird damit wahrscheinlich schon zu release szenarien geben in dem die 5070 noch genügend leistung hätte, aber man mit den details trotzdem runter muss.

Altehardware
2024-10-10, 05:09:50
Wie ichd arauf komme das nvidai die Taktraten auf 2,3ghz boost bringt nun cowos das kann bis zu 25% geringeren takt bedeuten wegen wärmedichte
Das nvidia den Weg geht liegt auch daran das man zwei nodes nutzt tsmc n4 der bis 3,1ghz gehen kann aber wegen cowos auf 2,3ghz runterkommt. Und samsung sf4 node der geht in sf4 +25% Takt 1,88ghz =2,34ghz im maximum und hat dieselbe Effizienz wie tsmc n5 node. taktet aber deutlich geringer. Das macht in sich Sinn da man das Sm komplett umgebaut hat und die sfu wieder aktiv stellt. womit das alte design von 2006 wieder da ist.

Ob die shader auch doppelt Takten ist unklar ich gehe mal von nicht aus also dem design wie einst kepler hatte(gtx6xx 7xxx)
192alu*2 + 32sfu*4 effektiv 256 alu per sm
bsp an gk104 6sm 256*6*1,1*2,2 =3,3tf
So wird das auch beim gb206 sein 64+16+8(software) +16=104 fp32 per sm 32smn vorhanden 2,3ghz = 15tf

je sm 64 fp32 +64int32 die 16fp32 dediziert 32int32 dediziert und 16 hybrid nach software bis zu 8 fp32 können. Dazu kommen je sm 8 sfu die *4 rechnen =16fp32
also 64+16+8+16=104
Das gilt für gb207 gb206 gb205 und gb203.
Der gb202 hat die Besonderheit das es 2 chips auf eine Maske sind sprich die Latenz zwischen den alu Blöcken reduziert das auf 96fp32
Darum die große Differenz von 170sm vs 84sm und nur 42% Differenz effektiv zwischen gb202 und gb203
170*96*2*2,1= 68tf vs 84*104*2*2,3 =40tf 40/75 =0,58%

Das nvidia schon jetzt die mcm brücke am desktop einsetzt ist überraschend aber das dürfte beim Nachfolger rubin mit n2 node +15% Takt mit -30% Energie und doppelte alu per sm einen deutlichen Vorsprung ergeben.
Am desktop deswegen nur den gr203 mit dann effektiv 192sm a256 alu 2,6ghz
gr203 technisch 216 sm knapp 300mm² drei sku 384it Si Di + 290mm² alu Die
rtx6090 170sm 42gb 2000€ q1 2027
rtx6080ti 144sm 21gb 1500€ q1 2027
rtx6080 120sm 18gb 1000€ q2 2027
keine sku darunter da es keine gr205 chips geben wird.
Den gr202 wird hpc only wohl gemerkt bis zu 432sm nutzbar bis 408sm

mal sehen ob nvidia nur mit high end überleben kann blackwell ist die letzte nvidia mid class und entry lvl gpu.


Die gründe sind intel versagen und bald Pleite geht und amd eine apu Plattform bringt man spricht sogar mit apple für ne eigene Konsole fürs OS
nvidia fehlt die Cpu quasi ist nvidia gezwungen intel zu kaufen den bisher sieht es nicht gut aus.
arrow lake ist stillstand die eigene Fertigung ist ein Desaster und man hat keinen Nachfolger für den desktop. core ultra ist quasi Sackgasse.

Dazu kommt das an der Börse gemunkelt wird das nvidia das consumer Geschäft aufgeben sollte da keine Zukunft darin besteht.

rentex
2024-10-10, 06:15:00
Endlich, die erste wahre 4K-GraKa --> RTX 5090! Hoffentlich nicht für 4k!

Another 4K Card... :rolleyes:

Kriegsgeier
2024-10-10, 06:48:56
https://www.youtube.com/watch?v=EbEPwJvtA5M

Krass, wie gut ich mit meinen 2499€ für die RTX 5090 lag!

horn 12
2024-10-10, 07:22:11
Um Himmels Willen, dies sind dann nochmals ca. 10% Aufpreis auf Europreise!
Da ist AMD mit der XTX und RDNA 4 locker bis 5070 / 5080 mit dabei!
um Hälfte Preis!

HOT
2024-10-10, 07:59:27
Na ja, mit dem Preis braucht man das nicht mehr als normale Grafikkarte betrachten. Kann man ja reviewen, wir lachen mal kurz und gut ist. Das Lineup endet dann regulär bei der 5080.
Man kann eigentlich sagen: AMD hat alles richtig gemacht. Downcosten und dann Marktanteile machen. Intel wirds ja ähnlich handhaben. Die Zeit der großen Sprünge ist halt passé. Wer da noch jetzt wieder einsteigt und das weiter unterstützt, den kann ich nicht verstehen.

Linmoum
2024-10-10, 08:12:13
Warum sollte das Lineup bei der 5080 enden? Die 4090 wurde schon wie blöde gekauft trotz des hohen Preises, weil die Leistung ihresgleichen sucht. Und Menschen - nicht nur bei Hardware - bereit sind, für das Beste auch Geld auf den Tisch zu legen.

Hätte AMD alles richtig gemacht, würde es solche Preise gar nicht erst geben, weil Nvidia Konkurrenz hätte. Stattdessen hebt Nvidia mit Blackwell erneut die Performance in die Höhe, während AMD vermutlich Performances von Grafikkarten aus dem Jahr 2022 im Jahr 2025 als neue Architektur bringt. Weiß jetzt nicht, was daran so geil sein soll. Fortschritt ist das, auch für die potentiellen Kunden und den ganzen Markt, nicht.

HOT
2024-10-10, 08:18:07
Nein, die Preise sind schlichtweg kriminell. Wer das noch mitmacht ist einfach selber Schuld. Aber ich denke mal, die potenzielle Käuferschaft ist schlauer als der geneigte NV-Fanboy.

dildo4u
2024-10-10, 08:33:07
Die 4090 konnte ihre Leistung gar nicht durchsetzen weil sie nur 1TB Speicherbandbreite hat, die 5080 wird diese Performance mit 60% Weniger Cuda Cores bringen.
Die 5090 ist diesmal ein ganz anderes Kaliber da sie 70% mehr Bandbreite hat.

Und so lange 4080 Super im Markt sind kann die 5080 schlecht 999 kosten.

Relex
2024-10-10, 08:35:54
Habs beim Ada Release schon geahnt.

Nvidia hat fast durch die Bank den Speicher erhöht. Logisch, dass das beim Nachfolger nicht nochmal passieren wird, wenn man bedenkt, wie lange Nvidia 8 GB bei den 70er Karten verbaut hat.

Na ja, wenns nach mir ginge: 5070, 256 bit, 16 GB, 550€. RTX4080 performance.

Aber Nvidia hats ja nicht nötig.

The_Invisible
2024-10-10, 08:36:32
Nein, die Preise sind schlichtweg kriminell.

lol jetzt sind sie schon kriminell :freak:

Hast die anderen Firmen auch schon verklagt die das ganze seit Jahrzehnten abziehen, langsam wirds absurd hier...

Fragman
2024-10-10, 09:03:26
Warum sollte das Lineup bei der 5080 enden? Die 4090 wurde schon wie blöde gekauft trotz des hohen Preises, weil die Leistung ihresgleichen sucht. Und Menschen - nicht nur bei Hardware - bereit sind, für das Beste auch Geld auf den Tisch zu legen.

Hätte AMD alles richtig gemacht, würde es solche Preise gar nicht erst geben, weil Nvidia Konkurrenz hätte. Stattdessen hebt Nvidia mit Blackwell erneut die Performance in die Höhe, während AMD vermutlich Performances von Grafikkarten aus dem Jahr 2022 im Jahr 2025 als neue Architektur bringt. Weiß jetzt nicht, was daran so geil sein soll. Fortschritt ist das, auch für die potentiellen Kunden und den ganzen Markt, nicht.

Als Anmerkung,
die hohen Preise machen diese Performancebereiche auch erst möglich weil der Return so hoch ist, das es sich lohnt am technischen Limit zu produzieren.
Ansonsten würde nv dort sein wo AMD ist und AMD ist auch nur dort, weil sie es verpasst haben, mitzugehen (die Gründe sind erst einmal egal).

Wir wissen mittlerweile, das die Preise mit Konkurrenz eben nicht besser wären, aufgrund der höheren technischen Anforderungen.
Ob Multichip daran was ändern wird muss auch erst noch bewiesen werden.
Ich glaub es nicht, weil wir uns auch hier am technischen Limit bewegen und die Kosten damit automatisch hoch sind.

HOT
2024-10-10, 09:04:58
Die 4090 konnte ihre Leistung gar nicht durchsetzen weil sie nur 1TB Speicherbandbreite hat, die 5080 wird diese Performance mit 60% Weniger Cuda Cores bringen.
Die 5090 ist diesmal ein ganz anderes Kaliber da sie 70% mehr Bandbreite hat.

Und so lange 4080 Super im Markt sind kann die 5080 schlecht 999 kosten.
Hör auf das zu relativieren, dass die 4080 noch >900$ kostet ist auch absolut lächerlich...

Was werden wir denn sehen: Eine 5070, die ein reiner Downcost für NV ist, auch 12GB, fast genauso schnell sein wird wie ne 4070 Super für den gleichen Preis... Nur haben wir 25 und nicht mehr 23 dann, die 12GB sind also auch kriminell. Das ist Verarsche, Finger weg von dem Mist. Und ne Karte für über 2000€ gehört nicht ins normale Lineup, das ist ne Titan. Die Verarschen euch nach Strich und Faden...

dildo4u
2024-10-10, 09:07:49
Hör auf das zu relativieren, dass die 4080 noch >900$ kostet ist auch absolut lächerlich...
Ich muss nix relativieren im Gegensatz zu den Fans versteht AMD was die GPU Wert sind daher werden sie gerade verramscht.

4070 Super = 7900XTX und fast alle AAA Games nutzten UE5.

https://www.techpowerup.com/review/silent-hill-2-fps-performance-benchmark/5.html

HOT
2024-10-10, 09:11:08
Bullshit. Und ne 7000 verkauft sich ja zurecht auch gar nicht.

Die Konkurrenz findet nicht mehr bei NV statt, sondern zwischen RDNA4 und BM, wenn wir großes Glück haben.

Dorn
2024-10-10, 09:19:27
Die Entscheidung liegt ganz alleine bei dir und dem was du dir leisten möchtest.
Naja ich will eine 50XX mit ca. 200 Watt plus 16+ GB Ram, welche so schnell ist wie eine 4080. So wie es aussieht gibt es das aber nicht. Egal Zeit wird zeigen was wirklich nvidia bringt...davor abwarten und Tee trinken.

basix
2024-10-10, 09:24:14
Habs beim Ada Release schon geahnt.

Nvidia hat fast durch die Bank den Speicher erhöht. Logisch, dass das beim Nachfolger nicht nochmal passieren wird, wenn man bedenkt, wie lange Nvidia 8 GB bei den 70er Karten verbaut hat.

Na ja, wenns nach mir ginge: 5070, 256 bit, 16 GB, 550€. RTX4080 performance.

Aber Nvidia hats ja nicht nötig.

Die Speichermenge wurde nicht unbedingt erhöht. Eine 3080 (Ti) 12GB ist nicht viel langsamer wie eine 4070 (Ti). Und Nvidia musste bei der 70er erhöhen, schon bei der 3070 waren 8GB knapp. Und welche Karte ist etwa gleich schnell wie die 3060 Ti / 3070? Die 4060 Ti. Und oh Wunder, alle Karten kosten in etwa gleich viel wie die Ampere-Karten.

Nvidia hat hier also auch nur das nötigste gemacht. Das kennt man von Nvidia ja schon lange, die waren schon immer VRAM-Knausrig, das erleichtert neue Verkäufe bei der nächsten Generation ;)

Und es ist ja nicht so, dass sich Nvidia wie auch AMD dem Problem nicht bewusst sind. Nicht umsonst gibt es eine 7600XT und 4060Ti 16GB.

Wirklich gute Speichergrössen dürfte es erst mit den 24Gbit Chips geben, Chip-Salvage SKUs kommen dann auch wieder zusammen mit SI-Salvage:
- 384...512bit = 32...36 GB (32 = 512bit mit 16Gbit Chips)
- 224...256bit = 21...24 GB
- 160...192bit = 15...18 GB
- 128bit = 12GB

basix
2024-10-10, 09:37:17
Ich muss nix relativieren im Gegensatz zu den Fans versteht AMD was die GPU Wert sind daher werden sie gerade verramscht.

4070 Super = 7900XTX und fast alle AAA Games nutzten UE5.

https://www.techpowerup.com/review/silent-hill-2-fps-performance-benchmark/5.html

Bevor du hier weiter FUD verbreitest: Silent Hill ist eine Ausnahme. Hier ein paar der zuletzt releasten UE5 Titel, wo eine 7900XTX eher im Bereich einer 4080 unterwegs ist (ohne RT)
- First Descendant: https://www.techpowerup.com/review/the-first-descendant-fps-performance-benchmark/5.html
- Senua 2: https://www.techpowerup.com/review/senuas-saga-hellblade-2-benchmark/5.html
- Black Myth Wukong: https://www.techpowerup.com/review/black-myth-wukong-fps-performance-benchmark/5.html
- Nightingale: https://www.pcgameshardware.de/Nightingale-Spiel-73528/Specials/Test-Release-Benchmarks-Unreal-Engine-5-1440938/4/

BlacKi
2024-10-10, 09:53:40
bzgl. der leaks wäre ich vorsichtig. mlid ist mlid. er tut mlid dinge. ich finde das komplett fishy das nv ihn kontaktiert. ausserdem ist nv seit der 4080 12gb dafür bekannt preise im nachhinein anzupassen und wir haben immernoch jede menge zeit.


also der zeitpunkt und das kontaktieren machen die leaks nicht wirklich glaubwürdig.



AMD hat alles richtig gemacht. Downcosten und dann Marktanteile machen. Iwieso? also eine 5070 wird wohl schneller sein als rdna4 und der vorteil des kunden mit 16gb ist ein nachteil für amd. also wird amd im 600$ bereich wieder schlechtere margen haben als nv. also nv übervorteilen sieht anders aus.

dildo4u
2024-10-10, 10:01:13
Jup die 7800XT verliert massiv an Wert offensichtlich ziehen die 16GB als einziges Verkaufsargument immer noch nicht

430$ :eek:


https://i.ibb.co/c8S8BKz/Bildschirmfoto-vom-2024-10-10-10-00-11.png (https://ibb.co/z2T2MWK)
yeah images (https://imgbb.com/)

https://www.newegg.com/p/pl?d=7800xt

Slipknot79
2024-10-10, 10:08:44
https://www.youtube.com/watch?v=EbEPwJvtA5M

Krass, wie gut ich mit meinen 2499€ für die RTX 5090 lag!


Das was MILF angibt, kann jeder andere auch angeben, dazu braucht man nicht mal Ökonom sein. ;)
Die 5090 wird nicht billiger als die 4090 sein. Wir haben seit 2 Jahren dunno 15% Inflation? (y)
1+1=? (y)

The_Invisible
2024-10-10, 10:20:00
Bevor du hier weiter FUD verbreitest: Silent Hill ist eine Ausnahme. Hier ein paar der zuletzt releasten UE5 Titel, wo eine 7900XTX eher im Bereich einer 4080 unterwegs ist (ohne RT)
- First Descendant: https://www.techpowerup.com/review/the-first-descendant-fps-performance-benchmark/5.html
- Senua 2: https://www.techpowerup.com/review/senuas-saga-hellblade-2-benchmark/5.html
- Black Myth Wukong: https://www.techpowerup.com/review/black-myth-wukong-fps-performance-benchmark/5.html
- Nightingale: https://www.pcgameshardware.de/Nightingale-Spiel-73528/Specials/Test-Release-Benchmarks-Unreal-Engine-5-1440938/4/

Nur wen interessiert noch ohne RT, die rdna2/3 werden schlecht altern, da ist nix mehr mit fine wine. Wenn rdna4 hier auch Mal nachlegt wer will die dann noch kaufen

basix
2024-10-10, 10:31:53
Nur wen interessiert noch ohne RT, die rdna2/3 werden schlecht altern, da ist nix mehr mit fine wine. Wenn rdna4 hier auch Mal nachlegt wer will die dann noch kaufen

Naja, bei UE5 ist "ohne RT" = SW-RT ;)

Und wer sich eine 7900XT gekauft hatte, hatte nicht primär RT als Use-Case.

Bei einem Neukauf: Ja, dort steht RDNA3 generell schwächer da. Über den Preis kann man das aber schon regeln. AMD hat hohe Raster-Performance und genug Speicher. Das ist mal ein Vorteil. Bei RT ist der Performance-Drop dann halt höher aber wenn man damit hinsichtlich P/L immer noch auf Augenhöhe mit Nvidia unterwegs ist (was man dank den tieferen Preisen und/oder höheren Basis-Performance dann wäre) , dann ist ja alles OK. Man sollte bei RT P/L Vergleich allerdings eher RT-Indices nehmen und nicht CP2077 PT.

DrFreaK666
2024-10-10, 11:22:27
Wenn 12GB VRAM für dich keine Option sind, dann steht es dir jederzeit frei, eine 24GB oder gar 32GB VRAM Karte kaufen.
Es ist für alle etwas dabei von 8 - 32GB.


Die Entscheidung liegt ganz alleine bei dir und dem was du dir leisten möchtest.

Du hast die 5060 Ti mit 16GB vergessen :D

BlacKi
2024-10-10, 11:25:34
Du hast die 5060 Ti mit 16GB vergessen :Dlederjacke würde das gerne wieder vergessen, die 4060ti mit 16gb kam ja praktisch nur auf druck der community.

Weltraumeule
2024-10-10, 11:27:24
Die 4080 S wird ja vom Markt genommen. Wie hochstehen die Chancen, sobald diese abverkauft wurde, dass der Preis der 5080 auf 1000 € sinkt?
Ich muss meine neue 4080 S wegen Lüfterrattern Retoure schicken und dann überlegen ob eine neue bestelle oder ungeduldig warten solle. Eher ersteres, denn 1000 € sind bereits weit über meine Schmerzgrenze hinaus.

DrFreaK666
2024-10-10, 11:29:40
lederjacke würde das gerne wieder vergessen, die 4060ti mit 16gb kam ja praktisch nur auf druck der community.

Nicht nur der Community, sondern auch von Reviewern mit Reichweite wie HWU und Gamers Nexus

HOT
2024-10-10, 11:32:42
[...]



wieso? also eine 5070 wird wohl schneller sein als rdna4 und der vorteil des kunden mit 16gb ist ein nachteil für amd. also wird amd im 600$ bereich wieder schlechtere margen haben als nv. also nv übervorteilen sieht anders aus.

Wie kommst du denn darauf? Bisher sieht es eher nach 4070 Super Leistung aus.

Du hast die 5060 Ti mit 16GB vergessen :D

Die wird ja dann auch auf dem 205er basieren, hat also 10 oder maximal 12GB und 5060 halt wieder 8.

Stechpalme
2024-10-10, 12:27:47
Naja, bei UE5 ist "ohne RT" = SW-RT ;)
AMD hat hohe Raster-Performance und genug Speicher.

Das liest man immer wieder, aber die Raster-Performance einer 7900XTX ist nur marginal besser als bei einer 4080. Und am Ende stellt sich die Frage, wo hat man wirklich etwas davon? Das zeigt sich in fast keinem Spiel. Und wenn dann auch nur marginal.
Wenn dann aber RT gefragt ist, verliert die 7900XTX sehr klar. Der Speichervorteil zeigt sich in der Praxis ebenso wenig.
Wenn man dann noch FSR und DLSS vergleicht, sieht es auch nicht so gut für AMD aus. FSR3 findet noch kaum Verwendung. FSR2 sieht in Quality immer schlechter aus als DLSS Quality und FSR3 rettet es auch nicht wirklich.

Muss jeder für sich entscheiden was er will, aber ich persönlich wüsste kaum einen Grund eine 7900XTX anstatt einer 4080 zu nehmen. Auch wenn Letzteres 100-200€ mehr kosten würde (Preise schwanken ja stark).

Wenn eine 4070TI zu teuer ist, dann würde ich im AMD Lager suchen, aber ab dieser Preisklasse bietet AMD irgendwie nichts das rund ist.

DrFreaK666
2024-10-10, 12:29:53
Es gibt DEN einen Grund für mich (!) nicht zu NV zu greifen: Ich will deren Marktmacht nicht stärken. Schwimme gerne gegen den Strom :)

medi
2024-10-10, 12:33:50
... aber ich persönlich wüsste kaum einen Grund eine 7900XTX anstatt einer 4080 zu nehmen.
Ich hoffe sogar das gaaanz viele Leute AMD die Karten aus der Hand reißen damit ichs nicht machen muss und weiterhin NV kaufen kann, die dann hoffentlich wegen mangelnder Nachfrage im Preis gesenkt werden. ... man darf ja noch träumen :ugly:

aufkrawall
2024-10-10, 12:43:10
Naja, bei UE5 ist "ohne RT" = SW-RT ;)

Leider gibts auch immer mal wieder UE-Titel, wo RDNA3 auch nur mit SWRT etwas unterdurchschnittlich performt, und RDNA2 sieht dann gegen Ampere oft sogar richtig schlecht aus. Dann gibts auch wieder gegenteilige Beispiele, aber Ampere/Lovelace sind letztlich auch mit SWRT konsistenter. Und dann erscheinen Hype-Spiele wie Wukong, wo selbst SWRT-Lumen wochenlang nur mit Grafikfehlern auf AMD läuft. Und das Mehr an VRAM bringt fast nie was in UE-Titeln, und jetzt kann man als Enthusiast-PCler auch noch Ray Reconstruction in quasi jedes UE SP-Spiel reinmodden. Da würden auch 128GB VRAM Radeons nicht mehr retten. Und dass bei RDNA4 bei AMDs Track Record mit einem Fingerschnipp nun alles gut werden würde, nun ja. Wird wohl auch überteuert sein und global wie Blei in den Regalen liegen. Gibt dann bei entsprechender Effizienz ggf. den ein oder anderen Design Win für Notebooks, aber ein vergleichbares Model mit Geforce dürfte sich dann trotzdem zigmal mehr verkaufen. Ich seh nicht, wie man da für irgendwas noch Hoffnung haben kann. Nvidia wird mit BW erstmal auch mit knappem VRAM erfolgreich abkassieren, und dann ggf. später nochmal mit mehr für den Refresh. Würde mich sehr wundern, wenn die >80% Marktanteil irgendwie Kratzer nähmen. Radeons gibts halt nur noch wegen der Konsolen und die einzig echte Konkurrenz für Nvidia sind sie selbst bzw. die Kartellbehörden...

ChaosTM
2024-10-10, 12:47:20
Mit intelligenteren, sprich billigeren Ansätzen/Lösungen für eine vernünftige Beleuchtung und Reflexionen, wie es UE5 regelmäßig demonstriert, könnte der Unterschied zwischen AMD und NV bald schmelzen.
Momentan liegt die quasi proprietäre RTX Lösung noch vorne, aber das muss nicht so bleiben.

Wäre gut für alle Gamer.
Von daher ist krawalls Vorschlag einer "Einheitsengine" gar nicht mal so schlecht, abgesehen von einer Menge anderer Probleme, die daraus entstehen würden.

Monopole haben so ihre Tücken -> Windows?

Blase
2024-10-10, 12:49:59
...man darf ja noch träumen :ugly:

Das ist ja schon fast ein Fiebertraum :tongue:

MfG Blase

aufkrawall
2024-10-10, 12:50:32
Monopole haben so ihre Tücken -> Windows?
Windows zeigt ja, wie ein Monopol trotz aller hässlichen Seiten und Unfähigkeit des Anbieters immer noch unendlich viel besser als die Alternativen ist, wenn der Erfolgsgrund für das Monopol halbwegs bestehen bleibt. Ausgerechnet Tim Sweeney hat Windows als defakto offene Plattform entsprechend jüngst auch gelobt.

Stechpalme
2024-10-10, 12:54:55
Es gibt DEN einen Grund für mich (!) nicht zu NV zu greifen: Ich will deren Marktmacht nicht stärken. Schwimme gerne gegen den Strom :)

Kann man machen. Aber nüchtern betrachtet, kauft man doch das Beste was man für sein Geld bekommen kann. Es ist doch unsinnig etwas anderes zu kaufen das für einen selbst am Ende aber das schlechtere Produkt ist.
Muss jetzt nicht auf dich zutreffen, ich kenne dein Nutzerverhalten nicht. Aber in meinem Fall wäre AMD auch aus Gründen abseits von Gaming eine totale Fehlentscheidung. Grade wenn ich mal auf Rendering und KI schaue.

ChaosTM
2024-10-10, 12:54:58
daher auch das Fragezeichen... eine Engine könnte die Lösung sein, aber..

@Stechpalme

wer Cuda braucht hat momentan noch keine alternative

DrFreaK666
2024-10-10, 12:56:55
Das wurde hier ja noch gar nicht erwähnt, oder?
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-5080-5070-Preise-1457343/

https://i.postimg.cc/j5BRVdgk/RTX50-Price-pcgh.png (https://postimg.cc/sQPk7yRp)

edit: wurde wohl von jemandem erwähnt, den ich geblockt hab :ugly:

HOT
2024-10-10, 12:59:55
Das liest man immer wieder, aber die Raster-Performance einer 7900XTX ist nur marginal besser als bei einer 4080. Und am Ende stellt sich die Frage, wo hat man wirklich etwas davon? Das zeigt sich in fast keinem Spiel. Und wenn dann auch nur marginal.
Wenn dann aber RT gefragt ist, verliert die 7900XTX sehr klar. Der Speichervorteil zeigt sich in der Praxis ebenso wenig.
Wenn man dann noch FSR und DLSS vergleicht, sieht es auch nicht so gut für AMD aus. FSR3 findet noch kaum Verwendung. FSR2 sieht in Quality immer schlechter aus als DLSS Quality und FSR3 rettet es auch nicht wirklich.

Muss jeder für sich entscheiden was er will, aber ich persönlich wüsste kaum einen Grund eine 7900XTX anstatt einer 4080 zu nehmen. Auch wenn Letzteres 100-200€ mehr kosten würde (Preise schwanken ja stark).

Wenn eine 4070TI zu teuer ist, dann würde ich im AMD Lager suchen, aber ab dieser Preisklasse bietet AMD irgendwie nichts das rund ist.

Also aus Erfahrung, auch mit aktuellen Top-Titeln, kann ich dir sagen, dass die Karte keine Probleme macht, auch bei aktuellen Titeln und hohen Details nicht. RT ist oftmals komplett irrelevant oder gut mit Optionen hendelbar. Es kommt halt nur auf den Anspruch an und ich brauch meine 100FPS.

ChaosTM
2024-10-10, 13:00:00
1500 für eine "5070er" wäre frech.

add.: macht ähnlich wenig Sinn wie die "Leaks" bezüglich 5090/5080, aber wer weiß..

ShinyMcShine
2024-10-10, 13:02:20
Das wurde hier ja noch gar nicht erwähnt, oder?
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Geforce-RTX-5090-5080-5070-Preise-1457343/

https://i.postimg.cc/j5BRVdgk/RTX50-Price-pcgh.png (https://postimg.cc/sQPk7yRp)

edit: wurde wohl von jemandem erwähnt, den ich geblockt hab :ugly:

Du bist ca. 6h zu spät...

DrFreaK666
2024-10-10, 13:08:57
Du bist ca. 6h zu spät...

Siehe mein edit ;)

basix
2024-10-10, 13:37:38
Das liest man immer wieder, aber die Raster-Performance einer 7900XTX ist nur marginal besser als bei einer 4080. Und am Ende stellt sich die Frage, wo hat man wirklich etwas davon? Das zeigt sich in fast keinem Spiel. Und wenn dann auch nur marginal.
Wenn dann aber RT gefragt ist, verliert die 7900XTX sehr klar. Der Speichervorteil zeigt sich in der Praxis ebenso wenig.
Wenn man dann noch FSR und DLSS vergleicht, sieht es auch nicht so gut für AMD aus. FSR3 findet noch kaum Verwendung. FSR2 sieht in Quality immer schlechter aus als DLSS Quality und FSR3 rettet es auch nicht wirklich.

Muss jeder für sich entscheiden was er will, aber ich persönlich wüsste kaum einen Grund eine 7900XTX anstatt einer 4080 zu nehmen. Auch wenn Letzteres 100-200€ mehr kosten würde (Preise schwanken ja stark).

Leider gibts auch immer mal wieder UE-Titel, wo RDNA3 auch nur mit SWRT etwas unterdurchschnittlich performt, und RDNA2 sieht dann gegen Ampere oft sogar richtig schlecht aus. Dann gibts auch wieder gegenteilige Beispiele, aber Ampere/Lovelace sind letztlich auch mit SWRT konsistenter. Und dann erscheinen Hype-Spiele wie Wukong, wo selbst SWRT-Lumen wochenlang nur mit Grafikfehlern auf AMD läuft. Und das Mehr an VRAM bringt fast nie was in UE-Titeln, und jetzt kann man als Enthusiast-PCler auch noch Ray Reconstruction in quasi jedes UE SP-Spiel reinmodden. Da würden auch 128GB VRAM Radeons nicht mehr retten. Und dass bei RDNA4 bei AMDs Track Record mit einem Fingerschnipp nun alles gut werden würde, nun ja. Wird wohl auch überteuert sein und global wie Blei in den Regalen liegen. Gibt dann bei entsprechender Effizienz ggf. den ein oder anderen Design Win für Notebooks, aber ein vergleichbares Model mit Geforce dürfte sich dann trotzdem zigmal mehr verkaufen. Ich seh nicht, wie man da für irgendwas noch Hoffnung haben kann. Nvidia wird mit BW erstmal auch mit knappem VRAM erfolgreich abkassieren, und dann ggf. später nochmal mit mehr für den Refresh. Würde mich sehr wundern, wenn die >80% Marktanteil irgendwie Kratzer nähmen. Radeons gibts halt nur noch wegen der Konsolen und die einzig echte Konkurrenz für Nvidia sind sie selbst bzw. die Kartellbehörden...

[..]wer Cuda braucht hat momentan noch keine alternative

Ich gebe euch da sicher recht. Wenn einem Features wie DLSS, RR, Cuda oder ML/AI wichtig sind, dann bietet Nvidia das bessere Gesamtpaket. Aber AMDs Karten sind nicht generell "unbrauchbar" für Gaming. Kommt auf die eigenen Bedürfnisse darauf an und wie AMDs Karten bepreist sind. AMD muss sicher über den Preis gehen, um die fehlenden Features aufzuwiegen aber die sind ja nichtmal für alle so wichtig wie viele meinen. Ich sehe da schon einen Weg. Bei Nvidias Karten ist ab 4070 Ti und darunter das Damokles-Schwert "VRAM-Mangel" und entsprechend "harte Unbrauchbarkeit" schon deutlich näher. Jetzt gibt es schöne Features wie DLSS + FG + RT + RR aber es gehen bereits bei 1440p die 12GByte zur Neige (trotz oder sogar wegen den Features wie FG) und von den 8GB Karten muss ich gar nicht erst anfangen. Wenn ich das richtig in Erinnerung habe hat Nvidia oftmals auch mehr Frametime Spikes, welche bei AMD Karten nicht auftreten. Vermutlich dem aggressiveren Memory Management oder dem Treiber geschuldet (bitte korrigiert mich hier, falls das falsch wäre).

Ich will da AMD nicht in Schutz nehmen: RDNA4 muss bei den Features deutlich aufholen, um relevant zu bleiben. Die zwei wichtigsten sind FSR4 und bessere RT-Performance (generelle HW-Performance und im besten Fall noch RR dazu). Matrix Cores und mehr Cuda-Gegengewicht wären für andere Anwendungsfelder ausserhalb von Gaming wichtig. Ob AMD das alles liefern kann? Ungewiss. Aber ich hoffe es dem Markt und uns zu Liebe.

DrFreaK666
2024-10-10, 13:47:42
AMD hat ja erwähnt, dass mehr Arbeit in Software fließen wird
Use ROCm on Radeon GPUs - Researchers and developers working with Machine Learning (ML) models and algorithms using PyTorch, ONNX Runtime, or TensorFlow can now also use ROCm 6.1.3 on Linux® to tap into the parallel computing power of the latest high-end AMD Radeon 7000 series desktop GPUs, and based on AMD RDNA 3 GPU architecture.
https://rocm.docs.amd.com/projects/radeon/en/latest/index.html

Wird aber etwas Offtopic

HOT
2024-10-10, 14:02:09
AMD hat ja erwähnt, dass mehr Arbeit in Software fließen wird

https://rocm.docs.amd.com/projects/radeon/en/latest/index.html

Wird aber etwas Offtopic

Da bei AMD ja alles von der KI-Entwicklung demnächst abfallen wird, ist das ja auch kein Wunder, dass man dort die Grundlagen für künftige Software für Grafik legt.

AMD machts eigentlich wie NV, die Grafikchips fallen von den Profientwicklungen ab. Der Weg Grafik als eigene Schine aufzulegen ist auch bei AMD gescheitert.


Ich sehe diese Generation als Totalausfall an. NV ist allein auf weiter Flur und einfach zu teuer, AMD macht Produkte in einem Bereich, der mich nicht interessiert und Intel hat sich dazu entschieden, den eigentlich offensichtlich guten BM auch nur in einem uninteressanten Bereich zu bringen.
Selbst mit RT-Schwäche wird meine XTX offenbar steinalt...

basix
2024-10-10, 14:11:06
Gescheitert ist das falsche Wort. Zum damaligen Zeitpunkt war es die richtige Entscheidung. RDNA1/2 waren in ihrem Sinne Konkurrenzfähig und für die Konsolen das Richtige. CDNA1 war eine "lowest effort" Auskopplung, damit man in HPC einen Fuss behielt (RDNA hatte den grösseren Fokus, CDNA durfte nicht zu viele Ressourcen verschlingen). Seit CDNA2 und spätestens CDNA3 mit Erfolg. Mit HPC/Datacenter/ML/AI hat sich das Umfeld aber inzwischen gewandelt, was CDNA immer wichtiger macht sowie die Consumer-GPUs und die Profi-GPUs von den Features her wieder näher zusammenbringt (Matrix-Acceleration, viel FP-Durchsatz, Software-Support & Frameworks). Hier hat Nvidia das jeweils zusammenhalten können und mit CUDA die Brücke dazwischen gepflegt. Nvidia zeigt hier das Erfolgsmodell vor, weswegen es veständlich ist, dass AMD nun mit UDNA auch in diese Richtung geht. Und dazu noch die weiteren Dinge wie Chiplets & Skalierung, Stacking, Packaging etc. wo man von Synerige-Effekten zwischen Profi und Consumer profitieren kann.

Aber ja, ist OT im Blackwell Thread. Ausser dass Nvidia im Bereich GPU-Architektur, Features und SW-Support sehr vieles richtig macht. Nur bei VRAM-Menge und SKU-Preisen nicht so ganz :D

aufkrawall
2024-10-10, 18:29:41
Wenn ich das richtig in Erinnerung habe hat Nvidia oftmals auch mehr Frametime Spikes, welche bei AMD Karten nicht auftreten. Vermutlich dem aggressiveren Memory Management oder dem Treiber geschuldet (bitte korrigiert mich hier, falls das falsch wäre).

Ist die Frage, wie viel das wert ist, wenn die Firma stattdessen zu dusselig ist, einen Shader Cache zu programmieren, der mit einem der populärsten Spiele der Welt, das dringend auf ihn angewiesen ist, richtig funktioniert. Das Gras sieht halt von deiner GeForce-Seite auch grüner aus, weil du noch nie drüben warst.
Die Firma wird immer die Tendenz haben, über ihre eigenen Beine zu stolpern. Bei den CPUs steht halt irgendwann die Plattform und dann läuft es, für GPUs reicht so eine Mentalität aber einfach nicht. Gehe fest davon aus, dass die Marktanteile das auch weiterhin zeigen werden.

Schnitzl
2024-10-10, 19:54:55
Hat mal jemand in letzter Zeit auf den Threadtitel geschaut? ;D

TheGood
2024-10-10, 22:45:41
Als Anmerkung,
die hohen Preise machen diese Performancebereiche auch erst möglich weil der Return so hoch ist, das es sich lohnt am technischen Limit zu produzieren.
Ansonsten würde nv dort sein wo AMD ist und AMD ist auch nur dort, weil sie es verpasst haben, mitzugehen (die Gründe sind erst einmal egal).

Wir wissen mittlerweile, das die Preise mit Konkurrenz eben nicht besser wären, aufgrund der höheren technischen Anforderungen.
Ob Multichip daran was ändern wird muss auch erst noch bewiesen werden.
Ich glaub es nicht, weil wir uns auch hier am technischen Limit bewegen und die Kosten damit automatisch hoch sind.

Bei 75 % MArge kann man das was du hier schreibst nur noch belächeln und Fragen wann der eine oder andere sein Hirn einschaltet... Aber man sieht ja in der Welt, dass jede Menge Hirn fehlt...

monstar-x
2024-10-10, 22:55:35
Nein, die Preise sind schlichtweg kriminell. Wer das noch mitmacht ist einfach selber Schuld. Aber ich denke mal, die potenzielle Käuferschaft ist schlauer als der geneigte NV-Fanboy.

Was hat das mit Schlau oder Dumm zu tun?
Jeder kann selbst entscheiden was für ihn Persönlich das wichtig und richtige ist und wenn ich 2500-3000€ für eine Grafikkarte ausgeben möchte, dann mach ich das.
Wer es sich leisten kann, soll es, er nicht das nötige Geld hat, oder es ihm zu sehr schmerzen würde, kann kleinere Grafikkarten kaufen.

Da du in den schon in den 80/90 gelebt hast, kennst du doch die Preise, 8000 DM für einen Highend-Rechner war normal, also was soll das ganze jetzt?

Diese Preis Diskussionen sind sowas von Langweilig und mühselig und kommen überwiegend von Personen die sich keine >1.500€ Grafikkarte leisten können.

Ich gehe doch auch nicht ins Porsche Forum und stänkere Rum das ich mir kein Panamera GT leisten kann und die Preise Absurd sind.

LASST ES ENDLICH SEIN!

ChaosTM
2024-10-10, 23:11:54
Die 80er und 90er waren spaßig, aber für 8k hätte man mindesten 3 PCs bekommen, selbst mit Voodoo2 12MB SLI und mit ein paar SCSI HDDs.

Alles unter 3k würde mich überraschen bei der 5090er..

The_Invisible
2024-10-10, 23:20:56
Diese ganzen Preisdiskussionen gabs ja bei der 4090 auch schon, da die 3090Ti >2k kostete hat man dort auch 2-3k spekuliert, geworden sind es gerade mal 100$ mehr als der Vorgänger 3090. Die Preise waren bei uns nur so hoch weil der EUR im Keller war.

Ich trau mich daher einfach zu sagen das es max 1999USD sind.

@monstar-x
Aber sowas von, kanns bald auch net mehr lesen...

@ChaosTM
Ja dafür hat man dort auch 2-3x so oft aufgerüstet, relativiert sich alles wieder

Sardaukar.nsn
2024-10-10, 23:26:25
Ich gehe doch auch nicht ins Porsche Forum und stänkere Rum das ich mir kein Panamera GT leisten kann und die Preise Absurd sind.

LASST ES ENDLICH SEIN!

Es muss ja nicht direkt Porsche sein, aber nimmt doch einfach nur den nächsten x-beliebigen "Fahrrad Laden".

Im Hifi-Bereich gibt es regelrechte "Voodoo-Hardware". So what, wer Spass dran hat soll sich das Luxus Zeug halt holen.

Die Performance Steigerungen im PC Bereich sind immerhin real.

ChaosTM
2024-10-10, 23:33:32
Diese ganzen Preisdiskussionen gabs ja bei der 4090 auch schon, da die 3090Ti >2k kostete hat man dort auch 2-3k spekuliert, geworden sind es gerade mal 100$ mehr als der Vorgänger 3090. Die Preise waren bei uns nur so hoch weil der EUR im Keller war.

Ich trau mich daher einfach zu sagen das es max 1999USD sind.

@monstar-x
Aber sowas von, kanns bald auch net mehr lesen...

@ChaosTM
Ja dafür hat man dort auch 2-3x so oft aufgerüstet, relativiert sich alles wieder

Jo, man musste oft aufrüsten, aber das hat niemals 8k gekostet

"Nur" 2k und +50-70% für die 90er.

-> OnB1TgxgwEA

BlacKi
2024-10-11, 00:25:50
Wie kommst du denn darauf? Bisher sieht es eher nach 4070 Super Leistung aus.


bandbreite liegt wohl bei einem drittel der 5080. damit also ganz knapp unter einer 4080. und 50 shadercluster vs 84 bei der 5080 ergibt zwar 40% weniger rechenleistung auf dem papier, da aber die geringen shadercluster besser skalieren, wird es wohl auch bei der performance auf ein gutes 1/3 geringere performance bei der 5070 rauslaufen. auch hier also minimal langsamer als eine 4080.


die schnellster rdna4 karte soll manchmal in einzelnen benchmarks schneller sein als eine 4080. aber nicht avg und erst recht nicht in RT.



also ist die 5070 nach dem aktuellen speku stand schneller als jeder rdna4 karte. aber alles speku

ChaosTM
2024-10-11, 00:59:37
Mit 5070 meinst du wohl die angekündigte 5080er .. alles andere wäre seltsam..

DrFreaK666
2024-10-11, 03:21:13
...LASST ES ENDLICH SEIN!

Die Preise sind unter aller Sau. :D
Keine Ahnung wieso man das schön reden muss

medi
2024-10-11, 06:19:44
Die Preise sind unter aller Sau. :D
Keine Ahnung wieso man das schön reden muss
Ich frag mich warum da kein Kartellamt mal zuckt. NVidia hat ja im High-End Bereich absolute Monopolstellung und nutzt das, wie man an den Margen sieht, auch ziemlich aus. Das denen da keiner auf die Finger (sc)haut 🤷*♂️

Cubitus
2024-10-11, 08:10:24
Könnte im Bereich der KI Chips mal passieren. Jetzt noch nicht, da die USA Angst vor China haben

SamLombardo
2024-10-11, 08:22:44
Wartet es doch erst mal ab. Vielleicht ist es alles Marketing mit diesen krassen Preisdiskussionen. Und dann kommt die 5090 mit dem Preis der 4090 und alle sind ganz aus dem Häuschen wie super billig sie ist, lassen gern zwei Tausender springen und freuen sich über das Schnäppchen:biggrin:. Manipulation vom Feinsten. Wäre ja nicht das erste Mal.

Edgecrusher86
2024-10-11, 08:32:39
https://www.dsogaming.com/news/the-latest-nvidia-rtx-50-series-rumor-prices-are-most-likely-fake/

https://i.ibb.co/ns5rXyy/Screenshot-2024-10-11-083139.png (https://ibb.co/vxK1NWW)

Aber gut, $1999 MSRP halte ich schon für realistisch für die FE - mit grob 2499€ Straßenpreisen für die Customs.
Eine 5080 zum 4090 Preis würde nochmal deutlich mehr Blei in den Regalen sein, wie die 4080 damals.

Grob 100-200€ durch die Bank der kompletten Serie könnte es wohl schon teurer werden und vermutlich entsprechend mehr beim Flaggschiff.

DrFreaK666
2024-10-11, 08:53:00
Habs schon vor dem PS5 Pro Reveal gesagt: ohne Konkurrenz gibt es keine niedrigen Preise. Wird hier nicht anders sein

mczak
2024-10-11, 08:58:45
also ist die 5070 nach dem aktuellen speku stand schneller als jeder rdna4 karte. aber alles speku
Gut möglich, aber die schnellste rdna4 Karte dürfte auch billiger werden (und hat ausserdem den Vorteil von mehr Speicher).
Wobei ich weiss gar nicht wieso sich alle über die (angeblichen) Preise aufregen? Die unterste Angabe sowohl bei der RTX 5070 wie auch der RTX 5080 entspricht ja genau den offiziellen Launch-Preisen der RTX 4070 und 4080, und dass die neue Generation nicht billiger wird war ja wohl anzunehmen, auch unter Berücksichtigung der Konkurrenzsituation. Dass Nvidia versuchen wird die Preise eher zu erhöhen scheint mir nicht so abwegig. Bei der 5080 wie der 5090 kann man eh keine Marktanteile verlieren, weil es ja gar keine Konkurrenz gibt - nur die 5070 muss da einigermassen konkurrenzfähig sein.

gnomi
2024-10-11, 09:13:34
Jo, muss man irgendwie mit klarkommen.
Ich glaube, meine letzten 2 GPU's (RTX 4080S & RTX 3080TI) waren in etwa so teuer wie die 5 aus dem gesamten Jahrzehnt vorher. (GTX 470/680/980/1080/RTX 2080)
Schon schräg.

Sardaukar.nsn
2024-10-11, 09:17:45
Man erwartet das Beste vom Besten + riesige Nachfrage.... aber kleine Preise?

Mal völlig losgelöst von der Grafikkarte, ihr wisst schon grob wie Marktwirtschaft funktioniert?

boxleitnerb
2024-10-11, 09:26:50
Die Diskussion ist dämlich und müßig. Habt ihr nichts Besseres zu tun? Entscheidet für euch, ändern werdet ihr eh nichts.

The_Invisible
2024-10-11, 09:47:26
Wartet es doch erst mal ab. Vielleicht ist es alles Marketing mit diesen krassen Preisdiskussionen. Und dann kommt die 5090 mit dem Preis der 4090 und alle sind ganz aus dem Häuschen wie super billig sie ist, lassen gern zwei Tausender springen und freuen sich über das Schnäppchen:biggrin:. Manipulation zum Feinsten. Wäre ja nicht das erste Mal.

Sag ich ja schon lange, die gleiche unsinnige Diskussion gabs bei der 4090 und dann war sie gerade mal 100$ teurer als die 3090 was man als Inflation ansehen kann über 2 Jahre.

Langsam ist aber wirklich mal gut...

DrFreaK666
2024-10-11, 10:00:05
Das ist keine unsinnige Diskussion. Die gab es auch bei der 3090 und wie war da dann der Preis?

BlacKi
2024-10-11, 10:01:19
Bei der 5080 wie der 5090 kann man eh keine Marktanteile verlieren, weil es ja gar keine Konkurrenz gibt - nur die 5070 muss da einigermassen konkurrenzfähig sein.


ja, ich denke auch dass das so kommen wird. die beste perf/euro bietet die 4070super. das einzigste was bei diesen karten nervt, sind die 12gb. aber selbst ich hab mich damit abgefunden. entweder man geht den kompromiss ein oder nicht. dazwischen gibts nichts. notfalls eben eine 16gb ada karte. die es aber auch nicht dauerhaft geben wird.


was viel stärker ankotzt ist das neue featureset das sicherlich einen zu den 12gb drängen wird. aber hey, aufregen bringt nichts.

The_Invisible
2024-10-11, 10:04:32
Das ist keine unsinnige Diskussion. Die gab es auch bei der 3090 und wie war da dann der Preis?

Doch wenns über mehrere Seiten geht und immer aufgewärmt wird ist es unsinnig, ihr könnt ja gerne einen "Grafikkarten Preis zu hoch" Heulthread machen...

DrFreaK666
2024-10-11, 10:21:33
Wer ist "ihr"? Mich kannst damit wohl kaum gemeint haben

Sardaukar.nsn
2024-10-11, 10:22:45
Doch wenns über mehrere Seiten geht und immer aufgewärmt wird ist es unsinnig, ihr könnt ja gerne einen "Grafikkarten Preis zu hoch" Heulthread machen...

Gerne, da möchte ich mich dann auch mit den anderen Hungerleidern über den Döner Preis beschweren. Der ist prozentual noch viel krasser gestiegen.

Gipsel
2024-10-11, 15:02:38
Thema ist hier Blackwell. Dönerpreise sind bitte woanders zu diskutieren (vermutlich irgendwo im PoWi-Unterforum).
Danke.

monstar-x
2024-10-11, 17:38:13
https://www.dsogaming.com/news/the-latest-nvidia-rtx-50-series-rumor-prices-are-most-likely-fake/

https://i.ibb.co/ns5rXyy/Screenshot-2024-10-11-083139.png (https://ibb.co/vxK1NWW)

Aber gut, $1999 MSRP halte ich schon für realistisch für die FE - mit grob 2499€ Straßenpreisen für die Customs.
Eine 5080 zum 4090 Preis würde nochmal deutlich mehr Blei in den Regalen sein, wie die 4080 damals.

Grob 100-200€ durch die Bank der kompletten Serie könnte es wohl schon teurer werden und vermutlich entsprechend mehr beim Flaggschiff.



Dollar Preise sind IMMER ohne Steuern.

1999$ entspricht je nach US Bundesland 2140-2400$ an der Kasse.

Sprich bei uns gute 2300-2400€ so fern es nur 1999€ sind.

Die Custom schlagen eine Schippe drauf und landen bei. 2600-3000 je nach Hersteller und Model.

Langlay
2024-10-11, 18:53:42
Sprich bei uns gute 2300-2400€ so fern es nur 1999€ sind.


Wenns 1999$ UVP sind wären 2182,39€ der deutsche UVP (inkl. 19% Mwst) wenn man 1€ = 1.09$ als Umrechnungskurs nimmt.

Ich seh aber eigentlich 1999$ aber auch eher als das obere Ende des Preisbereiches und würde auf 1899$ UVP tippen. Was dann bei ~2100€ rauskommt (für ne FE)

horn 12
2024-10-11, 18:55:55
https://wccftech.com/nvidia-entire-blackwell-ai-gpu-supply-sold-out-ai-firms-100k-units-a-single-order-highlighting-insane-demand/

SOLD OUT

Thomas Gräf
2024-10-11, 19:14:17
https://wccftech.com/nvidia-entire-blackwell-ai-gpu-supply-sold-out-ai-firms-100k-units-a-single-order-highlighting-insane-demand/

SOLD OUT

Man, erst dieser Mining Scheizz und nun dieser AI Schwachsinn...und immer trifft es die GPU's

monstar-x
2024-10-11, 19:15:04
Daher sollten wir (Gamer) nicht allzu viel erwarten (Verfügbarkeit), die Kapazitäten werden anderweitig benötigt, für AI Karten, da ist die Marge viel höher.

basix
2024-10-11, 19:34:32
Man, erst dieser Mining Scheizz und nun dieser AI Schwachsinn...und immer trifft es die GPU's

Damals waren Consumer-GPUs direkt betroffen. Das ist diesmal nicht der Fall.

Daher sollten wir (Gamer) nicht allzu viel erwarten (Verfügbarkeit), die Kapazitäten werden anderweitig benötigt, für AI Karten, da ist die Marge viel höher.
TSMC läuft nicht am Kapazitätslimit, bei keinem der Bleeding Edge Prozesse (N6/7, N4/5, N3). Bei den HPC-Dingern limitiert HBM- und Packaging-Kapazität. Betrifft Consumer-Karten also nicht.

Sardaukar.nsn
2024-10-11, 19:45:48
Foxconn baut massiv aus, aber wenn das wirklich zu besserer Verfügbarkeit führt weiß niemand: https://www.notebookcheck.com/Foxconn-errichtet-die-groesste-GB200-Chipfabrik-der-Welt-um-den-Bedarf-an-Nvidias-KI-Chips-zu-decken.898951.0.html

monstar-x
2024-10-11, 19:55:45
Damals waren Consumer-GPUs direkt betroffen. Das ist diesmal nicht der Fall.


TSMC läuft nicht am Kapazitätslimit, bei keinem der Bleeding Edge Prozesse (N6/7, N4/5, N3). Bei den HPC-Dingern limitiert HBM- und Packaging-Kapazität. Betrifft Consumer-Karten also nicht.

Woher stammt diese Information?

BlacKi
2024-10-11, 20:38:16
lederjacke meinte, das broadwell aus den händen gerissen wird. d.h. sie kommen mit der produktion nicht hinterher. letztendlich ist es das was die preise hochtreibt, wer daran schuld ist in dieser kette ist erstmal egal. es gab ja auch in der vergangenheit drosselungen in der produktion um lagerkosten zu reduzieren, was auch zu höheren preisen führt, da man die ware ja nicht um jeden preis loswerden muss.

prinz_valium_2
2024-10-12, 08:06:10
Man, erst dieser Mining Scheizz und nun dieser AI Schwachsinn...und immer trifft es die GPU's

Und weder AMD noch Intel schaffen es davon zu profitieren.
Somit werden auch wir Konsumenten es nicht.

basix
2024-10-12, 09:10:33
AMD profitiert, nicht umsonst ist ihr Datacenter Business stark gewachsen. Bin gespannt auf die Quartalszahlen Ende Oktober.

reaperrr
2024-10-12, 15:48:59
AMD profitiert, nicht umsonst ist ihr Datacenter Business stark gewachsen. Bin gespannt auf die Quartalszahlen Ende Oktober.
Jup, es wird etwas unterschätzt, wieviel schlechter es (leider) bei AMD ausgesehen hätte, wenn MI300 nicht gut laufen würde.

Außer dem Epyc-Geschäft läuft bei AMD ansonsten momentan nämlich nix so wirklich prall (Konsolen -> ganz schwach, Mobile-APUs -> eher schwach, Desktop-CPUs -> eher schwach + wenig Marge, Mobile-GPUs -> quasi tot, Desktop-GPUs -> Margen OK, Umsatz meh, Xilinx -> Gewinn OK, Umsatz verglichen mit früheren Jahren aber schwach).

Und weder AMD noch Intel schaffen es davon zu profitieren.
Somit werden auch wir Konsumenten es nicht.
Würden wir auch dann nicht, wenn die beiden stärker davon profitieren würden.

NV macht Asche ohne Ende. Führt das zu niedrigeren Preisen oder besserer Speicherausstattung im Desktop? Nö.
Eher dazu, dass es noch schlimmer wird, weil sie die Wafer ohnehin lieber für teure KI-Produkte verwenden, als Desktop-Grakas in größeren Mengen zu billigeren Preisen unters arme Fußvolk zu bringen.

Wäre bei Intel und AMD auch nicht anders. Arc Grakas und Radeons ab 7800XT abwärts sind nur wegen mangelnder Nachfrage so billig geworden.

ENKORE
2024-10-12, 18:00:17
Jepp das war quasi die zweite 8800 GTX.. :)

Moment mal, ich sehe da ein Muster...

8800 GTS / GTX - 2007
GTX 680 - 2012
1080 Ti - 2017
4090 - 2022

Vielleicht wird die RTX 8080 oder 9090 ja wieder was.

Wuge
2024-10-12, 18:04:52
2027 erst wieder? Och nööö

basix
2024-10-12, 18:42:12
Moment mal, ich sehe da ein Muster...

8800 GTS / GTX - 2007
GTX 680 - 2012
1080 Ti - 2017
4090 - 2022

Vielleicht wird die RTX 8080 oder 9090 ja wieder was.

Die GTX 680 in dieser Auflistung zu haben grenzt fast schon an Blasphemie ;)

Blase
2024-10-12, 19:16:31
Die GTX 680 in dieser Auflistung zu haben grenzt fast schon an Blasphemie ;)

Die 3080 müsste auch in diese Liste rein. Zu 699 UVP ein fantastisches Angebot. Für das, was da preislich passiert ist, kann NV ja nix...

MfG Blase

Gouvernator
2024-10-12, 19:56:48
Daher sollten wir (Gamer) nicht allzu viel erwarten (Verfügbarkeit), die Kapazitäten werden anderweitig benötigt, für AI Karten, da ist die Marge viel höher.
Muss NV ihre defekte Chips nicht irgendwo abladen können? Bei übervoller Auftragslage im AI Bereich müssten teildeaktivierte Gamer-Chips en masse vorhanden sein. Außerdem sind frühere 100% High-End-Gamer nicht blöd um für viel Geld auf kastrierte VRAM Größen zu stürzen. Der minimaler Einsatzzweck von VRAM hat sich von 8K-16k Auflösungen nun auf lokale LLMs, GEWALTIG gesteigert. Sprich, die potenzielle Käuferschicht wartet nicht nur auf bessere Grafik, sondern u.a. auf virtuelle LLM-Freundin... deren Dummheit direkt mit verfügbaren VRAM Größe zusammenhängt.;D

rentex
2024-10-12, 20:18:44
lederjacke meinte, das broadwell aus den händen gerissen wird. d.h. sie kommen mit der produktion nicht hinterher. letztendlich ist es das was die preise hochtreibt, wer daran schuld ist in dieser kette ist erstmal egal. es gab ja auch in der vergangenheit drosselungen in der produktion um lagerkosten zu reduzieren, was auch zu höheren preisen führt, da man die ware ja nicht um jeden preis loswerden muss.

BLACKWELL! Bist schon bisserl älter oder was?

BlacKi
2024-10-12, 21:24:25
BLACKWELL! Bist schon bisserl älter oder was? lol :biggrin:

Muss NV ihre defekte Chips nicht irgendwo abladen können? Bei übervoller Auftragslage im AI Bereich müssten teildeaktivierte Gamer-Chips en masse vorhanden sein. Außerdem sind frühere 100% High-End-Gamer nicht blöd um für viel Geld auf kastrierte VRAM Größen zu stürzen. Der minimaler Einsatzzweck von VRAM hat sich von 8K-16k Auflösungen nun auf lokale LLMs, GEWALTIG gesteigert. Sprich, die potenzielle Käuferschicht wartet nicht nur auf bessere Grafik, sondern u.a. auf virtuelle LLM-Freundin... deren Dummheit direkt mit verfügbaren VRAM Größe zusammenhängt.

wie defekt hättest du sie denn gerne? wenn ein gb202 defekt ist gibt es 3 (bis 5)optionen. 5090 oder 2(je nach defekt auch 1x)x 5080. alles salvage chips aus einem wafer. das ist glaube ich sogar ein patent nvidias das vor einigen monaten durchs netz lief. notfalls kann man die durchfall chips noch horten für eine 5070ti(super) oder gleich eine (oder2x) 5070 draus machen.

alles mit einem wafer. praktisch null ausschuss. so produziert man 700mm² chips ohne ausschuss. amds ansatz ist das chiplet design, nv geht andere wege.

Gouvernator
2024-10-13, 08:45:58
lol :biggrin:



wie defekt hättest du sie denn gerne? wenn ein gb202 defekt ist gibt es 3 (bis 5)optionen. 5090 oder 2(je nach defekt auch 1x)x 5080. alles salvage chips aus einem wafer. das ist glaube ich sogar ein patent nvidias das vor einigen monaten durchs netz lief. notfalls kann man die durchfall chips noch horten für eine 5070ti(super) oder gleich eine (oder2x) 5070 draus machen.

alles mit einem wafer. praktisch null ausschuss. so produziert man 700mm² chips ohne ausschuss. amds ansatz ist das chiplet design, nv geht andere wege.
Ich vermute durch die angebliche AI-Version können bzw. wollen sie alles verwerten. Auch der Abstieg neulich zum gddr6 Vram könnte dafür sprechen. Solche Grafikkarten wären vermutlich 5x nachgefragter als eine 5090 mit ihrem mickrigen 32Gb Vram.

basix
2024-10-13, 08:59:27
wenn ein gb202 defekt ist gibt es 3 (bis 5)optionen. 5090 oder 2(je nach defekt auch 1x)x 5080. alles salvage chips aus einem wafer. das ist glaube ich sogar ein patent nvidias das vor einigen monaten durchs netz lief. notfalls kann man die durchfall chips noch horten für eine 5070ti(super) oder gleich eine (oder2x) 5070 draus machen.

alles mit einem wafer. praktisch null ausschuss. so produziert man 700mm² chips ohne ausschuss. amds ansatz ist das chiplet design, nv geht andere wege.

Du meinst also, GB202 ist effektiv 2x GB203, aber man schnippselt das im Wafer so zurecht, sodass entweder GB203 oder GB202 rauskommen?

BlacKi
2024-10-13, 09:48:56
ja, ich hatte das irgendwo gelesen, aber ich finds nichtmehr.

OgrEGT
2024-10-13, 10:05:21
Das Gerücht dass 2xGB203 = 1x GB202 könnte stimmen wenn nicht nur die Cuda Cores sondern auch die Organisation in GPC und damit die Anzahl der Rasterizer passen würde und dem ist gem. der spekulierten Specs nicht so...
GB202 hat im Vollausbau 12GPCs
GB203 könnte wenn er ein halber GB202 ist nur max 6 GPCs haben... hat aber 7 GPCs im Vollausbau...
https://www.computerbase.de/2024-09/rtx-5090-und-5080-geruecht-nennt-600-watt-und-32-gb-gddr7-fuer-das-topmodell/

Damit das passen würde dann nur wenn NV die Möglichkeit hat auf dem Waver bis zu 5 GPCs abzuschneiden um auf die 7 von GB203 zu kommen. Der Rest wäre dann aber Verschnitt... Das passt aber ja dann auch nicht zu den Cuda Cores eines GB203 im Vollausbau...

Leonidas
2024-10-13, 14:31:35
Woher stammt diese Information?

nVidia & Co. Inzwischen allgemein bekannt, dass es kein Wafer-Problem mehr gibt.



Das was MILF angibt, ...

Wunsch Vater des Gedanken oder bewußt so geschrieben?



https://www.youtube.com/watch?v=EbEPwJvtA5M
Krass, wie gut ich mit meinen 2499€ für die RTX 5090 lag!

Wie dargelegt: "No prices for RTX 50 GPUs have been shared with any partner."
https://www.3dcenter.org/news/news-des-10-oktober-2024

basix
2024-10-13, 16:12:55
Nvidia sind doch die, die die Preise jewiels last minute bekannt geben oder noch ändern. Das wird diesmal ebenfalls so sein. Nvidia wird den Partnern evtl. schon einen ungefähren Erwartungsbereich angeben (sonst wird es schwierig mit PCB, Power Deliver, Cooling etc. Dimensionierung) aber mehr sicher nicht.

Altehardware
2024-10-13, 16:59:24
keine sorge nvidia verkauft bundles die preise sind bekannt es kommt nur auf die uvp an.
Und das stinkt vielen aib da nvidia quasi deren marge bestimmt.

Slipknot79
2024-10-13, 19:07:23
Wunsch Vater des Gedanken oder bewußt so geschrieben?



Upsicht, Verballhornung als Kunstform. (y) :redface:

Gouvernator
2024-10-14, 04:43:26
Ich habe gerade zufällig bemerkt wie hoch die Downloads für Stable Diffusion bei Hugging Face sind. Das ist quasi ein lokaler AI Bildgenerator. Über 2Mio. im Monat. So viel zur potenzieller AI Kundschaft für lokale LLMs.

Altehardware
2024-10-14, 06:00:11
ich habe nicht die Zahlen im Kopf wie viele dgpu verkauft werden und genutzt werden da die downloads weltweit gelten

Habs gefunden
71,37million desktop davon gut 2% Enthusiast 10% high end 20% mid class rest entry oder office
71,37/100*2 =1,47 Millionen Enthusiast die werden nicht alle ai nutzen 20%
71,37/100*10 =7,13 Millionen high end da dürfte nenn guter Anteil nutzen 30%
71,37/100*20 =14,26 Millionen dürfte die meisten es nutzen 50%
Der Rest also 68% 48,5 Millionen wird es nicht nutzen
das ist nur die Neukäufer der bestehende teil dürfte grob 70% der Käufer der letzten Jahre sein übliche Haltephase bei pc zwischen 5-8 Jahre.
Faktisch dann 400 Millionen pc im umlauf das ist kein gutes Zeichen für Lokale LLM
Womit man sich fragt wie man damit Geld generieren kann abo dürfte sich nicht durchsetzen und lokal fehlt die perf. bzw die daten dafür.

Selbst so simples wie upscaling geht kaum bis gar nicht lokal man muss das in die cloud mit bestehenden daten vom video abgleichen. Daher gehen nur Veränderungen im video oder Foto
Ein reines upscaling geht nicht besonders nicht wenn videos was eigenes Produziertes ist was urheberechtlich sicher wäre.
Die folge man kann nur Anhand von Bilder videos aus dem Netz, Eigene Videos Fotos Manipulieren da ist kein cent geld mit zu machen und nur für Falschinformationen manipulation und politische agenda nutzbar.
Wo ist da Ehrlich damit Geld zu verdienen.
generative ai hat sich als Ente erwiesen Spart kein geld ist bedingt ne Hilfe für die Arbeit und als Konsument Produkt nicht nutzbar.

Gouvernator
2024-10-14, 08:19:21
2 Mio. Stable Diffusion Nutzer sind zu 99% auch potenzielle Llama Nutzer. Sprich sie stehen sofort bereit für den 70B-Model und eine GPU mit 96Gb VRAM. Sprich NV hat schon jetzt eine gewaltige Nutzerbasis für jegliche GPU's mit massig VRAM. AMD versucht es ja bald auch mit Halo Strix Point + 128Gb Vram. NV kann alles an Abfall-GPUs verkaufen wenn sie genug VRAM drauf klatschen. Wenn sie wollen... Und diesen Usern ist Gaming-Performance sowas von egal.

Die folge man kann nur Anhand von Bilder videos aus dem Netz, Eigene Videos Fotos Manipulieren da ist kein cent geld mit zu machen und nur für Falschinformationen manipulation und politische agenda nutzbar.
Wo ist da Ehrlich damit Geld zu verdienen.
generative ai hat sich als Ente erwiesen Spart kein geld ist bedingt ne Hilfe für die Arbeit und als Konsument Produkt nicht nutzbar.
Ich glaube ihr versteht noch nicht was lokale LLMs bedeuten. Insbesondere wenn schon die ersten freien Video LLMs von Chinesen bald kommen sollen. Ich sage es einfach - porn. Und zwar in Richtung der Sorten die eher verboten sind. Wo der Konsument die generierten Pics sofort lieber löschen muss. Du kannst quasi aus einem Anime-Preset einen ultra-realistic preset machen und alle Geschlechter aller Rassen jeden Alters miteinander kombinieren. Eine Epstein-Insel für jeden Geschmack - das ist eine lokale LLM. Die ersten Inder haben auf YT schon ihre Anime Freundinen als Voice-GPTs zum laufen gebracht.

PS. Konkret mit Fooocus kann man in 5 Min. buchstäblich so gut wie jeden bekannten Politiker auf die Epstein-Insel setzen, ausziehen und ihn mit beliebiger Anzahl "Begleiter" in jeder erdenklicher Pose abbilden. Bald wohl auch in Video.

basix
2024-10-14, 09:39:45
Stable Diffusion benötigt je nach Modell nur 4-8 GByte RAM / VRAM. Und ich benutze es ganz einfach für so etwas wie "Kunst": Coole Bilder für verschiedene Zwecke, wobei ich die geistige Kreativität dazu habe aber nicht das handwerkliche Geschick (und die Zeit). So wird es vielen gehen. Und nein, meine Bilder haben nichts mit P*rn zu tun ;)

Mit Online Bild-Generatoren kann man wohl die meisten Leute "abgreifen" (MS bietet ja ein online Portal an: https://designer.microsoft.com/image-creator), lokale AI mit den Modellen auf Huggingface ist momentan noch mit Aufwand und etwas IT-Fachwissen verbunden.

Generative AI ist in meinem Fall eine Erweiterung meines Skill-Sets und Könnens. Man kann wirklich coole Dinge damit erschaffen. Und da ich mich mit den Prompts, den Bildern und was ich damit darstellen sowie für wen / was die Bilder gedacht sind auseinandersetze, sind die Bilde mMn auch nicht unpersönlich. Eben weil ich sie zu grössten Teilen selber erdacht und mittels neuem Werkzeug erschaffen habe. Ihr könnt so viel schwarzmalen wie ihr wollt aber generative AI hat definitiv seine guten Seiten ;) Jetzt ist es einfach wichtig, dass wir hier eine Gesellfschaft aufbauen, wo entsprechender Missbrauch minimiert wird. Die meisten Menschen sind gut und haben nichts böses im Sinn. Jetzt ist die Frage, was wir mit dem Rest machen.

Gouvernator
2024-10-14, 10:02:03
Online-Bildgeneratoren tun ihr übriges dazu das lokale LLMs populärer werden. Weil eben dort gleich die Zensur einsetzt, wenn einer ganz einfache "boobs" sehen möchte. Es geht halt nur darum, festzustellen das aufgrund des "speziellen" Contents die lokale LLM Nutzung öffentlich stark unterschätzt ist. GPUs sind heute quasi Porno-Miner. Mit entsprechend großer Nachfrage.

PS.
Es tut für Verfügbarkeit sicher nicht gut. Wenn die Massen erfahren, das deren neue GPU eigentlich jedes noch so ketzerisches Foto in jeder "Lebenslage" erstellen kann. Von Blackwell erwarte ich persönlich mit SDXL, wenn Huang recht hat, so um die 100 Fotos pro Minute. Stellt einfach vor, 100 Fotos einer Orgie mit Würdeträgern aller Religionen - pro MINUTE.;D

Chronicle
2024-10-14, 12:26:24
PS.
Es tut für Verfügbarkeit sicher nicht gut. Wenn die Massen erfahren, das deren neue GPU eigentlich jedes noch so ketzerisches Foto in jeder "Lebenslage" erstellen kann. Von Blackwell erwarte ich persönlich mit SDXL, wenn Huang recht hat, so um die 100 Fotos pro Minute. Stellt einfach vor, 100 Fotos einer Orgie mit Würdeträgern aller Religionen - pro MINUTE.;D

Ich kann mit einer 4080 derzeit schon knapp 100 SDXL Bilder pro Minute rauswerfen. Schraub deine Ansprüche ruhig nach oben :freak:

basix
2024-10-14, 13:01:18
Ich kann mit einer 4080 derzeit schon knapp 100 SDXL Bilder pro Minute rauswerfen. Schraub deine Ansprüche ruhig nach oben :freak:

100 Fotos / Minute erreichst du aber nicht mit 4K Auflösung ;)

Online-Bildgeneratoren tun ihr übriges dazu das lokale LLMs populärer werden. Weil eben dort gleich die Zensur einsetzt, wenn einer ganz einfache "boobs" sehen möchte. Es geht halt nur darum, festzustellen das aufgrund des "speziellen" Contents die lokale LLM Nutzung öffentlich stark unterschätzt ist. GPUs sind heute quasi Porno-Miner. Mit entsprechend großer Nachfrage.

PS.
Es tut für Verfügbarkeit sicher nicht gut. Wenn die Massen erfahren, das deren neue GPU eigentlich jedes noch so ketzerisches Foto in jeder "Lebenslage" erstellen kann. Von Blackwell erwarte ich persönlich mit SDXL, wenn Huang recht hat, so um die 100 Fotos pro Minute. Stellt einfach vor, 100 Fotos einer Orgie mit Würdeträgern aller Religionen - pro MINUTE.;D

Wenn ich B00bs sehen will, gibt es etwa 1 Mio. Seiten im Internet, wo ich das tun kann ;) Denke, das genügt den meisten bereits. Die paar "speziellen Typen" die von der Nachbarin die B00bs sehen und mittels Fotos und KI entsprechende Bilder kreieren wollen, fallen da hoffentlich nicht ins Gewicht. Ich glaube nicht, dass das der Use Case für lokale Bildgeneratoren un LLMs ist.

Gouvernator
2024-10-14, 13:29:26
Ich kann mit einer 4080 derzeit schon knapp 100 SDXL Bilder pro Minute rauswerfen. Schraub deine Ansprüche ruhig nach oben :freak:
Das wird aber echtes Upgrade zu 3090...

MiamiNice
2024-10-14, 13:45:08
Online-Bildgeneratoren tun ihr übriges dazu das lokale LLMs populärer werden. Weil eben dort gleich die Zensur einsetzt, wenn einer ganz einfache "boobs" sehen möchte. Es geht halt nur darum, festzustellen das aufgrund des "speziellen" Contents die lokale LLM Nutzung öffentlich stark unterschätzt ist. GPUs sind heute quasi Porno-Miner. Mit entsprechend großer Nachfrage.

PS.
Es tut für Verfügbarkeit sicher nicht gut. Wenn die Massen erfahren, das deren neue GPU eigentlich jedes noch so ketzerisches Foto in jeder "Lebenslage" erstellen kann. Von Blackwell erwarte ich persönlich mit SDXL, wenn Huang recht hat, so um die 100 Fotos pro Minute. Stellt einfach vor, 100 Fotos einer Orgie mit Würdeträgern aller Religionen - pro MINUTE.;D

Gott!, bin ich langweilig. Ich hätte schon eher darauf kommen können, wozu diese Beschleuniger eigentlich genutzt werden. Danke :uban:

Edgecrusher86
2024-10-16, 11:11:36
Laut neusten Gerüchten soll die komplette Desktop-Blackwell RTX 50 Series in Q1/2025 kommen, sprich...

RTX 5090(D) + RTX 5080 im Januar
RTX 5070 Ti und RTX 5070 im Februar
RTX 5060 Ti und RTX 5060 im März

https://videocardz.com/newz/rumors-suggest-nvidia-could-launch-rtx-5070-in-february-rtx-5060-series-already-in-march

Dass es soweit noch keine Pläne für SUPER Refreshes gibt, wundert nicht - das wird man dann vermutlich intern Q4/2025 ausknobeln und entsprechende Modelle in Q1/Q2 2026 bringen.
Ich gehe zum Beispiel von der RTX 5080 SUPER mit 24GB aus dank 24Gb GDDR7. Da die Lücke so gewaltig ist, könnte man auch noch einen GB202 Cut mit 112-128SMs als RTX 5080 Ti nachliefern - mit 24GB bis 28GB.

blaidd
2024-10-16, 16:01:17
Ich habe gerade zufällig bemerkt wie hoch die Downloads für Stable Diffusion bei Hugging Face sind. Das ist quasi ein lokaler AI Bildgenerator. Über 2Mio. im Monat. So viel zur potenzieller AI Kundschaft für lokale LLMs.

Nvidia hat jüngst eine Video-Konferenz zum Thema mit uns (und sicher auch anderen Hardware-Redaktionen/-Testern) gehalten. Da ging es unter anderem um das Thema AI-Benchmarks in u. a. Stable Diffusion. Die haben wahrscheinlich auch einige größere Content Creators "animiert". Darum geht es Nvidia jedenfalls aktuell besonders.

Und eben um "lokal laufende AI", für die man dann eine "sehr potente Grafikkarte [und wohl außerdem viel Grafikspeicher] benötigt. Da braucht man ja kaum raten, welche damit gemeint ist. Kein einziges Wort zum Thema "Gaming", btw. nur AI und AI-Content-Creation. So viel zum aktuellen Themenschwerpunkt. ;)

Falls das in den letzten Tagen/Wochen gestiegen ist... ein Teil geht dann eventuell darauf zurück. Das hat sicherlich einen gewissen Push-Effekt.

BlacKi
2024-10-16, 16:50:31
RTX 5070 Ti und RTX 5070 im Februar
die 5070ti hat 16gb richtig?:smile: richtig?;(

Fragman
2024-10-16, 16:56:54
Bei 1000 Euro ja, bei 800 Euro tippe ich auf 12GB.

Zumindest wenn eine 1600 Euro Karte schon nur 16GB haben wird.
Geht nv den Weg von Lovelace weiter, sollte man vielleicht generell nur mit 12GB rechnen.

AffenJack
2024-10-16, 20:13:17
die 5070ti hat 16gb richtig?:smile: richtig?;(

Würde ich erwarten. Nvidia wird nicht jede GPU Super refreshen wollen, wenn die 3Gb GDDR7 Chips kommen und die 3gb Rambausteine werden bestimmt teuer zu Anfang. Ne 5070ti mit 12 GB wirkt nicht gut neben ner 5070 Super mit 18GB. So kann man dagegen nen schönes Super Lineup bauen:

5080 Super 24Gb
5080 16GB
5070 Ti 16Gb
5070 Super 18Gb
5070 12Gb
5060 Super 12Gb
5060 8Gb...

So in etwa würde ich mir das spätere Lineup vorstellen, aber ist dann eher CES26 Thema wegen dem Ram.

Gouvernator
2024-10-17, 04:55:37
Nvidia hat jüngst eine Video-Konferenz zum Thema mit uns (und sicher auch anderen Hardware-Redaktionen/-Testern) gehalten. Da ging es unter anderem um das Thema AI-Benchmarks in u. a. Stable Diffusion. Die haben wahrscheinlich auch einige größere Content Creators "animiert". Darum geht es Nvidia jedenfalls aktuell besonders.

Und eben um "lokal laufende AI", für die man dann eine "sehr potente Grafikkarte [und wohl außerdem viel Grafikspeicher] benötigt. Da braucht man ja kaum raten, welche damit gemeint ist. Kein einziges Wort zum Thema "Gaming", btw. nur AI und AI-Content-Creation. So viel zum aktuellen Themenschwerpunkt. ;)

Falls das in den letzten Tagen/Wochen gestiegen ist... ein Teil geht dann eventuell darauf zurück. Das hat sicherlich einen gewissen Push-Effekt.
Ja danke für diese Rückmeldung. Es ist allerdings auch tatsächlich so, das Stable Diffusion mehr Spaß macht als Gaming selbst.

Es ist vergleichbar mit Screenshot Erstellung. Nur das die Screenshots absolut real aussehen, und es liegt an deiner eigenen Kreativität die noch besser zu machen. So, und eine fette KI-GPU hilft diesem ungemein, weil die dann extrem viele Bilder pro Minute pumpen kann. Ich habe gerade Tests mit 3080 Mobile und Desktop 3090 gemacht, und sogar da hat die schnellere GPU merkbar mehr Spaß an der Sache gemacht.

Anschließend paar neuste Games in 8K angezockt, und die sahen alle aus wie Retro aus den 90er. Ich wette Stable Diffusion und ähnliches KI Zeug, macht das Gaming bald weitgehend unattraktiv. Zumindest bis es realtime KI_Remaster gibt.

horn 12
2024-10-17, 06:55:24
https://videocardz.com/newz/samsung-introduces-24gb-3gb-gddr7-memory-with-speeds-over-40-gbps

Samsung Annunced Produktion Next Year 3gb gddr7

Edgecrusher86
2024-10-17, 08:06:28
Samsung’s 24 Gb GDDR7 Memory Can Pave The Way For Higher-Capacity Consumer GPUs, Up To 42.5 Gbps Speeds

Kranker Scheiss!

Das wäre auf einer RTX 5090
48GB @ 2720 GB/s!!!

Ich denke, genug Bandbreite, selbst für eine RTX 7090. Müsste aber sicher richtig gut gekühlt werden. 😁

Eine RTX 5080 24GB käme damit auf immerhin noch 1360 GB/s. Also vermutlich noch genug für die hypothetische RTX 6080.

AffenJack
2024-10-17, 09:04:54
Ja, nur leider zu spät für die jetzige Generation vor dem Super Refresh. Validierung hat begonnen, Produktion irgendwann nächstes Jahr. Also Ende 2025 dann mal verfügbar.

Leonidas
2024-10-17, 11:25:59
Auf die Speichertaktung gebe ich nichts, denn ob die dann real zu sinnvollen Preisen aufgelegt wird, wissen wir nicht. Aber wenn man wenigstens "normal" getaktete 3-GByte-Speicherchips hinbekommt, dann wäre viel gewonnen. Dann könnten die Grafikchip-Entwickler endlich überall sinnvolle Speichermengen ansetzen, ohne gleich zur Verdopplung schreiten zu müssen.

GeForce RTX 5080 Super -> 24 GB
GeForce RTX 5070 Super -> 18 GB
GeForce RTX 5060 Super -> 12 GB
https://www.3dcenter.org/news/news-des-16-oktober-2024

Hatstick
2024-10-17, 12:31:20
Mich wundern die 12GB der RTX 5070 schon etwas, das ist sehr selbstbewusst gegenüber der kommenden RDNA4 Karte... oder nVidia auch völlig Wumpe, weil nur Kleingeld. :biggrin:

Ich sehe da 12GB nur als "noch gerade so ok" an, wenn die Rasterleistung wirklich an die RTX4080 ran kommt aber wohl das wird auch nicht passieren.
Dann wohl leider wirklich bis zum Refresh warten aber in der Gen Halbzeit zu kaufen, da habe ich eigentlich nie ein gutes Gefühl.

Echt schade mit der RTX 5070, am Ende mal ein paar Tests abwarten.
Vor allem auch, was man dann eventl. bei dem Refresh erwarten darf.

Lurtz
2024-10-17, 12:47:09
Mit der 3070 hat es auch geklappt, wieso sollte es hier anders sein.

Edgecrusher86
2024-10-17, 14:07:14
Release dann bis Q2/2026 als SUPER oder sowas, korrekt. Wir dürften maximal 34-36 Gbps bei einer 5080 SUPER (24GB) sehen. Mehr bestimmt nicht vor Rubin oder was dann zur 60 Series genutzt werden wird.

Hatstick
2024-10-17, 14:17:06
Mit der 3070 hat es auch geklappt, wieso sollte es hier anders sein.

Aus Unternehmersicht auf jeden Fall, aus Gamersicht blöd.

gnomi
2024-10-17, 16:01:04
Schön ist das nicht.
12 GB dürften noch reichen bis zur nächsten Konsolen Generation.
Auf PC wäre ein Puffer allerdings ganz gut.
Last of Us mit 10GB Karten in 4K geht mittlerweile.
Aber Out of the Box gibt es zu wenig Optimierung.
Lieber 16GB und aufwärts.

The_Invisible
2024-10-17, 16:11:50
Mich wundern die 12GB der RTX 5070 schon etwas, das ist sehr selbstbewusst gegenüber der kommenden RDNA4 Karte... oder nVidia auch völlig Wumpe, weil nur Kleingeld. :biggrin:

Ich sehe da 12GB nur als "noch gerade so ok" an, wenn die Rasterleistung wirklich an die RTX4080 ran kommt aber wohl das wird auch nicht passieren.
Dann wohl leider wirklich bis zum Refresh warten aber in der Gen Halbzeit zu kaufen, da habe ich eigentlich nie ein gutes Gefühl.

Echt schade mit der RTX 5070, am Ende mal ein paar Tests abwarten.
Vor allem auch, was man dann eventl. bei dem Refresh erwarten darf.

12GB reichen mit der UE5 selbst in 4k noch. Und irgendwie setzen derzeit gefühlt die Hälfte aller neuen Games auf UE5

BlacKi
2024-10-17, 16:34:48
12GB reichen mit der UE5 selbst in 4k noch. Und irgendwie setzen derzeit gefühlt die Hälfte aller neuen Games auf UE5das hat mit der engine aber nichts zu tun. es ist die frage, ob die entwickler sich auf 12gb fokusieren, oder auf 16gb. die spieleentwickler könnten auch spiele entwickeln, die minimum 24gb bräuchten. man killt damit aber die verkäufe.

Schnitzl
2024-10-17, 17:10:36
640kB reichen auch oder?

Ist doch immer so dass die Anforderungen mit der Zeit steigen. Ich bin selbst bei 1440p froh dass die 3070 endlich draussen ist, 16GB sind einfach besser.
Damals hiess es auch die 8GB der 3070 reichen locker... ich mach das jedenfalls nie wieder ne Karte mit zuwenig RAM zu kaufen.

Gouvernator
2024-10-17, 17:12:43
xAI von Musk soll angeblich schon 100.000 Blackwell GPUs installiert haben. Heißt NV muss definitiv einiges an Abfall für Gamer bereit halten. Vielleicht gibt es sogar gute Verfügbarkeit...

OgrEGT
2024-10-17, 18:12:43
Die AI Blackwell GPUs haben doch mit den Spiele Blackwells gar nichts zu tun?

Sunrise
2024-10-17, 20:33:20
xAI von Musk soll angeblich schon 100.000 Blackwell GPUs installiert haben. Heißt NV muss definitiv einiges an Abfall für Gamer bereit halten. Vielleicht gibt es sogar gute Verfügbarkeit...
Nope, das sind noch H100er, es soll aber eine Erweiterung mit 50k Blackwell geben. Blackwell shipped in dieser Menge noch garnicht.

Und wie OgrEGT schon schrieb, sind das auch komplett andere GPUs.

basix
2024-10-17, 21:52:42
https://videocardz.com/newz/samsung-introduces-24gb-3gb-gddr7-memory-with-speeds-over-40-gbps

Samsung Annunced Produktion Next Year 3gb gddr7

Da Nvidia knausrig mit VRAM umgeht:
Wenn IMC & PHY von Blackwell die 40-42Gbps packen (was ich nicht erwarte), könnte ich mir ein paar Stunts vorstellen ;D
- Wer will eine 192bit 5080 Super mit 18GByte? (GB203)
- Wer will eine 160bit 5070 Super mit 15GByte? (GB205)
- Wer will eine 128bit 5060 Ti Super mit 12GByte? (GB206)
- Wer will eine 96bit 5060 Super mit 9GByte? (GB207)

aufkrawall
2024-10-17, 22:19:06
das hat mit der engine aber nichts zu tun.
Doch, hat es. Spiele mit UE brauchen fast immer weniger als Spiele mit vergleichbarer Grafik mit anderer Engine.
Andere lernen aber auch dazu. Forbidden West etwa kam zum Start mit weniger VRAM besser zurecht als Zero Dawn. Trotzdem ist man mit 12GB natürlich weit von sorglos in der Breite der Titel entfernt, da Müll wie Diablo 4 oder Ratchet & Clank halt auch zur Realität zählt.

rentex
2024-10-18, 12:57:19
https://videocardz.com/newz/power-supply-maker-dismisses-rtx-5090-dual-16pin-rumors-teases-more-info-in-january

Weltraumeule
2024-10-18, 13:36:55
https://videocardz.com/newz/power-supply-maker-dismisses-rtx-5090-dual-16pin-rumors-teases-more-info-in-january
Welche Lüfter (https://cdn.videocardz.com/1/2024/10/SEGOTEP-COLORFUl-768x536.jpg) sind das?

OgrEGT
2024-10-20, 13:36:28
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
Anscheinend nur ein Power Cable bei der 5090...

rentex
2024-10-20, 13:51:15
https://videocardz.com/newz/geforce-rtx-5090-graphics-card-featured-in-a-factory-trial-video
Anscheinend nur ein Power Cable bei der 5090...

Oh!