PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Blackwell (Nachfolger von Hopper & Ada, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16 17 18 19 20 21 22 23 24

MiamiNice
2024-12-17, 11:24:39
Das wäre einfach krass!

400-500€ für einen WaKü? Wow. Bin bereit 250€ auszugeben, aber direkt 400€? Krass.

Ja, der dicke Block mit aktiver Backplate von AC kostete schon zur 3090 250€, ich denke wird eher nicht günstiger. Dazu Lack und Flüssigmetall, 500€ ist schlicht aufgerundet.

Ich sollte wohl doch versuchen zu scalpen. Gibt ja wohl genug leute, die jeden beliebigen preis zahlen würden. Sehr geil. Den gewinn dann gleich wieder in nvidia aktien investieren. :D

Falsche Reihenfolge. Du kaufst weit vorher NV Aktien und verkaufst einen Teil zum 5090 Release. So bezahlen die anderen Verrückten Deine Karte :eek:

Relex
2024-12-17, 11:37:10
Falsche Reihenfolge. Du kaufst weit vorher NV Aktien und verkaufst einen Teil zum 5090 Release. So bezahlen die anderen Verrückten Deine Karte :eek:


Das mit den Aktien passiert ja sowieso, keine sorge :wink:. Es widerstrebt mir trotzdem eine 5090 zu kaufen. Alleine schon wegen der Abwärme. Aber gut, wem erzähl ich das hier. :freak:
Ich finde es eben abgesehen davon extrem schädlich für den PC Spielemarkt, wenn in der Mittelklasse schlechte Performance, VRAM limits und zu hohe Preise das portfolio dominieren. Das sorgt langfristig nur für massig schlechte Steam Bewertungen, ständiges geheule über UE5 Spiele usw und schadet eben Spieleentwicklern und der PC Plattform. Sowas will ich nicht blind supporten, selbst wenn es mir in form des Aktienkurses wohl mehr bringen würde, wenn ich das täte.

Aber ich denke, das ist eine Grundsatzdiskussion und geht hier auch zu weit.

MiamiNice
2024-12-17, 11:49:13
Ich persönlich finde ja, das es dem PC SPielemarkt mehr schadet Spiele auf Grafik zu reduzieren und 0 Gefühl für Gameplay zu haben, als Karten die um 3000€ kosten. Die 2-3000€ Karten sind nur ein Resultat aus Gamern wie z.b. Dir. Wenn die Masse anspruchsvoller wäre, wäre das mit den GPU Preisen gar kein Problem. Also wenn der Fokus auf Gameplay liegen würde, statt nutzlosen Features wie RT , PT und Co ;)
Du hast Dir Dein Grab selber geschaufelt mein Bester. Jetzt frisst Du entweder oder suchst Dir anderes Hobby :tongue:

Troyan
2024-12-17, 11:55:11
Stimmt, wieso bessere Grafik. Können ja zurück zur PS2 gehen. Muss ja besser gewesen sein, weil die ist die erfolgreichste Konsole.

Keine Grafik, keine Immersion.

Kriegsgeier
2024-12-17, 12:13:33
Werden die 32GB Bestückung bei der RTX 5090 einseitig sein oder wieder auf beiden Seiten der PCB?

Troyan
2024-12-17, 12:26:35
Einseitig. 512bit hat 16 Module.

Kriegsgeier
2024-12-17, 12:33:11
Ok, alles klar: somit werden die WaKühler günstiger. Die Backplate braucht keinen aktivgekühlten Wasserkreislauf.

OgrEGT
2024-12-17, 12:38:54
Die Chipdaten passen aber nicht (192 SM vs. 84 SM). Wenn die Gerüchte korrekt sind, ist GB202 immer noch monolithisch.
Darauf wurde schon mehrfach hingewiesen.
@Kriegsgeier
Worauf stützt sich Deine immer wiederkehrende Annahme dass GB202 dennoch aus 2 GB203 Chips/lets bestehen soll?

Kriegsgeier
2024-12-17, 12:44:59
auf die Präsentation von Jensen Huang

aceCrasher
2024-12-17, 14:11:22
https://videocardz.com/newz/inno3d-teases-neural-rendering-and-advanced-dlss-for-geforce-rtx-50-gpus-at-ces-2025

Inno3D teases “Neural Rendering” and “Advanced DLSS” for GeForce RTX 50 GPUs at CES 2025.

Troyan
2024-12-17, 14:13:59
Im Grunde alles eine Evolution. Aber man sieht ja auch, dass Software viel mehr Bedeutung hat. Bessere Software, bessere Bildqualität und mehr Frames.

nordic_pegasus
2024-12-17, 14:18:14
auf die Präsentation von Jensen Huang

meinst Du GB200, welcher aus 2xB200 besteht? Etwas anderes hat Nvidia bislang nicht offiziell präsentiert aus der Blackwell-Generation.

Es gab danach Gerüchte, dass ein GB202 aus 2xGB203 zusammengesetzt werden könnte. Was auch zu den ungefähren Specs mit 512bit SI zu 256bit SI und 192 SM passen würde. Damals wurden noch 96SM für GB203 spekuliert.

Wenn aber GB203 wirklich nur 84SM hat und die 5080 den Vollausbau bekommt, warum gibt es dann keine 5090Ti/Titan mit 2xGB203 Vollausbau? Müsste dann ja vom Yield locker drin sein. Oder sogar tendentiell eher die vollen Chips auf die großen GPUs und nur Resteverwertung bei der 5080.

Es gab ja Gerüchte, dass AD103 eigentlich physisch 84SM hat, aber wegen einem Bug nur maximal 80SM aktivierbar sind. Egal ob 80 oder 84SM, dass bei GB203 wohl nahezu auf der Stelle stehen bleibt beim SM, SI und VRAM ist wirklich erschreckend.

The_Invisible
2024-12-17, 14:18:53
5090 auf luft wäre sehr unvernünftig

Meine aktuelle 4090 schnurrt wie ein Kätzchen und höre die nicht, die 50W mehr packt man da auch noch locker.

Relex
2024-12-17, 14:25:21
Nicht hören wären bei mir ~500 rpm. Ich bezweifle, dass du deine 4090 mit so wenig Drehzahl gekühlt bekommst :D

Alles bis 1300 rpm finde ich ok. Darüber wär mir zu viel.

Der_Korken
2024-12-17, 14:39:12
Es gab ja Gerüchte, dass AD103 eigentlich physisch 84SM hat, aber wegen einem Bug nur maximal 80SM aktivierbar sind. Egal ob 80 oder 84SM, dass bei GB203 wohl nahezu auf der Stelle stehen bleibt beim SM, SI und VRAM ist wirklich erschreckend.

Die 5070 wird gegenüber der 4070 Super sogar ein paar SMs verlieren (56 -> 50). Da die 5060Ti angeblich auf GB206 basieren soll und diese ausreichend weit von GB205 entfernt sein dürfte, wird es bei den kleinen Karten auch eher Rück- als Fortschritte geben. Wir sehen jetzt quasi die Intel-Jahre von 2012 bis 2017, nur eben bei GPUs und ohne dass das ganze mit einem P/L-Kracher wie Sandy Bridge eingeleitet wurde, den man sich einmal am Anfang kauft und dann 5 Jahre ohne Abstriche nutzen kann.

monstar-x
2024-12-17, 14:49:56
https://videocardz.com/newz/inno3d-teases-neural-rendering-and-advanced-dlss-for-geforce-rtx-50-gpus-at-ces-2025

Inno3D teases “Neural Rendering” and “Advanced DLSS” for GeForce RTX 50 GPUs at CES 2025.


AI..AI...Ej Ei ..

Da wird alle 30 Sekunden mindestens einmal das Wort AI fallen *Kotz*

nordic_pegasus
2024-12-17, 14:58:08
Einseitig. 512bit hat 16 Module.

zum Verständnis. wie soll das auf einer Seite passen? 5+5+5+1 wie damals bei der R9 290x?

Wie hoch wird der Anteil des SI und der VRAM-Module an der kolpotierten TDP von 500-600Watt?

Hätte nicht langsam HBM Speicher erhebliche Vorteile beim Stromverbrauch und Platzierung der Speichermodule?

Cubitus
2024-12-17, 14:58:45
Ich kann mir gut vorstellen, dass in Zukunft dynamisches Undervolting direkt über den Treiber möglich sein wird.
Ich habe Spiel X, das mit einer bestimmten Auflösung laufen soll und dabei ein Minimum an Energie verbrauchen sollte.
Also wird das Power Target oder die Vcore so weit gesenkt, dass gerade noch der notwendige Takt dafür aufrechterhalten werden kann.
Dies wäre der nächste Schritt in der Optimierung der App, mithilfe von KI. Zusätzlich, zu den optionalen INGAME Settings eben..

Blackwell bereitet sich auch auf Nvidias Ace vor und auf die Möglichkeit, kleinere KI-Modelle direkt auf der GPU in Echtzeit auszuführen, die sich an den Benutzer und seiner Spielweise anpassen und während des Spiels sogar weiterentwickeln.
Zudem könnte verbessertes DLSS möglicherweise live trainiert werden, sodass die Ergebnisse aller Nutzer in der App kumuliert werden könnten. Dies könnte langfristig zu besseren Ergebnissen und schnelleren Treibern als anfänglich mit dem GameReady Treiber führen.
Außerdem könnten Grafiken vollständig von KI erzeugt werden, ähnlich wie beim KI Doom. Dies würde es Entwicklern erheblich erleichtern, mehr Inhalt zu produzieren. Eingefügte Bilder könnten so auch schneller dargestellt werden, eine Art FG2..

Jedenfalls bin ich schon hart gehypt..

Troyan
2024-12-17, 15:10:17
zum Verständnis. wie soll das auf einer Seite passen? 5+5+5+1 wie damals bei der R9 290x?

Wie hoch wird der Anteil des SI und der VRAM-Module an der kolpotierten TDP von 500-600Watt?

Hätte nicht langsam HBM Speicher erhebliche Vorteile beim Stromverbrauch und Platzierung der Speichermodule?

Hast recht, wahrscheinlich beidseitig. Außer die optimieren massiv das Design.

Mit HBM dachte ich auch schon. HBM3e liefert doch das ganze mit 2 Stacks oder so. Kann ich mir nicht viel teurer vorstellen wie 512bit und 16 Module... Auch der Stromverbrauch wird massiv beeinträchtigt. 1,7TB/s Bandbreite ist absurd viel für eine Consumerkarte. Das sind gerade mal 0,3GB/s weniger als die A100 im SMX Format bei 800W hatte...

basix
2024-12-17, 15:29:12
Nicht hören wären bei mir ~500 rpm. Ich bezweifle, dass du deine 4090 mit so wenig Drehzahl gekühlt bekommst :D

Alles bis 1300 rpm finde ich ok. Darüber wär mir zu viel.

Schafft man mit einer auf 300W PL-limitierten 4090 locker. Leistungsverlust zur Referenz fast Null. Ich habe mehr Probleme, da dann auch 300W im System sind und den Rest aufheizen. Gehäuse-Grösse und auf Silent getrimmte Gehäuselüfter sind da nicht optimal. Ich warte aber noch mit dem Gehäuse-Upgrade bis ich das System komplett modernisiere (CPU, Mainboard, ...)

MiamiNice
2024-12-17, 15:33:38
Irgendwie fehlt mir das Feature, dass die KI die Spiele auch selbst spielen kann. Hatte fest mit dem Feature zu dieser Gen gerechnet, nachem die Ankündigung dazu nun doch schon ein wenig her ist.

monstar-x
2024-12-17, 15:37:23
Irgendwie fehlt mir das Feature, dass die KI die Spiele auch selbst spielen kann. Hatte fest mit dem Feature zu dieser Gen gerechnet, nachem die Ankündigung dazu nun doch schon ein wenig her ist.

Hast du doch, nennt sich Twitch :biggrin:

Aber im Ernst Gemini 2 kann das;
https://www.youtube.com/watch?v=BKZI4_mM9Us

MiamiNice
2024-12-17, 15:48:43
Ich meinte schon das "G-Assist" von NV. Wurde 2017 vorgestellt, dieses Jahr im Jan gab es neue News dazu. Könnte mir vielleicht die nötigen 10 Tastendrücke pro Minute in aktuellen Games damit sparen. Nicht das mein Gameplay weiterhin von nötigen Eingaben meinerseits unterbrochen wird ;)

Lurtz
2024-12-17, 15:57:16
Schreit wieder alles nach der "Super Zwischengeneration" die dann deutlich ausgewogener, und wahrscheinlich viel besseres Preisleistung haben wird. UND MEHR RAM.
Bin echt am überlegen den 50er Kauf 1 Jahr zurück zu stecken und dann auf die Super zu warten. Dann kriegt man wahrscheinlich auch in der 70ti/80 Klasse vernümpftig Ram fürs Geld.

Die einzige Super mit vernünftigem Upgrade war doch die 4070 Ti Super mit ihren 16 GB VRAM.

Relex
2024-12-17, 16:44:53
Schafft man mit einer auf 300W PL-limitierten 4090 locker. Leistungsverlust zur Referenz fast Null. Ich habe mehr Probleme, da dann auch 300W im System sind und den Rest aufheizen. Gehäuse-Grösse und auf Silent getrimmte Gehäuselüfter sind da nicht optimal. Ich warte aber noch mit dem Gehäuse-Upgrade bis ich das System komplett modernisiere (CPU, Mainboard, ...)


500 RPM sicher nicht. 1300 RPM natürlich schon. Oder meintest du 500 rpm?


Das Problem beim Powerlimit ist, dass der Takt anfängt zu schwanken, wenn man zu niedrig limitiert, was tatsächlich auch für schwankende Frameraten und Frametimes sorgt.

Interessanterweise zeigt das selbst CapFrameX in KEINER der verfügbaren Statistiken an. Man sieht es nur, wenn man sich mit eigenen Augen den Frameverlauf ansieht, dass er mit zu niedrigem Powerlimit anfängt, wellig zu werden und auch ingame microruckler sichtbar werden..
Das ist aber verdammt subtil. Cap Frame X lässt einem aber anhand der metriken stets glauben, dass volles powerlimit (relativ gesehen) genauso sauber performt, wie das niedrigste Powerlimit. Ist aber nicht der Fall.

Einfach ne 600W Karte kaufen und auf 300 oder 200W limitieren ist also keine gute Idee. Wenn dann muss man schon den Takt hart limitieren, womit man aber natürlich am meisten performance verschenkt.

80% Powerlimit geht noch voll in Ordnung. Da wirst du nichts sehen, aber spätestens ab 60% fangen die Probleme an. Man kann natürlich undervolten, um das wieder etwas abzumildern, aber das hängt dann eben wieder maßgeblich von der Chipgüte ab.


Aber geht jetzt schon wieder zu weit off topic. Sorry :tongue:

Aber das ist für mich einer der Hauptgründe, warum ich persönlich keine GPU mit so viel Leistungsaufnahme haben will. Das Eindrosseln ist, wenn man es wirklich richtig machen will, nicht so trivial.
Undervolting kommt für mich z.B. gar nicht in Frage, weil ich ein 100% stabiles system haben will und nicht nach 10 monaten bei einer 5 Stunden Gaming session und einem Spielabsturz darüber anfange zu rätseln, ob es jetzt am Undervolting lag oder nicht.

Disconnected
2024-12-17, 18:09:06
...
Bessere Software, bessere Bildqualität und mehr Frames.

Das sollte vor allem für die Spieleentwickler gelten!

AffenJack
2024-12-17, 18:36:16
Hätte nicht langsam HBM Speicher erhebliche Vorteile beim Stromverbrauch und Platzierung der Speichermodule?

Stromverbrauch ja, aber willst du statt 1999$ 2999$ mit HBM zahlen, was dir ingesamt vielleicht 10% bringt? HBM ist als Consumerspeicher tot. Schon bei GDDR hat man Probleme die Preise pro GB zu senken. HBM ist dagegen pro GB mit jeder Generation nur am steigen.

basix
2024-12-17, 18:43:53
500 RPM sicher nicht. 1300 RPM natürlich schon. Oder meintest du 500 rpm?


Das Problem beim Powerlimit ist, dass der Takt anfängt zu schwanken, wenn man zu niedrig limitiert, was tatsächlich auch für schwankende Frameraten und Frametimes sorgt.

Interessanterweise zeigt das selbst CapFrameX in KEINER der verfügbaren Statistiken an. Man sieht es nur, wenn man sich mit eigenen Augen den Frameverlauf ansieht, dass er mit zu niedrigem Powerlimit anfängt, wellig zu werden und auch ingame microruckler sichtbar werden..
Das ist aber verdammt subtil. Cap Frame X lässt einem aber anhand der metriken stets glauben, dass volles powerlimit (relativ gesehen) genauso sauber performt, wie das niedrigste Powerlimit. Ist aber nicht der Fall.

Einfach ne 600W Karte kaufen und auf 300 oder 200W limitieren ist also keine gute Idee. Wenn dann muss man schon den Takt hart limitieren, womit man aber natürlich am meisten performance verschenkt.

80% Powerlimit geht noch voll in Ordnung. Da wirst du nichts sehen, aber spätestens ab 60% fangen die Probleme an. Man kann natürlich undervolten, um das wieder etwas abzumildern, aber das hängt dann eben wieder maßgeblich von der Chipgüte ab.



500rpm nicht, nein. Meine läuft auf 1200rpm fixiert. Könnte weniger sein, vermutlich etwas unterhalb 1000rpm, wenn das Gehäuse besser entlüftet wäre. Meines ist das nicht unbedingt und die Karte wird trotzdem nur selten wärmer als 70°C.

Das mit dem zu tiefen Power Limit stimmt, aber dann muss es arg zu tief sein, die Karte läuft dann bereits auf der minimalen Spannung und hat entsprechend keinen Spielraum mehr nach unten. Hatte von Kepler bis Turing nie Probleme damit, wenn man weiss was man macht. 60% war in der Tat bei allen Karten in etwa die Grenze, wo man nicht mehr weiter runter sollte.

Das schöne bei Ada:
Power Limit ist egal, wenn man die Karte am Effizienzoptimum betreibt. Meine Karte läuft unter Last mit fixed 2.55GHz @ 0.89V. Performance Verlust im aller schlimmsten Fall ~5% (da Memory-OC). Power Limit ist auf 300W gestellt wird aber eigentlich fast nie gerissen. Die Karte regelt selber ihren Power Draw (Niedriglast, im FPS-Limit) und ist deswegen meistens bei 230...270W unterwegs. Das Power Limit ist nur noch das festnageln einer absoluten Obergrenze.

Das Problem bei Ada (oder 4090):
Tiefer als die oben genannten Wattagen kriegt man die Karte dann halt nicht, ohne massiv Performance zu verlieren. Vorher waren die Highen-Karten bei 250...270W unterwegs und ich drosselte die auf 160...180W.


Aber das ist für mich einer der Hauptgründe, warum ich persönlich keine GPU mit so viel Leistungsaufnahme haben will. Das Eindrosseln ist, wenn man es wirklich richtig machen will, nicht so trivial.
Undervolting kommt für mich z.B. gar nicht in Frage, weil ich ein 100% stabiles system haben will und nicht nach 10 monaten bei einer 5 Stunden Gaming session und einem Spielabsturz darüber anfange zu rätseln, ob es jetzt am Undervolting lag oder nicht.

Undervolting + OC ist innerhalb 30min gemacht und getestet, solange man ein paar Megahertz Reserve lässt. Und das ist dann auch zu 100% stabil. Wenn man die Karte nicht völlig überreizt gibt es typischerweise einen Driver-Reset und nicht einen Totalabsturz. Das kann man relativ schnell von sonstigen PC-Instabilitäten (z.B. DRAM) trennen.

nordic_pegasus
2024-12-17, 18:51:46
Stromverbrauch ja, aber willst du statt 1999$ 2999$ mit HBM zahlen, was dir ingesamt vielleicht 10% bringt?

mir gehts nicht um den Preis von HBM alleine, sondern den mutmaßlichen sehr großen Anteil des SI am Gesamtverbrauch. GDDR7 kostet sicherlich auch ein paar Cents. Dazu müssen für ein 512bit SI 16 Module irgendwie verteilt werden. Wenn wirklich beidseitig 8 Module verbaut werden, steigen die Kosten für zusätzlichen PCB-Layer. Dazu die aufwändige Kühlung angefangen bei den normalen Lüfterkühlern bis hin zu aktiv gekühlten Backplates bei den Wakü-Blöcken.

Oder der aufgetauchte Prototyp für die 4090Ti kommt zumindest bei der FE Karte wirklich als 5090 mit senkrechtem geteilten PCBs. Hier würden dann die AiBs sicherlich auch ihre Probleme haben und teure Lösungen finden.

Darum frage ich mich, ob insgesamt irgendwann der Punkt gekommen ist, wo der Aufpreis von HBM vielleicht gar nicht mehr so hoch ist, wenn man dafür aber ordentlich Verbrauch einspart und das PCB/Kühlung erheblich vereinfachen kann.

Gibt es abseits von HBM irgendeine andere Möglichkeit mit aktuellen Fertigungstechniken (Interposer, Favoros, etc.) GDDR7 anzubinden? TSV soll doch in mehreren Lagen möglich sein. Kann man keine 4 Lagen 8GB GDDR7 unter einen GB202 packen?

The_Invisible
2024-12-17, 19:04:43
HbM machen sie ja nicht Mal im Profibereich wo die Karten für 9k übern Tisch wandern. Technisch geil wärs schon aber seien wir Mal froh das wir noch den big-chip Abfall bekommen :D

Relex
2024-12-17, 19:05:04
Undervolting + OC ist innerhalb 30min gemacht und getestet, solange man ein paar Megahertz Reserve lässt. Und das ist dann auch zu 100% stabil. Wenn man die Karte nicht völlig überreizt gibt es typischerweise einen Driver-Reset und nicht einen Totalabsturz. Das kann man relativ schnell von sonstigen PC-Instabilitäten (z.B. DRAM) trennen.

Ne, eben nicht.

Als ich es bei meiner damals versucht hatte, dachte ich auch, dass es stabil ist. Einmal soweit runter gehen, dass es innerhalb 5 Minuten abstürzt, dann mit moderatem Puffer nach oben gehen. Hab dann 5 Spiele incl Cyberpunk ne Stunde getestet, keine Abstürze.

Dann am nächsten Tag nach 4 Stunden ein Absturz, also wieder an den Settings gedreht, am nächsten Tag wieder.

Wäre ich dann noch höher gegangen, wäre das UV fast schon sinnfrei gewesen.

Also fuck it. Dafault settings. Seitdem keine Abstürze mehr. Um das wirklich halbwegs zuverlässig auszutesten hätte ich mich mindestens ne Woche damit auseinander setzen müssen. Und bei mir bedeutet Rockstable halt auch 100% rockstable und nicht nur so halb.

Bei meiner 3060ti, die ich davor übergangsweise hatte, ging das UV besser.
Ist halt Chiplotterie und gibt bestimmt einige hier, die deswegen die Karte auch 10x zurückschicken würden, wenns sein muss...


Selbes Spiel mit RAM OC. Kollege hat sich Wochen und Monate damit beschäftigt, alles rockstable. Dann haben wir irgendwann zusammen ein neues Coop Game gespielt und mittendrin war er weg... Ja sein PC hat sich aufgehangen. Timings zurückgefahren und schon lief es danach ohne Abstürze. Das alles, obwohl er alles excessiv mit mehreren Tools tagelang über Nacht getestet hatte, er konnte es selbst nicht glauben.

Für mich ist OC/UV die größte Lebenszeitverschwendung, die ich mir vorstellen kann. Ist auf der Liste der Dinge, die ich in meiner Freizeit tun will an allerletzter Stelle. :tongue:

basix
2024-12-17, 19:10:06
Naja, bei mir hat es jeweils geklappt. Wo man eher defensiv rangehen sollte ist DRAM und VRAM OC. Das ist typischerweise für sporadische Abstürze verantwortlich. Hat man dort einiges an Buffer ist es normalerweise OK.

mir gehts nicht um den Preis von HBM alleine, sondern den mutmaßlichen sehr großen Anteil des SI am Gesamtverbrauch. GDDR7 kostet sicherlich auch ein paar Cents. Dazu müssen für ein 512bit SI 16 Module irgendwie verteilt werden. Wenn wirklich beidseitig 8 Module verbaut werden, steigen die Kosten für zusätzlichen PCB-Layer. Dazu die aufwändige Kühlung angefangen bei den normalen Lüfterkühlern bis hin zu aktiv gekühlten Backplates bei den Wakü-Blöcken.

Oder der aufgetauchte Prototyp für die 4090Ti kommt zumindest bei der FE Karte wirklich als 5090 mit senkrechtem geteilten PCBs. Hier würden dann die AiBs sicherlich auch ihre Probleme haben und teure Lösungen finden.

Darum frage ich mich, ob insgesamt irgendwann der Punkt gekommen ist, wo der Aufpreis von HBM vielleicht gar nicht mehr so hoch ist, wenn man dafür aber ordentlich Verbrauch einspart und das PCB/Kühlung erheblich vereinfachen kann.

Gibt es abseits von HBM irgendeine andere Möglichkeit mit aktuellen Fertigungstechniken (Interposer, Favoros, etc.) GDDR7 anzubinden? TSV soll doch in mehreren Lagen möglich sein. Kann man keine 4 Lagen 8GB GDDR7 unter einen GB202 packen?

Alleine der Grund, dass Nvidia auf 512bit GDDR7 setzt sollte bereits aufzeigen, das HBM einfach zu teuer ist. Ich nehme an, dass man GDDR7 noch bis 48Gbps ausreizt. Ich meine 512bit, 48Gbps und 128...256 MByte Last Level Cache sind enorm. Das sind 3 TByte/s Rohbandbreite und der Cache reicht nochmals für 2-4x Bandbreiten-Multiplikation in 4K.

Also können wir uns noch auf vermutlich 3 Generationen mit GDDR7 einstellen (Blackwell eingeschlossen). So um 2030 rum sehen wir dann, ob HBM zum einsatz kommen wird.

Cubitus
2024-12-17, 19:14:03
Also fuck it. Dafault settings. Seitdem keine Abstürze mehr. Um das wirklich halbwegs zuverlässig auszutesten hätte ich mich mindestens ne Woche damit auseinander setzen müssen. Und bei mir bedeutet Rockstable halt auch 100% rockstable und nicht nur so halb.


Ich weiß was du meinst..
985 mV bei 2730 Mhz + 1000 Mhz Ram..
Für diese Erkenntnis hats mehrere Wochen gedauert.

Meine Test Favoriten neben dem Alltag.

Port Royal Grafiktest 2, multiple Stunden
Portal 2 Hauptmenü, multiple Stunden
Quake 2 RTX, multiple Stunden..
Cyberpunk, multiple Stunden..

Was hat es gebracht, am Ende des Tages 50 Watt einzusparen, wenn man dafür 2 FPS verliert? Ob es das wert ist, weiß ich nicht. Kann jeder für sich selbst entscheiden.

Auf jeden Fall ist meine PNY ziemlich cool und leise, was einen Unterschied macht, ob man mit voller Spannung fährt oder nicht.

Sardaukar.nsn
2024-12-17, 19:40:04
Also fuck it. Dafault settings. Seitdem keine Abstürze mehr. Um das wirklich halbwegs zuverlässig auszutesten hätte ich mich mindestens ne Woche damit auseinander setzen müssen. Und bei mir bedeutet Rockstable halt auch 100% rockstable und nicht nur so halb.

Kenne ich auch, aber seit Lovelace gehe ich eh nicht mehr manuell an die Spannung. Einfach über das Powerlimit, den Rest macht die Karte von alleine.

Gute Nachricht von Inno. Wasserkühlung bzw. Frostbite schon auf der CES confimed: https://www.inno3d.com/news/inno3dces2025

Innovative Cooling Solutions

INNO3D is known for its advanced cooling designs, and CES 2025 is expected to showcase the latest innovations:


iCHILL Frostbite: A new updated liquid cooling solution integrated into select high-end models.
iCHILL X3: Delivers exceptional cooling performance and striking aesthetics, pushing the boundaries of GPU design and efficiency.
INNO3D X3: An updated version of the popular air cooling system, optimised for thermal performance and low noise levels.
INNO3D TWIN X2: Offers a compact yet powerful solution, featuring a dual-fan design that balances performance and efficiency for space-conscious builds.
INNO3D WHITE: Combine sleek aesthetics with efficient thermal management, offering a stylish and high-performance cooling solution for PC builders.
INNO3D Small Form Factor (SFF): Packs high-performance GPU power into compact designs, ideal for space-constrained builds without compromising on graphics capabilities.

BlacKi
2024-12-17, 22:28:06
AI..AI...Ej Ei ..

Da wird alle 30 Sekunden mindestens einmal das Wort AI fallen *Kotz*trinkspiel incomming? ;D

monstar-x
2024-12-17, 23:10:13
trinkspiel incomming? ;D

Deal, da bist du besoffen ehe Jensen die 5090 aus dem Ofen holt :-)

Hübie
2024-12-17, 23:29:34
;D ;D ;D ;D
Da mach ich mit. Hoffe da kommen schnell Wakü-Blöcke raus.
Ich ringe noch mit mir, ob ich mir eine 5090 hole oder nicht. Ich verdoppel gerne Leistung und Speicher, aber ob es mir das Geld wert ist..? Daddel eh nicht mehr so oft und meine 6800XT ist jetzt nicht voll Grütze, aber für 5120*1440 reicht die Leistung einfach vorn und hinten nicht aus.
Luxusprobleme... :uponder:

monstar-x
2024-12-18, 00:35:40
;D ;D ;D ;D
Da mach ich mit. Hoffe da kommen schnell Wakü-Blöcke raus.
Ich ringe noch mit mir, ob ich mir eine 5090 hole oder nicht. Ich verdoppel gerne Leistung und Speicher, aber ob es mir das Geld wert ist..? Daddel eh nicht mehr so oft und meine 6800XT ist jetzt nicht voll Grütze, aber für 5120*1440 reicht die Leistung einfach vorn und hinten nicht aus.
Luxusprobleme... :uponder:


Ging mir auch so, hab ChatGPT mit meinen Wünschen, technische Daten wie das ich überwiegend 75% Powerlimit nutze und noch ein paar anderen Dingen wie FOMO gefüttert und er sagte mir, das ich meine 4090 behalten soll und mir eine in Zukunft die 6090 kaufen sollte.

Ich kann dir gerne so fern gewünscht die Wissenschaftliche Aussagen von der Paid ChatGPT Version per PN senden.

Thomas Gräf
2024-12-18, 00:52:46
Ich glaub mir würde dieses Chat Dinges sagen...Kauf jetzt die 6090. :biggrin:

x-force
2024-12-18, 08:18:38
Schafft man mit einer auf 300W PL-limitierten 4090 locker. Leistungsverlust zur Referenz fast Null.

ich liebe diese märchen. :biggrin:

das geht höchstens, wenn du 1080p spielst, oder games aus dem letzten jahrzehnt.

Kriegsgeier
2024-12-18, 08:59:34
Kann man bei NVIDIA Seite direkt über PayPal bezahlen ohne bei NVIDIA selbst ein Account zu besitzen und in diesem angemeldet zu sein? Einer schon Erfahrung mit der Bestellung direkt über NVIDIA gehabt?

Ja, ich bereite mein Gemüt schon mal vor zur Bestellung des Jahres 2025 und das schon wahrscheinlich Anfang Januar schon :)
Ob man direkt am 7.01 nach 3:30 in der Nacht bei uns zumindest vorbestellen kann?

Fragen über Fragen

spotz
2024-12-18, 09:54:22
Bei Notebookcheck gibt es eine Meldung das derselbe Acer Predator Orion 7000 PC mit ner Geforce 5080 für 3.499 € und mit einer 5090 für 4.699 € angeboten wird. Vielleicht kann man davon doch auf die Preise der Grafikkarten Rückschlüsse ableiten, auch wenn die Listung bei zwei unterschiedlichen Händlern ist?

https://www.notebookcheck.com/Im-Handel-aufgetaucht-Zwischen-der-RTX-5090-32-GB-und-der-RTX-5080-16-GB-liegen-im-Komplett-PC-1-200-Euro.933576.0.html

Kriegsgeier
2024-12-18, 10:00:55
Ja, kann man:

RTX 5080 --> 1199€
RTX 5090 --> 2599€ (2,1x Preis für 1,6x Performance)

nordic_pegasus
2024-12-18, 10:09:42
Kann man bei NVIDIA Seite direkt über PayPal bezahlen ohne bei NVIDIA selbst ein Account zu besitzen und in diesem angemeldet zu sein? Einer schon Erfahrung mit der Bestellung direkt über NVIDIA gehabt?

Nvidia hat den Direkt-Vertrieb die letzten Jahre mehrfach geändert. Früher erfolgte die Abwicklung im Hintergrund über Digital River (Irland).

Aktuell ist wohl Proshop (Dänemark) der Partner von Nvidia. Wenn Du eine Karte bei Nvidia in den Warenkorb legst, landest Du beim Bestellverlauf im Shopsystem von Proshop. Du bestellst quasi als Gast bei Proshop.

Kriegsgeier
2024-12-18, 10:11:14
ok, danke für die Info. Also ein Account bei Proshop erstellen? Macht wahrscheinlich Sinn, ne?

AffenJack
2024-12-18, 10:36:09
Vielleicht kann man davon doch auf die Preise der Grafikkarten Rückschlüsse ableiten, auch wenn die Listung bei zwei unterschiedlichen Händlern ist?


Kann man nicht, da Nvidia so früh keine Preise kommuniziert. Alles was du jetzt siehst sind Vermutungen der Händler, die damit Geschäft machen wollen.
Nvidia ändert seine UVP manchmal noch Vortag der Präsentation. Das ist nix weiteres als Spekulation hier im Forum ohne irgendwelche Daten.

Kriegsgeier
2024-12-18, 11:04:08
Da hat der AffenJack natürlich Recht. Der Händler nutzt quasi ein Platzhalter für SEINE eigenen Preisvorstellungen.

Cubitus
2024-12-18, 11:10:35
Ja, kann man:

RTX 5080 --> 1199€
RTX 5090 --> 2599€ (2,1x Preis für 1,6x Performance)

Ich halte 2600 Euro für durchaus möglich. Meine Schätzung belief sich schon vor Monaten auf einen Preis zwischen 2500 und 3000 Euro. Es wird Partnerkarten mit einer 3 davor geben.

Warum sollte Nvidia sie auch billiger anbieten? Das wäre natürlich schön für den Kunden, aber Nvidia ist nicht gerade als Samariter bekannt.
Die 5090 ist selbst im Vergleich zur 5080 konkurrenzlos und wird dementsprechend teuer sein.

Dies könnte jedoch den Gebrauchtmarkt für die 4090 beleben, die dann für etwa 1500 Euro verkauft werden könnte.

Kriegsgeier
2024-12-18, 11:13:52
Die Frage ist auch, ob NVIDIA für ihre FE Karten wieder 1 zu 1 Kühler wie für RTX 4090 FE nutzt. Denn diese wurde ja ursprünglich für 600Watt TDP designed.

Eine gebrauchte RTX 4090 wird und MUSS unter 1000€ rutschen. Wer lässt sich eine RTX 5080 für 1200€ gegenüber der GEBRAUCHTEN RTX 4090 entgehen? Nur wegen den 8GB LANGSAMEREN Speicher? RTX 5080 wird auch bei der RT wahrscheinlich zum Teil wesentlich besser performen!

Nene, ich sehe es wie folgt: In 2 Monaten haben wir folgendes im Gebrauchtmarkt:

3090 --> 500€
4080 --> 650€
4090 --> 900€

Soooolten aber von NVIDIA solche Preise für die neuen Karten ausgerufen werden wie:

RTX 5080 --> 1099$
RTX 5090 --> 1999$

dann gute Nacht der Gebrauchtmarkt:

3090 --> 400€
4080 --> 550€
4090 --> 800€

BlacKi
2024-12-18, 12:03:27
ich gehe nicht von einer guten verfügbarkeit zum start aus. deshalb werden die gebrauchtpreise auch nicht abstinken. ich glaube eine 1199€ 5080 wird bei uns 1299€ kosten, aber dank schlechter verfügbarkeit bis mai kaum dort kaufbar sein. und da die 4090 raster leicht schneller ist und auch mehr vram bietet, wird dort der gebraucht markt landen. die gebrauchtpreise sind sowieso total gaga übertrieben hoch. eine 4090 wird auf 1300-1500€ fallen im februar, und dann runter bis mai auf 1200+- wenn der deppenaufschlag auf der 5080 verschwindet und die verfügbarkeit steigt. die 4080 wird erst später 100-200€ verliegen zwischen den jetzigen preisen und im mai-juni.

basix
2024-12-18, 12:41:51
ich liebe diese märchen. :biggrin:

das geht höchstens, wenn du 1080p spielst, oder games aus dem letzten jahrzehnt.

Du musst mir nicht glauben, das ist dir überlassen ;)

Ich habe es aber selbst getestet und ich weiss, welche Zahlen da rausgekommen sind. Bei mehreren Spielen, mit/ohne Raytracing, UE5 Zeugs etc., nativ und mit DLSS. Den grössten Unterschied hat man bei 3DMark Speedway gesehen. Dort waren es knapp unterhalb 10% Performance-Verlust. 3DMark Tests skalieren typischerweise aber nur gering mit VRAM-OC, wird vermutlich daran liegen. In den meisten Spielen lag es bei ~5% Performance-Verlust.

Ach ja, ich habe einen 4K Monitor ;)

Notiz:
Ich vergleiche Karten-Default vs. UV + OC. Gegenüber Full-OC / maximaler Performance verliert man natürlich mehr, das war aber nicht der Punkt meiner Aussage.

Hübie
2024-12-18, 12:44:00
Ging mir auch so, hab ChatGPT mit meinen Wünschen, technische Daten wie das ich überwiegend 75% Powerlimit nutze und noch ein paar anderen Dingen wie FOMO gefüttert und er sagte mir, das ich meine 4090 behalten soll und mir eine in Zukunft die 6090 kaufen sollte.

Ich kann dir gerne so fern gewünscht die Wissenschaftliche Aussagen von der Paid ChatGPT Version per PN senden.

Danke, dass ist sehr freundlich von Dir, aber ich habe selbst ChatGPT Premium wegen der Arbeit. :smile: Die Entscheidung kann aber nur ich treffen und bevor ich ChatGPT mit sämtlichen Informationen zu meiner persönlichen finanziellen Situation gefüttert habe, um eine statistische Entscheidung zu treffen, ist der Release längst durch. ;D
Das Geld für die Karte wäre da, aber ich habe Probleme mit dem Wertverlust. Lieber anlegen und übergangsweise eine 8800 XT kaufen, falls diese in 3440x1440 und 5120x1440 schnell genug ist. Das ist mein Plan B, aber die Entscheidung ist noch nicht endgültig. Mit einer 5090 wäre sicher jahrelange Ruhe. Meine 6800XT hab ich Januar 2021 gekauft. Also ziemlich exakt 4 Jahre zuvor... Die 980 Ti davor hatte ich sogar mehr als 5 Jahre im Einsatz und hat mich "nur" 750 € gekostet. ;(

The_Invisible
2024-12-18, 12:53:56
Welcher Wertverlust? Man kann eine 4090 heute quasi für den gleichen Preis verkaufen wie man sie vor 2 Jahren gekauft hat. Auch davor mit 2080ti und 3090 wars so, warten zahlt sich bei NV highend einfach nicht aus, wenn dann gleich bei bzw knapp nach Release kaufen.

Kriegsgeier
2024-12-18, 13:00:39
Also, wer eine gebrauchte RTX 4090 für den gleichen Preis kauft wie die NEUE RTX 5080 kostet dem ist wirklich nicht zu helfen!

Normal wäre -30% Preisabschlag, sprich: 1300€ - ca. 300€ --> 1000€ maximal für eine RTX 4090!

PS: und was macht man wenn die RTX 5080 für 999$ kommen sollte?

Ich bleibe dabei: Im laufe des Februars 2025 kosten die 4090ger bei Ebay definitiv unter 1000€

BlacKi
2024-12-18, 13:00:54
naja, eine 3090 hat schon einen wertverlust. man muss das verkaufen schon richtig timen, damit der wertverlust gering bleibt. einige hier haben ihre 4090 schon verkauft und müssen das entweder mit kleineren gpus überbrücken oder mit anderen mitteln. das ist auch mit kompromissen verbunden.

monstar-x
2024-12-18, 13:08:20
Also, wer eine gebrauchte RTX 4090 für den gleichen Preis kauft wie die NEUE RTX 5080 kostet dem ist wirklich nicht zu helfen!

Normal wäre -30% Preisabschlag, sprich: 1300€ - ca. 300€ --> 1000€ maximal für eine RTX 4090!

PS: und was macht man wenn die RTX 5080 für 999$ kommen sollte?

Ich bleibe dabei: Im laufe des Februars 2025 kosten die 4090ger bei Ebay definitiv unter 1000€

Bezweifle ich Stark, eine 3090 TI kostet aktuell bei Ebay um die 900€ im mittel.

Für Arbeiten und AI ist die 4090 einer 5080 aufgrund der nur 16GB VRAM haushoch überlegen.

Daredevil
2024-12-18, 13:10:10
Ich habe meine 3090 auch im Sommer für 900€ verhökert, ein halbes Jahr ohne Gaming war ein großer Kompromiss, aber der körperlichen Fitness hats gut getan. :D
GPUs mit großen Speichermengen sind aktuell sehr gefragt, weil viele mit AI Kram rumspielen. Da ist es in manchen Szenarien fast egal, ob eine GPU 30% schneller oder langsamer ist, solange das Modell in den RAM passt und von Nvidia kommt. Die 24GB 3090/4090 sind insofern recht "preisstabil". Ich denke nicht, dass man diese zum Schnäppchenpreis bekommt, selbst wenn es eine gleich schnelle 5080 gibt, die aber weniger RAM hat.
Die günstigste gebrauchte 3090 liegt bei Ebay SK Deutschland bei 800€, eine 4090 bei 1600€.

If someone can make money out of it, there is no discount.
- Mining Hype 2017

Kriegsgeier
2024-12-18, 13:14:30
Das ist es ja! Du siehst diese Preise bei Ebay - das sagt schon alles!

die RTX 3090Fe sehe ich gerade bei 650€ und das sagt schon auch viel aus: ich sehe diese Preise. Somit gehen diese Karten nicht wie warme Sämmel weg für diese Preise.

Eine RTX 3090Fe würde jetzt erst bei 500€ relativ schnell gekauft werden aber doch nicht für 700€.

Daredevil
2024-12-18, 13:33:01
Dann sind die Händler wohl alle blöd, die damit ihr Geld verdienen.
Angebot und Nachfrage spielt hier auch einfach eine Rolle und wenn du Preise bei Ebay siehst, haben die schon ihre Berechtigung. Eine 3090FE kann man für 475€ ankaufen lassen, da drückt der Reseller dann nochmal ne gute Marge drauf und dann landet man halt bei irgendwas zwischen 700-900€ mit Prüfung, Gewährleistung und Pipapo.

Es ist ja keinem Händler geholfen, z.B. 50 Karten für 500€ zu verschleudern mit Mini Margen, wenn man das gleiche mit höherpreisigen Karten erreicht, die vielleicht nur 5 mal in der Woche verkauft werden. FAG, Sendungskosten, Prüfung usw. kostet ja alles Geld und drückt die Marge, deswegen ist weniger mehr, wenn man am Ende des Monats noch was auf dem Tisch haben will. Und auch wenn die 3090 eine Nische bedient, weil sie "langsam" ist, manche brauchen schlicht die 24GB und dieser Wert lässt sich halt was kosten.
Im Mining Hype habe ich mal ne neue 3090 bei Ebay versteigert für 2800€ und ich hatte nen Ultra schlechtes Gewissen, weil das so derbe hoch ging. Der Dude kam 300KM angefahren und hat sie persönlich abgeholt, hat mir die Kohle in die Hand gedrückt und gesagt "Preis ist mir egal, ich bin 3D Designer und habe das nach einem Monat wieder raus". Its not just Cyberpunk. ^^

Diese dicken High VRAM Modelle sind halt nicht nur für Gamer da, das macht schon nen riesen Unterschied in der Preisfindung, da der Wert und damit der resultierende Preis nicht immer nur vom Gamer gebildet wird, sondern halt auch von denen, die damit arbeiten und denen ist Kohle völlig egal, wenn sie daraus mehr schaffen können. Insofern wird der 5090 halt auch ein ähnliches Schicksal gleich wie dem 9800X3D, nur das man hiermit nicht nur Gamer schröpft sondern auch Industrie. Es ist also völlig egal, ob die Kiste 1.5K, 2K oder 3K kostet, die wird dann Tag 1 weg sein.

MiamiNice
2024-12-18, 13:46:52
Ich habe meine 3090 auch im Sommer für 900€ verhökert, ein halbes Jahr ohne Gaming war ein großer Kompromiss, aber der körperlichen Fitness hats gut getan. :D

Der körperlichen Fitness kann man auch mit GPU im Rechner nachgehen :wink: Wie kannst Du 6 Monate auf Deinen PC verzichten, Dude?!?!?!?!? Ich würde nach 14 Tagen sterben, das ist die Urlaubszeit die ich durchschnittlich ohne PC durchhalte, laut meiner Frau. Halbes Jahr ohne PC, so viel Geld kann man gar nicht sparen, dass ich diesen Kompromiss in Erwägung ziehen würde. Scheiße bin ich süchtig :freak:

Kriegsgeier
2024-12-18, 13:59:59
am ersten tag? Du meinst in den ersten 10 Min. wohl.
Ich hoffe auch auf min. 2500€ für die RTX 5090 damit man überhaupt Zeit hat die in den Einkaufswagen legen zu können.
Bei 2k werden viele kaufen, die es nicht mal brauchen.
Sichere Kiste wäre so bei 3100€ - dann wird man die Karte wahrscheinlich gute Stunde kaufen können.

Lawmachine79
2024-12-18, 14:40:10
Weiß jemand aus dem Kopf, bei welchen Herstellern die Garantie bei Montage einer Wakü gegenwärtig erhalten bleibt? Es gab ja mal eine Zeit, da waren es mehrere Hersteller, jetzt sind es nur noch wenige und bei 2.500 für eine Karte habe ich da nicht mehr unbedingt Lust zu, die Garantie aufs Spiel zu setzen.

Thomas Gräf
2024-12-18, 15:07:59
am ersten tag? Du meinst in den ersten 10 Min. wohl.
Ich hoffe auch auf min. 2500€ für die RTX 5090 damit man überhaupt Zeit hat die in den Einkaufswagen legen zu können.
Bei 2k werden viele kaufen, die es nicht mal brauchen.
Sichere Kiste wäre so bei 3100€ - dann wird man die Karte wahrscheinlich gute Stunde kaufen können.

Wenn die Speku mit den Ki Krempel stimmt dann wars das für uns Consumer.
UvP 3000€ sind dann 4000€ auf eBay. Bereitet Euch seelisch und moralisch schon mal drauf vor. ;)

Fragman
2024-12-18, 15:17:54
Welche Modelle lassen sich denn mit 32GB nutzbar rechnen?
Ich dachte man braucht heut schon 80GB mindestens oder so.

MiamiNice
2024-12-18, 15:22:49
Weiß jemand aus dem Kopf, bei welchen Herstellern die Garantie bei Montage einer Wakü gegenwärtig erhalten bleibt? Es gab ja mal eine Zeit, da waren es mehrere Hersteller, jetzt sind es nur noch wenige und bei 2.500 für eine Karte habe ich da nicht mehr unbedingt Lust zu, die Garantie aufs Spiel zu setzen.

Ist bei GPU doch relativ egal. Entweder die kommen kaputt oder laufen ewig, wenn Du sie beim Umbau nicht zerstörst. Gibt glaube keine aktuelle Liste, die letzte Liste dieser Art dürfte um die 10 Jahre aufm Buckel haben.
Du solltest davon ausgehen, dass Du bei allen Herstellern die Garantie verlierst, sobald der Kühler runter ist.


Ich hoffe auch auf min. 2500€ für die RTX 5090 damit man überhaupt Zeit hat die in den Einkaufswagen legen zu können.


Ist schon krank, aber ich sitze im selben Boot XD

Daredevil
2024-12-18, 15:27:26
Welche Modelle lassen sich denn mit 32GB nutzbar rechnen?
Ich dachte man braucht heut schon 80GB mindestens oder so.
Kommt halt einfach drauf an, was man damit anstellen möchte. Das ist ja höchst Anwendungsspezifisch.
Wenn Modelle bis 24/32 GB benötigen, brauchst du halt die schnellste GPU mit diesem maximalen VRAM.
Wenn Modelle 128GB+ benötigen, brauchst du halt die schnellste GPU mit diesem maximalen VRAM.

Für beide Anwendungszwecke gibt es unterschiedliche Produkte. Ein M4 Max ist z.B. von der Raw Performance nicht mit einer 4090 zu vergleichen, wenn die Amwendung aber 100GB VRAM will, zieht der M4 Max davon. Wenn das Modell nur 20GB groß ist, zieht die 4090 davon. It depends.
Die 5090 lässt für den "Privatgeek" durch die spekulierten 32GB und deutlich mehr Bandbreite hier die Messlatte aber deutlich höher hängen, was die Karte völlig unabhängig von der Performance schon alleine spannender macht als eine 3090/4090.
Eine 4080/5080 ist da natürlich völlig irrelevant, weil zu wenig Speicher für den Pro Bereich. Das sind die Gaming Kisten, wobei hier 16GB bei 4K+ auch schon ne knappe Sache werden. Die Spanne zwischen 16GB und 32GB ist schon nie miese Sache, wenn es die 24GB nicht mehr gibt als Middlestep
Alleine schon fürs Ego tun für mich die 16GB bei einer vermutlich vierstellig teuren 5080 weh, wenn eine 300€ Arc B580 mit 12GB daher kommt. :ugly:

Es wird da wohl vermutlich KI-RT-PT-LLM whatever Nischen Cases geben, wo man mindesten 24GB braucht und da heißt es dann "Entweder hast du eine 5090, oder du hast keine 5090". Nvidia wird da bestimmt das Thema 8K Gaming noch mehr aufziehen als beim letzten mal, wo es ja weniger durchgeschlagen hat, weil die Performance einfach zu niedrig war.

Joies
2024-12-18, 15:37:58
Notiz:
Ich vergleiche Karten-Default vs. UV + OC. Gegenüber Full-OC / maximaler Performance verliert man natürlich mehr, das war aber nicht der Punkt meiner Aussage.


Meine 4090FE(direkt bei release gesnackt) lief ähnlich. 2700@0.9v/+1447 RAM, ~1/4 bis 1/3 weniger Verbrauch zum Stock bei gleicher Leistung (meist unterhalb 300W, ältere Spiele im niedrigen 2xxW Bereich). Der Chip machte auch 3160@1.1v/+1600 RAM mit, war ca. 15% mehr Leistung im vergleich zu UV/OC bei fast doppeltem Verbrauch(450-5xxW). Im daily Bereich und zum zocken habe ich das UV/OC Setting benutzt. Freu mich schon seit langem auf die 5090 und hab letzte Woche meine 4090 mit 600€ Verlust verkauft. Bis zur 5090 benutze ich jetzt eine 3090 (vor einem Jahr für 520€, bereits auf einem Wasserblock umgebaut, für den PC der Frau gekauft) bei 1815@0,812v/+1337 RAM.

Bei mir ist alles wassergekühlt mit 2x 1260er Radiatoren und RAM optimiert.

Fragman
2024-12-18, 16:39:57
Kommt halt einfach drauf an, ...

Alleine schon fürs Ego tun für mich die 16GB bei einer vermutlich vierstellig teuren 5080 weh, wenn eine 300€ Arc B580 mit 12GB daher kommt. :ugly:


Die 16GB für die 5080 verstehe ich auch nicht.
Es gibt keine wirkliche Abgrenzung zur 5070TI und für die 4090 Leistungsklasse, die spekuliert wird, sollte man mehr erwarten können.

][immy
2024-12-18, 16:51:15
Also 16 GB für eine teure 5080 sind nur wirklich ein Witz. Ich hatte ja gehofft wenn sie bei der 90er auf 32 gehen, geht es weiter unten auch mal hoch...
Aber nein, Nvidia will nur noch Premium Kunden was bieten. Alle anderen nehmen sie halt mit.

Was auch unschön finde, der Energiebedarf geht wieder durch die Decke. 5070 >>>225W, also scheint eher das ausreizen des Prozesses zu sein als ein großer Sprung zu sein.

MiamiNice
2024-12-18, 17:19:50
Ihr sollt ja auch die 5090 kaufen ...
Falls ihr das nicht macht, sollt ihr zumindest beim Release der 6080 nochmal zur Kasse gebeten werden. Huang bekommt sein Geld, so oder so ;D
Also besser ihr kauft direkt die 5090 und besser direkt zwei davon. Nicht vergessen, The More You Buy, The More You Save ;) (stimmt sogar, wenn man die 2. auf ebay stellt XD)

mironicus
2024-12-18, 17:21:28
Welche Modelle lassen sich denn mit 32GB nutzbar rechnen?
Ich dachte man braucht heut schon 80GB mindestens oder so.

NVidia bringt demnächst eine (Laptop) ARM-CPU heraus mit integrierter starker Grafik. Diese CPU wird interessant für KI-Modellberechnung da hier der Hauptspeicher als Grafikspeicher verwendet werden kann.

Lawmachine79
2024-12-18, 17:26:29
eine 3090 (vor einem Jahr für 520€, bereits auf einem Wasserblock umgebaut, für den PC der Frau gekauft) bei 1815@0,812v/+1337 RAM.

Ist eine Top-Karte für Word, Excel und Surfen!

Joies
2024-12-18, 20:15:18
Ist eine Top-Karte für Word, Excel und Surfen!

Der 2. PC dient mehr für den "modernen" Männerabend(statt angeln), Kumpel kommt alle paar Monate vorbei und wir zocken zusammen (mehr trinken :freak:)

monstar-x
2024-12-18, 20:43:46
Das ist es ja! Du siehst diese Preise bei Ebay - das sagt schon alles!

die RTX 3090Fe sehe ich gerade bei 650€ und das sagt schon auch viel aus: ich sehe diese Preise. Somit gehen diese Karten nicht wie warme Sämmel weg für diese Preise.

Eine RTX 3090Fe würde jetzt erst bei 500€ relativ schnell gekauft werden aber doch nicht für 700€.

Du weist aber schon dass du bei Ebay (Verkaufte) Artikel anzeigen lassen kannnst? Ne? Jetzt weist du es ;D

Ergo nix mit 500€ sondern,
> 850€ aufwärts.

Dimon
2024-12-18, 20:56:31
Du weist aber schon dass du bei Ebay (Verkaufte) Artikel anzeigen lassen kannnst? Ne? Jetzt weist du es ;D

Ergo nix mit 500€ sondern,
> 850€ aufwärts.

Verrückt, meiner bescheidenen meinung nach sollte der eimer max 500 tacken kosten :D

Kriegsgeier
2024-12-18, 21:25:48
Jetzt ja - noch wie gesagt. In 1,5-2 Monaten kosten alle jetzigen Karten zwischen 500 und 300€ weniger auf der Straße.

Hübie
2024-12-18, 21:37:42
Du weist aber schon dass du bei Ebay (Verkaufte) Artikel anzeigen lassen kannnst? Ne? Jetzt weist du es ;D

Ergo nix mit 500€ sondern,
> 850€ aufwärts.

Zahlt man bei Ebay nicht an die 10% Gebühr? Die kann man dann schon mal abziehen. Es gibt, wie bei vielen Luxus-Artikeln einen Wertverlust. Das brauchen wir in diesem Fall auch nicht weiter diskutieren. Damit habe ich halt einfach Probleme in meinen Hirnwindungen. :smile:

Troyan
2024-12-18, 21:40:35
Nicht als Privatperson mehr. Aber gerade kackt der Euro mal wieder...

monstar-x
2024-12-18, 23:23:15
Zahlt man bei Ebay nicht an die 10% Gebühr? Die kann man dann schon mal abziehen. Es gibt, wie bei vielen Luxus-Artikeln einen Wertverlust. Das brauchen wir in diesem Fall auch nicht weiter diskutieren. Damit habe ich halt einfach Probleme in meinen Hirnwindungen. :smile:

Als Privat Person, hast du pro Monat 300 Verkäufe Frei, egal ob Auktion oder Sofort-Kauf kostet alles nichts mehr, seit die Ebay Kleinanzeigen verkauft haben.

*Ausnahme bei Immobilien und Yachten etc., da zahlst du noch Gebühren.
Wenn ne Yacht verkaufen möchte, den interessieren die Gebühren nicht ;D

wolik
2024-12-19, 00:05:46
Jetzt ja - noch wie gesagt. In 1,5-2 Monaten kosten alle jetzigen Karten zwischen 500 und 300€ weniger auf der Straße.

Vorausgesetzt, man kann neue Karten in den Geschäften kaufen. Und ich glaube nicht, dass das der Fall sein wird. Vielleicht in der Mitte des Jahres 2025.

Kriegsgeier
2024-12-19, 08:19:30
So, nun habe ich meine Karte auch zum Verkauf eingestellt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=620228

Eddyk
2024-12-19, 08:52:18
Du weist aber schon dass du bei Ebay (Verkaufte) Artikel anzeigen lassen kannst? Ne? Jetzt weist du es ;D

Ergo nix mit 500€ sondern,
> 850€ aufwärts.

Das ist aber die 3090ti...

3090FE pendelt bei 650-700
NICHT-FE sogar teils günstiger.

nordic_pegasus
2024-12-19, 16:01:39
https://videocardz.com/newz/palit-registers-all-possible-variants-of-geforce-rtx-50-series-at-eec

Palit hat alle möglichen Namenskombinationen für die 50er Serie auf Verdacht registriert... die "5090Ti Super" hätte ich gerne ;-)

basix
2024-12-21, 09:34:27
Mal noch ein Gedanke zur 5060 8GB: Das könnte eine Mobile Variante sein.

Desktop sähe dann so aus, also das was im ~Januar released wird.
- 5090, 32GB
- 5080, 16GB
- 5070 Ti, 16GB
- 5070, 12GB
- 5060 Ti, 16GB

Die 5060 käme dann später mit 12 GByte (24 Gbit Module).

HOT
2024-12-21, 09:47:58
Glaub ich nicht. Die werden zum Start weg ganz normal 8GB bekommen. Es wird mMn nur eine einzige Karte mit 24Gbit-Modulen geben (neben den Profikarten) und das ist die 5080 mit 24GB und das auch nur wegen der Prosumer-Ausrichtung. Man beachte hierbei die 5060Ti mit 16GB, Beweisführung abgeschlossen.

5090 32GB
5080 16 und 24GB
5070Ti 16GB
5070 12GB
5060Ti 16GB (da GB206)
5060 8GB (GB206)
5050 8GB (GB207)

Es ist ja auch so, dass der mobile 5070 auch auf GB206 zu basieren scheint und deshalb ebenfalls nur 8GB bekommt, es wird nicht mehr VRAM diese Gen geben. Ich wette, die werden 26 noch mal aufgesupert werden, dann sehen wir sicherlich auch GB205 und GB206-Varianten mit 24Gbit-Modulen.

Mobile:
5090 16GB (GB203)
5080 16GB (GB203)
5070Ti 12GB (GB205)
5070 8GB (GB206)
5060 8GB (GB207)

dildo4u
2024-12-21, 10:54:27
Es macht kein Sinn mehr als 8GB zu bringen so lange sich die Karten verkaufen.
Es gibt kein Hinweis das 4060 liegen bleiben obwohl es die ganze Zeit 6700xt für 320€ gab.

Mindfactory hat sie im Mittelfeld

https://x.com/TechEpiphanyYT/status/1855633667281825858

HOT
2024-12-21, 11:29:42
Die einzige Option auf 24Gb-Module wäre, wenn die 5060 erst Ende 25 aufschlagen würde, das scheint aber nicht so zu sein, offenbar will man bis Frühsommer durch sein, mobil ist man ja schon im Februar durch. Es reicht ja, wenn die restlichen 4060 dann abverkauft sind. EOL sind die ja eh schon ein paar Wochen/Monate. Die laufen ja auf den gleichen Produktionsstrassen vom Band und sind kleiner und billiger als die alten Chips, es ergibt also keinen Sinn noch ewig Ada anzubieten. Es wqird sicherlich eine GB206 12GB 5060 Super geben in 26 könnt ich mir gut vorstellen.

BTW, MLID labert auch wieder einen Scheiss in seiner neuesten Ausgabe, meine Güte...

monstar-x
2024-12-21, 14:34:25
BTW, MLID labert auch wieder einen Scheiss in seiner neuesten Ausgabe, meine Güte...

MILD ist auch ein unglaubwürdiger Laberkopf, so bald sein Namen fällt, ignoriere ich das gesagte.


Wieso er immer wieder Zitiert wird und so eine Bühne bekommt, bleibt mir ein Rätsel.

basix
2024-12-21, 14:57:20
Glaub ich nicht. Die werden zum Start weg ganz normal 8GB bekommen. Es wird mMn nur eine einzige Karte mit 24Gbit-Modulen geben (neben den Profikarten) und das ist die 5080 mit 24GB und das auch nur wegen der Prosumer-Ausrichtung. Man beachte hierbei die 5060Ti mit 16GB, Beweisführung abgeschlossen.

Hä? Was ist das denn bitte für eine Beweisführung anhand der 5060 Ti? :freak: Nvidia sieht ja dort ein, dass 8GB absolut zu wenig sind und man hat deshalb nur eine Möglichkeit: 16Gbit Module im Clamshell Modus und entsprechend eine VRAM-Verdopplung. Nvidia würde die garantiert mit 12GByte bringen, falls es 24Gbit Module bereits geben würde. Doch 8GB sind nicht nur generell zu wenig, AMD wird N48 mit 192...256bit am Markt haben oder anders gesagt die Konkurrenz hat 12...16GByte. Bei Lovelace vs. RDNA3 war das anders, N33 hatte initial auch nur 8GB.

Nvidia hat bei der 3070 8GB sowie 4060 (Ti) 8GB keine Bonuspunkte in Reviews gesammelt und in den letzten paar Monaten hatten einige Spiele nicht so viel Freude an 8GB. Die Kundschaft sieht das auch und entsprechend wird eine 8GB Karte sich schlichtweg nicht gut verkaufen. Was bei Ada Release mit 8GB noch geklappt hat wird 2025 nicht mehr klappen, das kann ich dir versprechen. RT, DLSS, FG usw. benötigt ausserdem zusätzlichen Speicher. Nicht umsonst verkauft sich die 4060 Ti 16GB relativ gut ggü. den 8GB Modellen. Und das ist nicht nur wegen ML/AI so.
https://www.pcgameshardware.de/Geforce-RTX-4060-Ti-16GB-Grafikkarte-279647/News/vs-8-GiB-ueberraschende-Zahlen-Mindfactory-1456726/

24Gbit Module gibt es ab Q1/2025 und ab Q2 dann vermutlich 5060 12GB und auch die Quadro-Varianten. Bis dahin ist der Abverkauf der 4060...4070S abgeschlossen und die 5060 12GB darf sich dort einreihen.

Wie sieht es dann unterhalb der 5060 aus? Da könnte es eine 5050 8GB Karte mit GB207 geben. Da hast du deine 8GB Karte.

Dampf
2024-12-21, 15:01:02
MILD ist auch ein unglaubwürdiger Laberkopf, so bald sein Namen fällt, ignoriere ich das gesagte.


Wieso er immer wieder Zitiert wird und so eine Bühne bekommt, bleibt mir ein Rätsel.

Fake it 'till you make it.

Skinner
2024-12-21, 17:40:21
Die RTX 5080 wird sich locker bei 1500€ einpendeln, je nach Modell. Quelle: Arbeit 😄

00-Schneider
2024-12-21, 17:43:41
Die RTX 5080 wird sich locker bei 1500€ einpendeln, je nach Modell. Quelle: Arbeit ��


Wenn sie ~4090 Leistung hat + neue Features wäre das ein Schnäppchen.

basix
2024-12-21, 18:25:12
Die 4090 konnte man mal für 1700 Euro rum kaufen, falls das jemand vergessen hat ;)

PHuV
2024-12-21, 18:50:30
Und wer hat für diesen Preise eine erwerben können? Ich kenn da keinen.

Also besser ihr kauft direkt die 5090 und besser direkt zwei davon.
Ich hatte sogar 3 davon, weil die ersten beiden nichts ins Gehäuse paßten. :redface:

ianm
2024-12-21, 19:00:50
Sogar für 1600€, nur eben in 2023. Aber auch dieses Jahr gingen die Preise noch.

https://geizhals.de/palit-geforce-rtx-4090-gamerock-ned4090019sb-1020g-a2816494.html?hloc=de

Fragman
2024-12-22, 12:10:33
Zum Thema DLSS "next" vielleicht passend dieses 2 minute paper Video.
Das zeigt Upscaling von einer weitaus niedrigeren Auflösung mit im Verhältnis doch erstaunlich gutem Output.
Auch wenn es dabei sichtbare Artefakte erzeugt.

AkegnIRF_S4

So extrem wird das sicher nicht in der 50ziger Gen drin sein.
Aber die Benchmarkbalken könnten mit einer 5060 wohl lang genug sein, um die eigentlich zu erwarteten kleinen Fortschritte schön zu reden. ;)

Sieht aber sehr spannend aus.

Colin MacLaren
2024-12-22, 12:43:23
Die RTX 5080 wird sich locker bei 1500€ einpendeln, je nach Modell. Quelle: Arbeit 😄

Und die 5090?

MiamiNice
2024-12-22, 12:48:09
Und wer hat für diesen Preise eine erwerben können? Ich kenn da keinen.


Doch kennst Du. 1609€

Colin MacLaren
2024-12-22, 12:55:30
Das ist aber die 3090ti...

3090FE pendelt bei 650-700
NICHT-FE sogar teils günstiger.

Bei Amazon gab es jetzt im Dezember eine 7900XTX (TimeSpy Graphics 30k) für 759 EUR. Warum sollte da irgendjemand für 700 EUR eine 3090 (Timespy Graphics 20k) kaufen?

basix
2024-12-22, 12:56:42
Zum Thema DLSS "next" vielleicht passend dieses 2 minute paper Video.
Das zeigt Upscaling von einer weitaus niedrigeren Auflösung mit im Verhältnis doch erstaunlich gutem Output.
Auch wenn es dabei sichtbare Artefakte erzeugt.

https://youtu.be/AkegnIRF_S4

So extrem wird das sicher nicht in der 50ziger Gen drin sein.
Aber die Benchmarkbalken könnten mit einer 5060 wohl lang genug sein, um die eigentlich zu erwarteten kleinen Fortschritte schön zu reden. ;)

Sieht aber sehr spannend aus.

Wow, sieht sehr gut aus. Das ist 270p auf 1080p! Also deutlich höherer Upsampling Faktor als DLSS-P oder UP und 1080p Output ist auch eher gering, höhere Auflösungen würden bessere Resultate erzielen.

Wäre jeweils spannend, wenn sie in diesen Papers noch eine SotA Umsetzung wie DLSS oder FSR vergleichen würden.

Muskelbiber
2024-12-23, 00:34:09
Bei all dem Trubel wegen dem Grafikspeicher, viel wichtiger ist doch die Lautstärke der Grafikkarten. Ich hoffe das bei den 50xx Karten das Spulenfiepen endlich mal angegangen wird. TDK sollte langsam mal handeln….

VooDoo7mx
2024-12-23, 00:47:15
Die RTX 5080 wird sich locker bei 1500€ einpendeln, je nach Modell. Quelle: Arbeit ��

Macht Sinn. US Preis $1199 MSRP FE + Steuern + Custom Design kommt das schon hin.

Ich glaub sogar , der Preis der 5080 wird schon nach kurzer Zeit nach unten gehen. Für 4080/Super und 4090 Nutzer ist das keine interessante Upgrade Option, eher so für Leute die noch ne 3080/Ti haben.
Und die 5090?

Die wird bei $1999 liegen. Kannst also mit 2300€ aufwärts rechnen. Preise werden wohl über Monate nicht großartig fallen, sehe da eher die andere Richtung im Preisgefüge.
Wenn sie ~4090 Leistung hat + neue Features wäre das ein Schnäppchen.

Halte ich persönlich für sehr unwahrscheinlich. Wenn die bisher immer wieder genannten 84SM stimmen, müsste Blackwell pro SM ja 50% Leistung zulegen damit man auf die 4090 kommt.


BTW, MLID labert auch wieder einen Scheiss in seiner neuesten Ausgabe, meine Güte...
Ich hab es mir mal angesehen und es hat sich für mich alles plausibel angehört.
Was ist denn deiner Meinung nach nicht ok?

Ich für meinen Teil werde wohl meinen Desktop PC komplett verkaufen. Und mir ein 5080 oder 5090 Notebook holen. Letzten Monate habe ich fast nur noch auf meinen 4080 Notebook gezockt.
Mein Steam Deck hat mich irgendwie von den nutzlosen Ultra Details geheilt. :ugly:

reaperrr
2024-12-23, 01:38:52
Halte ich persönlich für sehr unwahrscheinlich. Wenn die bisher immer wieder genannten 84SM stimmen, müsste Blackwell pro SM ja 50% Leistung zulegen damit man auf die 4090 kommt.
Die 4090 ist in der Praxis doch meistens nur 30% schneller (selbst in 4K), teils wegen CPU-/Scheduler-Limit, teils wegen dem teildeaktivierten Cache.

Ich würde erwarten, dass Blackwell generell weniger CPU-limitiert sein wird, sonst hätte man auch bei GB202 gar nicht so weit über die AD102-Specs gehen brauchen.

Mit ~15-20% mehr Takt, 5% mehr SM und ~5-10% mehr IPC je SM vs. 4080S wäre die 5080 in Raster schon meistens sehr nah an der 4090, und in RT wird sie sicher schneller.

Altehardware
2024-12-23, 07:17:24
Dank cpu limits aber die test sind nicht Aktualisiert worden sprich es wurde der 1400k oder 7800xs3d genutzt da liegt noch was brach der 9800x3d schlisst fasst die Lücke

Relex
2024-12-23, 09:18:31
In Indy sinds mit Pathtracing in 4K auch nur 36% laut PCGH. Und in dem Spiel ist das CPU Limit weit weg.

Und ich bezweifle, dass Seiten wie Computerbase die ihren Parcours auch erst kürzlich nochmal für den Blackwell Launch aktualisiert haben eine 4090 im (teilweisen) CPU Limit testen. Damit wären die Blackwell Benchmarks sonst direkt nutzlos. CB kommt in 4K mit RT auf durchschnittlich 31%.

y33H@
2024-12-23, 09:23:34
Man kann ja ne extra Testreihe mit 9800X3D und RTX 4090 vs RTX 5090 fahren ...

basix
2024-12-23, 09:35:52
In Indy sinds mit Pathtracing in 4K auch nur 36% laut PCGH [...]

...mit DLSS-Q ;)

Nativ sind es laut CB +43% (was natürlich nicht spielbar ist) und +38% mit DLSS-B.

Und ich bezweifle, dass Seiten wie Computerbase die ihren Parcours auch erst kürzlich nochmal für den Blackwell Launch aktualisiert haben eine 4090 im (teilweisen) CPU Limit testen. Damit wären die Blackwell Benchmarks sonst direkt nutzlos. CB kommt in 4K mit RT auf durchschnittlich 31%.

CB testet fast alle Spiele mit DLSS/FSR-Q:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-amd-radeon-benchmark-test-2025.90695/#abschnitt_testsystem_und_testmethodik

mMn macht das schon Sinn, da man in 4K mit DLSS-Q sehr gut unterwegs ist. Aber der 4090 gefallen reduzierte Auflösungen einfach nicht. Ich hoffe GB202 skaliert hier besser.

Relex
2024-12-23, 10:01:15
Na ja, wenn das ganze in 4K nativ bei 90 FPS so laufen würde wärs ja gut, aber die positiven Ausreißer bei der 4090 performance sieht man eben wenn dann immer (oder meistens) nur bei nativ + sehr niedriger Framerate.

Aber das war schon immer so bei den "big chips". Wobei man auch umgekehrt argumentieren könnte, dass die kleineren Chips bei der hohen Last einfach früher überproportional einbrechen. Bei der 4090 wird dieser punkt eben erst später erreicht, was ja aufgrund der Specs nur logisch erscheint.


Das ist ja bei der Mittelklasse auch so. Wenn man nativ 1440p und max Settings nutzt, dann brechen langsamere oder ältere Karten einfach komplett ein, weil oft irgend ein effekt dann so hoch gedreht wurde, dass manche Karten damit einfach gar nicht mehr klar kommen.

Ich hab das damals in TombRaider bei meiner GTX980 beobachtet. Mit max Settings ohne RT hat die Karte unglaublich schlecht performt und längst ihren Zenit überschritten (nein, kein VRAM limit, war auch mit low texturen und 3 GB Auslastung so). Ein paar Settings um eine Stufe runter gedreht und schon war die performance um mehr als 50% höher. Ich kenne jetzt die genauen Zahlen nicht mehr, aber es war mehr als laut benchmarks zu erwarten gewesen wäre. Es war als hätte man die Handbremse gelöst.

Diesen Performanceboost konnte ich später auf meiner 3060ti so überhaupt nicht mehr nachstellen. Ich war lange nicht im CPU Limit, aber meine optimierten Settings vs max settings haben da kaum noch einen Unterschied bei den FPS gemacht. Bei der 4080 dann natürlich genauso. Andere Architektur, andere Skalierung.


Deswegen finde ich das Thema eigentlich auch irre komplex. Solange man nicht versteht, was genau im Chip passiert, also ob irgend ein Setting die komplette Karte lahm legt oder ob viele Recheneinheiten nichts zu tun haben, lässt sich das alles schwer vergleichen. Die Frage ist eben immer, wie man testet und welche Schlüsse man daraus ziehen kann und möchte.

BlacKi
2024-12-23, 10:09:34
Bei all dem Trubel wegen dem Grafikspeicher, viel wichtiger ist doch die Lautstärke der Grafikkarten. Ich hoffe das bei den 50xx Karten das Spulenfiepen endlich mal angegangen wird. TDK sollte langsam mal handeln….ich lese das immer wieder. und obwohl ich vor meinem seasonic netzteil selbst hier und da stärker betroffen war, ist das nach meinem umstieg nie wieder ein problem gewesen. und ich hatte einige grafikkarten. dabei war spulenfiepen nur noch minimal wahrnehmbar, obwohl alle meine builds offen gestaltet sind.



vl sollten geplagte menschen einfach mal ein paar neue netzteile ausprobieren, egal welchen preis euer jetziges hatte.

Bei Amazon gab es jetzt im Dezember eine 7900XTX (TimeSpy Graphics 30k) für 759 EUR. Warum sollte da irgendjemand für 700 EUR eine 3090 (Timespy Graphics 20k) kaufen?

dlss, geringerer verbrauch bei UV und geringere performance verluste durch UV. höherer wiederverkaufswert^^

Dank cpu limits aber die test sind nicht Aktualisiert worden sprich es wurde der 1400k oder 7800xs3d genutzt da liegt noch was brach der 9800x3d schlisst fasst die Lückees ist aber kein echtes cpu limit was da oft limitiert. schau dir mal ghostwire tokyo an. in 1440p macht die 4090 170fps. und ist klar cpu limitiert. d.h. die 4090 ist mit ihren 55fps in 5k sicherlicht nich cpu limitiert. und trotzdem schafft die 4090 sich nur um 29% von der 4080 abzusetzen.

dasselbe bei halo infinite


sicherlich limitiert etwas, aber nicht die cpu.

https://www.computerbase.de/2022-11/nvidia-aus-msi-zotac-geforce-rtx-4080-review-test/2/#abschnitt_benchmarks_mit_und_ohne_rt_in_5120__2880

BlacKi
2024-12-23, 10:28:33
sry für doppelpost

The_Invisible
2024-12-23, 10:46:08
Na ja, wenn das ganze in 4K nativ bei 90 FPS so laufen würde wärs ja gut, aber die positiven Ausreißer bei der 4090 performance sieht man eben wenn dann immer (oder meistens) nur bei nativ + sehr niedriger Framerate.


Gibt auch einige Ausreißer wo es spielbar und gut spielbar ausmacht mit >40% Unterschied zur 4080S: https://www.pcgameshardware.de/Raytracing-Hardware-255905/Tests/Gaming-Grafikkarten-Vergleich-Benchmark-Preis-Leistung-1411231/

Wobei noch immer nicht klar ist was und warum was limitiert. Hoffe RTX50 hat hier eine bessere Skalierung, bei >20k ShaderUnits muss das aber wohl

00-Schneider
2024-12-23, 10:47:32
Wobei noch immer nicht klar ist was und warum was limitiert.


Bandbreite?

Lawmachine79
2024-12-23, 10:49:26
Hoffentlich wird die 5080 schön teuer und nur so schnell wie 4090. Dann kriegt man die gut bei Ebay los und muss nur ca. 1200 für die 5090 draufzahlen.

Früher war es schon geiler, als das Topmodell 3% schneller als das nächstbeste Modell war und 50% teurer war. 50% teurer ist es immer noch, aber jetzt ist schon das nächstbeste Modell lahmarschig und auf AMD-Niveau.

Troyan
2024-12-23, 10:50:06
Auch ist es schwerer über breite GPUs zu skalieren. Immerhin die Bandbreite löst man mit der 5090 und liefert da 70% mehr gegenüber der 5080...

MiamiNice
2024-12-23, 10:55:11
Bei all dem Trubel wegen dem Grafikspeicher, viel wichtiger ist doch die Lautstärke der Grafikkarten. Ich hoffe das bei den 50xx Karten das Spulenfiepen endlich mal angegangen wird. TDK sollte langsam mal handeln….

Ist hier kein Thema. Zum einen trägt das NT bei, man kann beim Kühlerumbau Pads zwischen die Spulen klemmen und letztlich wird eh meist mit Köpfhörer gespielt, wegen Voice Chat.

Also zumindest hier steht Lautstärke nicht auf dem Zettel.

BlacKi
2024-12-23, 10:57:56
Bandbreite?die 4090 hat 41% mehr bandbreite. skaliert manchmal aber nur mit 29% ggü. der 4080 ohne cpu limit.



einen direkten zusammenhang würde ich ausschließen.


aber was wenn die 70% mehr rechenleistung auch 70% mehr bandbreite bräuchte um halbwegs zu skalieren?


vl deshalb die 512bit speicherinterface bei der 5090?


wenn man in halo und in ghostwire rein über memory oc eine nahezu perfekte skalierung der fps sehen könnte, dann könnte man das auch bestätigen.

Relex
2024-12-23, 10:59:38
Bandbreite?


Aber müsste das Bild dann nicht umgekehrt sein?

Wenn die Bandbreite limitiert, warum performt sie dann in 4K nativ bei geringen FPS besser. Das ist doch gerade das Szenario das viel Bandbreite braucht oder nicht?


Umgekehrt, wenn 4090 und 4080 mit upscaling nahe zusammenrücken limitiert offensichtlich ja noch nichtmal die Bandbreite der 4080. Die Bandbreite der 4090 dürfte dann ja erstrecht nicht limitieren und trotzdem ist die Performancedifferenz hier am geringsten. Eine 4090 die hier nicht Bandbreitenlimitiert ist, sollte hier aber nach der Logik besonders gut performen können. Das Gegenteil ist der Fall.

Nach meinem Verständnis sind es eher die Szenarien die hohe Bandbreite brauchen, in denen die 4090 gut performt (oder eben die 4080 wegbricht, wegen der Bandbreite bzw. dem kleineren SI)


Also für mich erschließt sich das verhalten daraus nicht.


Ich denke es sind ganz andere Parameter die hier limitieren. Die 4090 scheint mir durch die hohe Anzahl an Cuda cores eher für synthetischere Workloads ausgelegt zu sein. Die Aspekte die den FPS durchsatz beim Gaming erhöhen, scheinen im Vergleich zum Rest der Chipkonfiguration unterdimensioniert zu sein. Aber das ist nur ins blaue geraten.

aufkrawall
2024-12-23, 11:01:23
Die 4090 hat nur 12,5% mehr L2-Cache als die 4080.

Troyan
2024-12-23, 11:02:15
die 4090 hat 41% mehr bandbreite. skaliert manchmal aber nur mit 29% ggü. der 4080 ohne cpu limit.



einen direkten zusammenhang würde ich ausschließen.


aber was wenn die 70% mehr rechenleistung auch 70% mehr bandbreite bräuchte um halbwegs zu skalieren?


vl deshalb die 512bit speicherinterface bei der 5090?


wenn man in halo und in ghostwire rein über memory oc eine nahezu perfekte skalierung der fps sehen könnte, dann könnte man das auch bestätigen.

Die 4090 skaliert viel stärker mit Bandbreite als mit Chiptakt. In Control münden +10% Bandbreite in 10% mehr Leistung, wohingegen die Erhöhung des Chiptakts um 10% kaum Auswirkungen zeigt.

Relex
2024-12-23, 11:07:11
Die 4090 skaliert viel stärker mit Bandbreite als mit Chiptakt. In Control münden +10% Bandbreite in 10% mehr Leistung, wohingegen die Erhöhung des Chiptakts um 10% kaum auswirkungen zeigt.


Das müsste dann aber auch ein Szenario sein, bei dem die 4080 weit zurück fällt.

Wir suchen aber ein Szenario, bei dem die beiden Karten recht nahe zusmmen liegen und die 4090 durch Speichertakt 1:1 performance gewinnen würde.

Denn das sind ja die Fälle die kaum erklärbar erscheinen.



Die 4090 hat nur 12,5% mehr L2-Cache als die 4080.


Stellt sich wieder die frage, welche Auswirkungen das in der Praxis hat und ob der überhaupt limitiert.
Der Cache hilft besonders bei RT bzw. PT.

Wie ich schon sagte. Es ist kompliziert. Ohne profiling tools kann man nur raten.

basix
2024-12-23, 11:08:23
Die 4090 skaliert viel stärker mit Bandbreite als mit Chiptakt. In Control münden +10% Bandbreite in 10% mehr Leistung, wohingegen die Erhöhung des Chiptakts um 10% kaum Auswirkungen zeigt.

Bei Mem-OC muss man aufpassen: Ist es Bandbreite oder Latenz? Ich tendiere bei der 4090 stark zu letzterem.

Troyan
2024-12-23, 11:13:04
Das müsste dann aber auch ein Szenario sein, bei dem die 4080 weit zurück fällt.

Wir suchen aber ein Szenario, bei dem die beiden Karten recht nahe zusmmen liegen und die 4090 durch Speichertakt 1:1 performance gewinnen würde.

Denn das sind ja die Fälle die kaum erklärbar erscheinen.

Nein, da theoretische Werte eben erstmal nur theoretisch. Die 4090 skaliert einfach viel besser mit Bandbreite. Das heißt nicht, dass die Karte perse schon in solchen Fällen bei ~40% zur 4080 liegen würde.

Es hat seinen Grund, wieso nVidia massiv die Bandbreite mit Blackwell erhöht - bei der 5090 ja um extrem viel mehr. Pro SM-Einheit bekommt die 5090 33% mehr Bandbreite. Mal aus dem Beyond3d.com Forum geklaut:

Bandwidth per SM:

10.5 GB/s - 5090
11.4 GB/s - 5080
12.8 GB/s - 5070 Ti
7.9 GB/s - 4090
9.2 GB/s - 4080
8.4 GB/s - 4070 Ti
11.3 GB/s - 4060

Sollte der L2 Cache dann weniger beschnitten sein, sollte auch die 5090 nicht mehr annährend so stark von der Bandbreite limitiert sein.

BlacKi
2024-12-23, 11:23:08
und dann meinen manche, die 5090 wird nur 30-35% schneller XD solche leute...

HOT
2024-12-23, 11:26:00
Kommt drauf an wobei...

dildo4u
2024-12-23, 16:53:14
GB300 288GB HBM3e 1,4 kw

https://www.computerbase.de/news/grafikkarten/blackwell-ultra-nvidia-gb300-kommt-auf-288-gb-hbm3e-und-1-4-kw-pro-gpu.90791

MiamiNice
2024-12-23, 16:54:51
und 1,4 kW pro GPU

Haben will :D
Kann man darauf Crysis spielen?
nö :freak:
So etwas bitte mal als Gamer GPU.

Radeonfreak
2024-12-23, 17:05:54
"...und bis zu 1.440 PetaFLOPS Leistung (FP4 Tensor Core Sparse)"

Hat die 4090 nicht schon 1.2 PF FP4 Leistung oder sollen das 1440 Petaflops sein. :confused:

basix
2024-12-23, 17:09:25
Die 1440 PFLOPS FP4 Sparse gelten für GB200 NVL72, also 72x GB200: https://www.nvidia.com/de-de/data-center/gb200-nvl72/

00-Schneider
2024-12-23, 17:17:11
Bandwidth per SM:

10.5 GB/s - 5090 -> 24.576 SM
11.4 GB/s - 5080 -> 10.752 SM
7.9 GB/s - 4090 -> 16.384 SM



Wenn man da die Milchmädchenrechnung aufmacht ala` "Bandwidth per SM" * "SM" müsste die 5090 ~doppelt so schnell sein wie die 4090, wenn wir von einem zu 100% bandbreitenlimitierten Szenario ausgehen. Wenn wir die ähnliche Rechnung für die 5080 machen ist diese nur ganz knapp hinter der 4090.

BlacKi
2024-12-23, 21:19:56
Wenn man da die Milchmädchenrechnung aufmacht ala` "Bandwidth per SM" * "SM" müsste die 5090 ~doppelt so schnell sein wie die 4090, wenn wir von einem zu 100% bandbreitenlimitierten Szenario ausgehen. Wenn wir die ähnliche Rechnung für die 5080 machen ist diese nur ganz knapp hinter der 4090.


richtig. aber das wird eben, je nachdem, durch die shaderskalierung und möglicherweise diesmal durch das powerlimit nicht mit der bandbreite gehen.


ich tippe auf 60-80% avg performance + von der 4090 kommend.


das loch zwischen der 5080 und 5090 wird riesig sein. upselling in extremform.

Altehardware
2024-12-24, 06:08:53
Aktuelle gpu leiden unter einen sehr starken cpu limit eibzig pathtraibng spiele können das mal nicht haben und dann sieht man die echten abstände zwischen den sku deutlich
das muss aber in nativ gemach5 werden mit ausreichend vram die bandbreite indes ist bei 1,0tb/s kein problem. selbst auf 2160p nicht da wird die Mehrleistung einer gpu mit gddr7 nix bringen.
Hier greift pure shader perf.
Die rtx5090 hat 170sm bei 2,7ghz das dürfte sicher sein womit diese grob +25% schneller wird sofern kein cpu limit greift, was aber zu befürchten ist. Der 9800x3d schafft es gerade die rtx4090 auszulasten auf 2160p

Cpu limit allgemein ist ein Wichtiges Thema das uns noch Jahre beschft8igen wird daher sehe ich aktuell maximal kleine Sprünge in mid class kommen von 5-15% und erst bei der neuen arch von amd 2027 und intel 2028 deutliche Sprünge kommen.
Zumal uns a18 node +25% Takt blüht und es noch unklar ist wie man die nächsten cpu und gpu plant mcm bietet sich an mit 3d cpu und gpu.

Dabei kann man von kleinen chips reden bis zu 64sm a256alu bis 3,0ghz mit 256bit Si oder von 96sm a256alu mit 128bit+512bit hbm4 bei 5,0ghz als monolith
beides lässt sich umsetzen
nvidia wird definitiv die Ur tesla arch auf 32bit basis nicht ändern das Problem aktuell sind die cpu's da muss mehr ipc her.
Bis dahin dürfte der Fokus PT sein. das aber nur bedingt brauchbar ist siehe Ue5 Spiele die massiv unter cpu limits leiden oder die anderen spiele die an der SSD Bandbreite scheitern.
Abhilfe schafft hier nur ne neue cpu arch. das weis amd und nvidia auch daher stagniert die gpu perf. in mid class und in high end dürfte der Fokus eher ai sein.


Nach zen5 launch der meh war und die zen5 x3d eher ok sind ist der Zuwachs an ipc in games grob 15% vs dem Vorgänger. Das ist zu wenig um mit einer rtx5090 mit knapp 80tf/117tf anzukommen
Intel hat nicht geliefert und ist trotz neueren Node schlechter als der Vorgänger dafür aber ohne potenziellen Fehler.
Der Nachfolger panther lake ist unklar ob dieser am desktop kommt und danach ist völlig offen da beast lake quasi cancel ist
zen6 ist in guten bahnen und dürfte neben der n3 Takt plus +15% am I/o deutliche Verbesserungen bekommen.

zen7 oder anderen Namen wird ne neue arch und heftige perf. Zuwächse haben von min 70% kann man ausgehen ab 2027 (+15% und +25% Takt mit n2 +a18 node rest ipc vom design)

Das dies So kommt ist sicher da man keine Wahl hat es läuft auf apu hinaus und da muss neben dem SI auch die cpu ipc massiv steigen

Relex
2024-12-24, 10:17:15
Nvidias Antwort auf CPU Limits war Frame Generation. Ich schätze, das Pferd wird man auf jeden Fall weiter reiten, denn praktisch ist es ja auch alternativlos.

Ich meine, was sollen sie sonst machen? Wenn die Performance zunehmend durch CPUs limitiert wird, muss man sich eben was anderes einfallen lassen und das beste draus machen.

Frame Gen ist auch ein einfach zu implementierender Workaround und einfacher, als weitere Aufgaben auf die GPU auszulagern. (was neue APIs und damit viel Zeit und extra Aufwand für Entwickler bedeutet)

Blase
2024-12-24, 10:33:17
Jahrelang hieß es, wir sind in 4K GPU limitiert. Und nun plötzlich ist CPU Limitierung ein großes Thema :freak: Ja was denn nun :tongue:

Wobei man das Plus an GPU Leistung jederzeit problemlos in ein Plus an Qualität stecken kann. Je nach Mehrleistung fährt man ausschließlich DLSS noch im Qualitätsmodus - oder lässt es gleich weg und spielt nativ. Und wenn richtig viel über ist, kommt DSR dazu :cool:

Und ja, FG ist da auch noch ein Thema. Wir haben genügend Optionen und Regler zum Feintuning :up:

MfG Blase

Troyan
2024-12-24, 10:40:28
Mit Upscaling läufst du ja zwangsläufig wieder ins CPU-Limit. Gehen Spiele viel mehr in Richtung Raytracing, steigt auch fast proportional die CPU-Last.

Nativ zu spielen ist nice 2 have.

Blase
2024-12-24, 11:07:02
Natürlich. Ich war gedanklich aber eher bei Titeln, wo du DLSS noch benötigst, um überhaupt auf annehmbare Frameraten zu kommen. Einem CP oder AW2 mit jeweils gemaxten Settings und so. Habe die Werte nicht im Kopf, aber ein CPU Limit ist zumindest in diesen Titeln in weiter Ferne, oder?

MfG Blase

Troyan
2024-12-24, 11:10:01
In beiden Spielen mit Pathtracing liegt das CPU-Limit irgendwo bei 100 FPS. Eine 5090 mit DLSS Performance sollte schon wieder ins CPU-Limit.

BlacKi
2024-12-24, 11:50:53
Aktuelle gpu leiden unter einen sehr starken cpu limit eibzig pathtraibng spiele können das mal nicht haben und dann sieht man die echten abstände zwischen den sku deutlich
das muss aber in nativ gemach5 werden mit ausreichend vram die bandbreite indes ist bei 1,0tb/s kein problem. selbst auf 2160p nicht da wird die Mehrleistung einer gpu mit gddr7 nix bringen.
Hier greift pure shader perf.
Die rtx5090 hat 170sm bei 2,7ghz das dürfte sicher sein womit diese grob +25% schneller wird sofern kein cpu limit greift, was aber zu befürchten ist. Der 9800x3d schafft es gerade die rtx4090 auszulasten auf 2160p

Cpu limit allgemein ist ein Wichtiges Thema das uns noch Jahre beschft8igen wird daher sehe ich aktuell maximal kleine Sprünge in mid class kommen von 5-15% und erst bei der neuen arch von amd 2027 und intel 2028 deutliche Sprünge kommen.
Zumal uns a18 node +25% Takt blüht und es noch unklar ist wie man die nächsten cpu und gpu plant mcm bietet sich an mit 3d cpu und gpu.

ja, es gibt hier und da wenn du spielst eine cpu limit.


aber nun zeig mir mal reviews, wo cpu limit ein thema is.



computerbase bietet auch 5k benchmarks, dort ist die 4090 avg 38% schneller. und in den spielen, wo die 4090 am schlechtesten ggü. der 4080 performt, schafft die karte in 1440p mindestens 139fps wo es in 5k nur noch 82 sind.


der einfluss bei computerbase in 5k ist minimal bis kaum vorhanden.



es war schon immer so, das man sich seine benchmarks gut raussuchen muss, und mit der 5090 muss CB eben in 6-8k benchmarks durchführen und mit ner neuen cpu benchchen.



ich sehe da überhaupt keine probleme cpu seitig für die 5090.

Relex
2024-12-24, 11:57:01
Ja, bei Cyberpunk an den Marktständen mit vielen NPCs ist die CPU Last in Kombination mit RT/PT sehr hoch.

Ne aktuelle High End CPU schafft da zwar trotzdem hohe FPS, aber mit ner 5090 ist man da je nach DLSS Setting garantiert sehr schnell wieder voll im CPU Limit.


Es ist halt generell sinnvoll, die Framerate mit Upscaling bis nahe des CPU limits zu treiben (gerade mit künftig immer besserem Upscaling ja quasi ein no-brainer) und den Rest der Frames lässt man dann einfach via Frame Gen bis zur maximalen Bildwiederholfrequenz des Displays auffüllen für verbesserte Bewegtbildschärfe.


Somit limitiert das CPU limit praktisch noch, welche Eingabelatenz man hat, aber nicht mehr, wie viele FPS man erreichen kann oder wie flüssig die Bildausgabe ist. Ich seh das definitiv als großen Gewinn.



Ich denke in zukunft wird man über Framerates ganz anders denken als heute. heute sagt man sich "120 FPS reichen ja locker". Eigentlich ja, aber wenn wir über 4K Displays mit 240 Hz oder künftig 480 oder noch viel mehr Hz sprechen, und es irgendwann Standard ist, sich mit FG einfach die Frames bis so und so viel Hz auffüllen zu lassen, dann werden wir uns so schnell an die Bildqualität und bewegtbildschärfe gewönen, dass wir irgendwann über 120 Hz noch noch lachen werden.
Ich bin ziemlich sicher, dass das eines der Zugpferde für die nächsten Jahre wird und ich glaube/hoffe ja immernoch, dass mit Blackwell zumindest die Frame Gen performance deutlich verbessert wird. Frame Gen mit 2 oder mehr Bilder wäre dann der nächste Schritt, aber ich vermute, dass er noch nicht mit Blackwell kommt.

00-Schneider
2024-12-24, 11:58:08
aber ein CPU Limit ist zumindest in diesen Titeln in weiter Ferne, oder


Jeder Titel, bei denen die 4090 Probleme hat, bei Max Settings mindestens 60fps zu erreichen hat ein klares GPU-Limit.

CPU-Limit gibt es maximal wenn man Settings/Auflösung runterschraubt, weil man Richtung 120fps gehen will.

The_Invisible
2024-12-24, 13:25:36
Wird sicher wieder einige influenzer dullis geben die sowas wie CPU Limit nicht checken und dann Meldungen raushauen das eine 5090 doch nicht so schnell ist. Kannst Gift darauf nehmen. ;-)

Altehardware
2024-12-24, 14:09:31
dann beleg das mal mit nenn capframex Diagramm wo gpu busy und gpu load dargestellt sind
Die fps sagen nix aus wichtig ist der abstand zur rtx4080 wenn dieser kleiner als 40% ist ist es definitiv ein cpu limit vorhanden.
Das sieht man deutlich in 2160p sehr oft.
ich kenne nur drei spiele die ansatzweise ne rtx4090 auslasten mit nenn r7 9800x6d
alan wake 2 PT Modus 2160p nativ
indy jones tgc hardware dxr 2160p nativ
outlaws pt 2160p nativ
Da aber kein mag diese games ohne upscaler testen sieht man das oft nicht die fps sind entsprechend gering da Pt ordentlich reinhaut.
Man kann noch bm wukong dazunehmen das aber ist nicht konsistent. Ingame verhält sich das ganz anders als im benchmarktool
cyberpunk 2077 ist es ähnlich vs dem gameplay das oft cpu limitiert ist ist der benchmark nicht vergleichbar.
ich habe ne rtx4070 und eine 60% langsamere cpu und bin oft im cpu limit bis auf die paar ausnahmen
Wieviel ein 9800x3d vs 3800xt schneller ist dürfte das mit den 70% gut hinkommen
zen 2 vs zen 3 +15%+ zen3 vs zen4 +15% +Takt und zen5 +10% + Takt und + cache 20% +-70%
Takt bei mir 4,25ghz Takt zen3 4,0ghz (5700x3d) zen4 4,9ghz zen5 5,2ghz
meine gpu ist aber um faktor3 langsamer 22,5tf vs 63tf Bandbreitenlimit schließe ich aus da es auf 1080p läuft da braucht kein spiel diese Bandbreite selbst auf 1440p sind mehr als 400gb/s völlig ausreichend.
Bandbreite wird erst Thema wenn ein spiel mehr als 6gb an einen frame braucht das ist quasi ausgeschlossen (ein frame mal 3 im vram geladen = 18gb)
An dem punkt sind spiele noch nicht da dafür auch die vram Bestückung abseits der high end sku keiner hat. Und selbst wenn sind dann 1008gb/s völlig ausreichend da spiele nie diese Bandbreite brauchen selbst in nativ 2160p gerendert wird wo dann 20gb/s vram voll sind. eher limitieren dann die rop (176 2,7ghz = 60fps)
Darum ist es ja so unverständlich weswegen nvidia auf 512bit Si geht das bringt nix. Wichtiger wäre die rop zu verdoppeln auf effektiv 384
Aber das bringt solange nix wenn keine neue cpu arch die drawcalls auch bereitstellen könnte.

Wo mehr Bandbreite hilft wäre bei ai workflows den da kann man nicht genug Bandbreite und vram haben.
Das gleiche gilt für Profi rendering etwa bei Filmproduktion wo keine Echtzeit notwendig ist.

Die üblichen per frame vram Belegung liegt bei 1080p 3,0-4,0gb bei 1440p 3,5 bis 4,5gb und 2160p bei 4,0 bis 5,0gb
Das ist inklusive Transferdaten über den pcie link zum ram.
ja die vram Debatte ist richtig für entry und mid class aber nicht in high end.

also ja das cpu limit kann ich definitiv bestätigen auf ner rtx4090 und der 9800x3d schafft es gerade noch diese mit pt wohlgemerkt auszulasten alles andere ist im cpu limit.
Woran erkenne ich das
tbp 450w und 99% load

In meinen fall sind es 200w tbp und 99% hatte ich bisher nur in einen benchmark
ich hoffe auf nenn Wechsel zum 5700x3d das dies Geschichte ist aber der trend sagt klar vielleicht die übliche gpu load bei mit 50-65% könnte klappen mit dem x3d cache.

Das gute daran man spart Strom

BlacKi
2024-12-24, 14:21:38
Die fps sagen nix aus
die fps alleine sagen nichts aus. das verhältnis zwischen den fps in verschiedenen benchmarks aber sehr wohl.


schau dir mal die benchmarks zu ghostwire tokyo an. 170fps in 1440p 55 fps in 5k. performance unterschied zwischen 4080 4090 29%.


da ist kein cpu limit vorhanden in 5k. und trotzdem skaliert hier die 4090 nicht wie sie soll.

Hübie
2024-12-24, 22:14:06
Ich lasse hier mal den Hinweis da, dass es nicht ganz unwichtig ist, welches Seitenverhältnis genutzt wird bzw. um welches Field of View es sich handelt. In der Computergrafik von Spielen ist das obere Drittel eher weniger rechenintensiv (Skybox), als die unteren zwei Drittel. Ein Bildschirm mit 5120 x 1440 Pixeln hat zwar annähernd so viel Pixel wie einer mit 3840 x 2160, muss aber viel mehr Geometrie, Texturfilterung, Schatten etc. darstellen, weil man einfach seitlich noch viel mehr rendern muss.

00-Schneider
2024-12-25, 09:10:07
GeForce RTX 5070
PG146/147-SKU70
GB205-300-A1
6144FP32
192-bit GDDR7 12G
250W

GeForce RTX 5070 Ti
PG147-SKU60
GB203-300-A1
8960FP32
256-bit GDDR7 16G
300W

https://x.com/kopite7kimi?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E187177497874572 9061%7Ctwgr%5E%7Ctwcon%5Es1_&ref_url=

robbitop
2024-12-25, 09:19:10
Ich hoffe die SMs sind jetzt deutlich mächtiger ansonsten sieht der Performancefortschritt mau aus.

horn 12
2024-12-25, 09:22:08
Dies wird sowieso der Standard sein beim Blackwell Lineup
mit Ausnahme der 5090

Mayk-Freak
2024-12-25, 10:37:06
Ein PCB der RTX 5090 wahrscheinlich.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-pcb-leak-reveals-massive-gb202-gpu-package

dildo4u
2024-12-25, 10:48:02
Ich hoffe die SMs sind jetzt deutlich mächtiger ansonsten sieht der Performancefortschritt mau aus.
Ist TDP nicht ein Hinweis auf hohem Takt?
GDDR7 sollte nicht mehr brauchen als GDDR6x.

y33H@
2024-12-25, 11:00:42
Dann hätten alle Datacenter-GPUs ja immense Taktraten ;-)

Lurtz
2024-12-25, 11:21:05
Also Mittelklasse bis hoffentlich etwa 550€ bleibt dann AMD vorbehalten (lel, als ob, die werden auch wieder Geforce-ähnliche Preise haben wollen), bei nVidia kann man für mindestens 900€ dann etwas am Highend schnuppern. Die 5090 läuft mehr denn je außer Konkurrenz und verkauft aus Sichtweise der anderen Karten etwas das früher zukünftigen Generationen vorbehalten gewesen wäre ;D

Und natürlich werden sich Nvidias VRAM Krüppel zumindest in bestimmten Weltregionen dennoch wieder super verkaufen. Vielleicht erklärt man ja sogar, dass VRAM wegen advanced AI jetzt komplett unwichtig geworden ist und bleibt für immer bei 8 GB :uup:

aufkrawall
2024-12-25, 11:32:21
Am besten deinstalliert die neue Nvidia App einfach Nicht-Unreal-Spiele. :biggrin:

dildo4u
2024-12-25, 11:38:25
Kann man das AI Textur Upsampling nicht nutzen um die Qualität zu erhalten aber Vram zu sparen wenn das in DLSS integriert ist wird es sehr interessant.

basix
2024-12-25, 11:47:47
Ein PCB der RTX 5090 wahrscheinlich.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-pcb-leak-reveals-massive-gb202-gpu-package

Geil! :D

Kann man das AI Textur Upsampling nicht nutzen um die Qualität zu erhalten aber Vram zu sparen wenn das in DLSS integriert ist wird es sehr interessant.

Das wird nicht funktionieren, wenn du von NTC sprichst (https://research.nvidia.com/labs/rtr/neural_texture_compression/assets/ntc_medium_size.pdf). Die Source-Textur muss im entsprechenden Format komprimiert werden, das dauert ein paar Minuten. Zur Runtime läuft nur die Dekompression / Decodierung.

Oder sprichst du von dem, was es in Remix gibt? Dort gibt es einen AI Textur Upscaler. Das ist aber auch nichts, was zur Runtime ausgeführt wird.

dildo4u
2024-12-25, 11:53:54
Also könnte man medium Texturen nutzen und gucken ob sie High erreichen.

dargo
2024-12-25, 11:58:18
Ist TDP nicht ein Hinweis auf hohem Takt?

Nö... nicht unbedingt, viele SM brauchen auch viel Energie.

dildo4u
2024-12-25, 12:10:58
Stimmt hängt vom Modell ab 5070 angeblich nur+ 256 Cuda Cores zur 4070.
Da finde ich die +50 Watt happig.

Der_Korken
2024-12-25, 12:15:31
Zwischen der 5070 und 5070Ti tut sich schon eine ordentliche Lücke auf. Die 5070Ti sieht mit 300W sogar ganz gut aus dafür dass sie 40% mehr SMs und 33% mehr SI hat. Klar wird das entsprechend über den Takt geregelt, da die 5080 mit gleichem Chip, gleichem SI und nur 20% mehr SMs direkt 33% mehr TDP hat, aber dafür bekommt man augenscheinlich bei der 5070Ti "mehr Hardware" fürs Geld als bei den anderen Modellen. Ich hoffe auf 799$, befürchte aber 999$ :usad:

dildo4u
2024-12-25, 12:17:18
AMD spielt vermutlich nicht über der 5070 daher rechne ich mit 850€ für die TI.

Genau diese Preise.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=9816_03+05+17+-+RTX+4070+Ti+SUPER

BlacKi
2024-12-25, 12:24:45
die 70ti ist eine geschnippelte 5080. 800€ sind viel zu wenig. ich tippe auf 899-999$, da wohl nur +-15% leistung fehlen.

Der_Korken
2024-12-25, 12:26:38
AMD spielt vermutlich nicht über der 5070 daher rechne ich mit 850€ für die TI.

Genau diese Preise.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=9816_03+05+17+-+RTX+4070+Ti+SUPER

Ich schätze mal, dass eine 5070 auf 4070S-Niveau rauskommen wird, da sie zwar 15% weniger SMs hat, dafür aber mehr Takt durch 250W statt 220W und 30-40% schnelleren VRAM. Laut CB-Benches liegt die 4070S knapp vor der 7900GRE.

Die 4070TiS fängt theoretisch zwar bei 850€ an, aber dafür nur die ganzen "Noname"-Modelle, die ich nicht einschätzen kann. Dual-Fan und/oder Dual-Slot ist bei knapp 300W Verbrauch nicht ernst zu nehmen in Bezug auf Lautstärke. Bei den restlichen findet man entweder wenig Infos oder Bewertungen, die von schlechter Lüftersteuerung, minderwertigen Lüftern oder störenden Spulenrasseln schreiben. Die guten Modelle, die entsprechend reviewed werden, kosten dann jenseits der 1000€. Bei AMD kann man die Modelle von Sapphire und Powercolor fast immer blind kaufen und die sind auch nicht so viel teurer als andere Customs.

dildo4u
2024-12-25, 12:35:09
Wenn wirklich 100 Watt gegenüber 5080 gespart wird kann man natürlich an der Karte sparen sehe da wenig Grund nur die teuersten Modelle ins Auge zu fassen.

Altehardware
2024-12-25, 12:43:36
mit 48sm bei der rtx5070 wid man stillstand haben da diese genau gleich shcnell wäre wie die rtx4070 bei 50w mehr da sieht man das der sf4 node genutzt wird.
Womit dann die rtx506ti 38sm hat und duie rtx5060 28sm
Das ist mehr als enttäuschend.
60 class +15% 165w +-13tf ab 399€
60ti class +10% 220w +-17,8tf ab 519€
70class +-0% 250w +-22,5tf ab 669€
erst ab der rtx5070ti 300w +17% ab 950€

Es war richtig das ich noch die rtx4070 gekauft habe
ich ahne aber das nvidia bei vram ein Kompromiss gemacht hat den 8gb wären quasi doa
Daher mein verdacht auf 60class 64bit 4gb gddr7 und 64bit ddr5 camm2 Modul 8gb
60ti dasselbe
70 nur gddr7

Linmoum
2024-12-25, 12:51:40
mit 48sm bei der rtx5070 wid man stillstand haben da diese genau gleich shcnell wäre wie die rtx4070 bei 50w mehr da sieht man das der sf4 node genutzt wird.Wusste gar nicht, dass die Performance sich nur über Shader definiert und die Perf/SM immer gleich bleibt. Wieder was gelernt.

Altehardware
2024-12-25, 13:27:00
nun das liegt daran das nvidia seit ampere das design nicht geändert hat und wie es scheint auch bei blackwell nicht.
Das ist es strikt Takt und nvidia nutzt ein 32bit design daher sind mehr als 2 operationen per clock nicht drin.
ich hatte gehofft das man die sm Struktur ändert dafür sind aber die chipgrößen zu klein dafür daher sehe ich frühestens mit rubin 2027 ein design Änderung mit n3 node kommen aber das wird nur noch high end sein.
ob nvidia überhaupt ein gr205 bringt ist unklar die Tendenz liegt bei nein den das ist abhängig ob samsung bis dahin noch gibt.
Gut möglich das nvidia zu intel geht und das ist ne Wundertüte wie deren node läuft.
Sicher ist ohne mcm wird nvidia keine kleinen chips hinbekommen das warum liegt am Si entweder man geht voll auf hbm oder baut 3d stack gpu in mcm
Monolithen sind ab n3 node in kleinen Ausbaustufen nicht möglich der Ausweg mit gddr7 40gbps geht wegen der Kapazität nicht
16gb wären min notwendig ab 2027 18gb möglich an eine 96bit si aber dann kämen min 40$ chip auf 90$ vram preis das macht jede Kalkulation für entry zunichte
Der hybrid Ansatz könnte gehen würde aber massiv Bandbreite kosten wenn nur 32bit gddr7 und 64bit camm2 16gb Modul dran wären und das mit 19gb mit nur 224gb/s
Das erwürgt jede gpu und gddr7 50gbps werden wir nicht sehen das geht schlicht nicht gddr8 dürfte auch noch weit weg sein. eher so 2030 rum mit zu rechnen
Also es führt kein weg herum zur apu und gestapelten chips wo das Si unter dem alu Anteil liegt. Die alternative ist hbm4 mit 1024bit Si das frisst nur ein zehntel der chipfläche vs gddr Anbindung da weniger analog Anteil notwendig ist
Die Technik hat amd und kommt mit dem Nachfolger der strix Serie am desktop mit faktisch 80cu 256bit Si, das ist sicher nur das wann ist noch offen ich gehe fest von am6 release aus also ab 2027

um auf design zurückzukommen nun die Konservative Meinung ist das nvidia mit rubin die doppelte alu per sm gehen wird das ist mit n3 problemlos machbar und in high end lohnt sich das auch.
Dann erst steigt die ipc per sm ums doppelte an.
Blackwell ist quasi ada refresh auf sf4 und n4 node mit einen gpc umbau auf 18sm vs 12sm das aktuell ist

Mandalore
2024-12-25, 14:17:46
nun das liegt daran das nvidia seit ampere das design nicht geändert hat und wie es scheint auch bei blackwell nicht.
Das ist es strikt Takt und nvidia nutzt ein 32bit design daher sind mehr als 2 operationen per clock nicht drin.
ich hatte gehofft das man die sm Struktur ändert dafür sind aber die chipgrößen zu klein dafür daher sehe ich frühestens mit rubin 2027 ein design Änderung mit n3 node kommen aber das wird nur noch high end sein.
ob nvidia überhaupt ein gr205 bringt ist unklar die Tendenz liegt bei nein den das ist abhängig ob samsung bis dahin noch gibt.
Gut möglich das nvidia zu intel geht und das ist ne Wundertüte wie deren node läuft.
Sicher ist ohne mcm wird nvidia keine kleinen chips hinbekommen das warum liegt am Si entweder man geht voll auf hbm oder baut 3d stack gpu in mcm
Monolithen sind ab n3 node in kleinen Ausbaustufen nicht möglich der Ausweg mit gddr7 40gbps geht wegen der Kapazität nicht
16gb wären min notwendig ab 2027 18gb möglich an eine 96bit si aber dann kämen min 40$ chip auf 90$ vram preis das macht jede Kalkulation für entry zunichte
Der hybrid Ansatz könnte gehen würde aber massiv Bandbreite kosten wenn nur 32bit gddr7 und 64bit camm2 16gb Modul dran wären und das mit 19gb mit nur 224gb/s
Das erwürgt jede gpu und gddr7 50gbps werden wir nicht sehen das geht schlicht nicht gddr8 dürfte auch noch weit weg sein. eher so 2030 rum mit zu rechnen
Also es führt kein weg herum zur apu und gestapelten chips wo das Si unter dem alu Anteil liegt. Die alternative ist hbm4 mit 1024bit Si das frisst nur ein zehntel der chipfläche vs gddr Anbindung da weniger analog Anteil notwendig ist
Die Technik hat amd und kommt mit dem Nachfolger der strix Serie am desktop mit faktisch 80cu 256bit Si, das ist sicher nur das wann ist noch offen ich gehe fest von am6 release aus also ab 2027

um auf design zurückzukommen nun die Konservative Meinung ist das nvidia mit rubin die doppelte alu per sm gehen wird das ist mit n3 problemlos machbar und in high end lohnt sich das auch.
Dann erst steigt die ipc per sm ums doppelte an.
Blackwell ist quasi ada refresh auf sf4 und n4 node mit einen gpc umbau auf 18sm vs 12sm das aktuell ist


Woher willst du das wissen, dass sich bei Blackwell im Vergleich zu Ada oder sogar Ampere nichts geändert hat?

Edgecrusher86
2024-12-25, 14:32:45
Ein PCB der RTX 5090 wahrscheinlich.
https://videocardz.com/newz/nvidia-geforce-rtx-5090-pcb-leak-reveals-massive-gb202-gpu-package

Deutlich über 30 Phasen total - das ist schon ne Ansage bei der PCB Größe und dem Sockel des grob 744mm² GB202-Ungetüms. (y):freak:
Mal sehen, wie man die Standard TGP setzt - ich tippe mal auf 550W. Dann wäre bei 600W max PT 109% drinnen und wenn man den Standard voll ausreizen würde (660W) maximal 120% PT.

horn 12
2024-12-25, 15:07:49
Wie schnell werden laut Altehardware dann die Karten von NV
5070 bis 5090

Rechne die 5070 TI beerebt die 4080 Super
und 5080 nur 15 bis 20% über der 4080 Super

Frühsommer bis Juli 2025 dann eine 5080 TI welche schneller als 4090 wird

y33H@
2024-12-25, 15:42:49
Ich halte es für fraglich, dass Nvidia den GB202 derart kastriert, aber schauen wir mal.

robbitop
2024-12-25, 16:11:54
80ti wird es wahrscheinlich (siehe Ada) nicht geben. Kein Zugzwang

horn 12
2024-12-25, 18:11:41
Doch, 5080 Refresh nur mit mehr Speicher und höherem Takt und mehr SM
Sollten locker Gute 15 bis 25% drinnen sein zur 5080

Edgecrusher86
2024-12-25, 18:23:58
Wenn eine RTX 5080 Ti kommt, dann frühstens bis Sommer 2026 - die Lücke ist schon so gewaltig, da passt z.B. auch noch eine SKU für 1500-1600 Dollar MSRP mit 128SM und 384-bit plus 24GB hinein.

BlacKi
2024-12-25, 20:25:11
kommt wohl nur, wenn amd was auf die kette bekommt. und das darf angezweifelt werden.

Der_Korken
2024-12-25, 20:35:02
kommt wohl nur, wenn amd was auf die kette bekommt. und das darf angezweifelt werden.

Daran glaubt offenbar auch Nvidia nicht, sonst hätten sie zwischen GB102 und GB103 nicht so eine große Lücke gelassen. Eine 5080Ti lässt technisch nicht sinnvoll realisieren, da man dazu einen sauteuren GB102 verwursten und irgendwas um die 40% der Recheneinheiten abschalten müsste. Da die 5090 bereits ein Salvage ist, dürfte ein so krass beschnittener Chip die Yields nur unwesentlich erhöhen, sodass eine 5080Ti abgesehen vom kleineren Speicher und einfacheren Board keinen Kostenvorteil gegenüber der 5090 hätte. Wenn es nochmal eine 5090D geben sollte, dann erst recht nicht.

y33H@
2024-12-25, 21:22:35
Eher kommt eine RTX 5090 Super/Ti ^^

Edgecrusher86
2024-12-25, 21:27:47
Es mag auch sein, dass so ein Cut auch zum Beispiel als RTX 5000 Blackwell mit 48GB kommt - für nur 4999-5999 $/€. 128/192SM wären 67%. ;)

Die RTX 5000 Ada hat 100/144SM aktiv (69%), sowie 256-bit und 32GB.
Da ist also für genug Marge gesorgt. :)

AffenJack
2024-12-25, 21:50:37
Ich halte es für fraglich, dass Nvidia den GB202 derart kastriert, aber schauen wir mal.

Die 5090 ist im Vergleich zur 4090 zu wenig beschnitten, um alle Dies zu verwerten. Dazu die erhöhte Die-Size, einen Salvage davon wird es definitiv geben. Die Frage ist nur, ob wir den im Consumerbereich sehen oder es Nv ausreicht den nur im Pro Bereich zu bringen. Hängt am Ende bestimmt auch am Yield.

TheGood
2024-12-25, 23:10:08
Ich hoffe die SMs sind jetzt deutlich mächtiger ansonsten sieht der Performancefortschritt mau aus.
Bei AMD wäre das ein Fail, bei Nvidia ist es mau. Finde den Fehler :D Aber hat ja bei der letzten Generation auch schon TOP funktioniert.

Hübie
2024-12-25, 23:11:09
Ich hoffe die SMs sind jetzt deutlich mächtiger ansonsten sieht der Performancefortschritt mau aus.

Genau genommen skalieren die SM nur über den Takt. Hoffe mal lieber, dass das davor und dahinter besser wird. Das was wir im MSI Afterburner und Co sehen, ist im Grunde nur die Rate an Instruktionen, die noch angenommen werden können.

BlacKi
2024-12-26, 00:09:53
Genau genommen skalieren die SM nur über den Takt. Hoffe mal lieber, dass das davor und dahinter besser wird. Das was wir im MSI Afterburner und Co sehen, ist im Grunde nur die Rate an Instruktionen, die noch angenommen werden können.


sm skalieren auch über die anzahl und die auslastung.

Altehardware
2024-12-26, 00:30:06
Da amd rdna5 canned hat wird nvidia nix tun bis 2027 zum rubin launch
Das was im Januar bis März kommt bleibt bis dahin
perf. ist relativ geringer Zuwachs
rtx5060 +15% sf4 node 165w
rtx5060ti +10% 220w
rtx5070 +-0% 250w zur vanilla
rtx5070ti +15% zur super n4 300w (Effizienteste sku)
rtx5080 +10% zur super 400w
rtx5090 +25% 500w

amd indes wird mit der rtx4070ti konkurrieren nvidia hat nix zwischen den sku abseits eol produkten
oder kurz
amd geht nvidia aus dem Weg
perf. fürn eu
1 rx8600xt 299€ +- 13tf äka rx7600xt ersatz
2 rx8700 549€ +- 22,4tf
3 rx8700xt 629€ +- 28,5tf
4 rtx5070 599€ +- 22,5tf
5 rtx5070ti 929€ +- 36,9tf

Während ada sich dann abverkauft daru hab ich mich ja fürn ada sku entschieden da es langsam klar wurde das sich nix ändert und die P/L quasi Stillsteht und man nicht mal mehr vram bekommt und amd meh abliefert.
Das gute die dxr perf. liegt bei vollen n48 bei grob rtx4070 super lvl das ist ok lediglich die tbp passt mir nicht bei amd es deutet sich an das man für 56cu grob 270w braucht da man ans maximum oc, ab werk gibt 3,4ghz sind möglich
Wieso es keine sku mit 64cu gibt weis nur amd

robbitop
2024-12-26, 07:47:44
Bei AMD wäre das ein Fail, bei Nvidia ist es mau. Finde den Fehler :D Aber hat ja bei der letzten Generation auch schon TOP funktioniert.
Verstehe ich nicht. Ada und RDNA3 waren deutlich schneller als ihre Vorgänger. Mau … fail. Ja für mich das gleiche.

OgrEGT
2024-12-26, 08:02:02
(...)
Wieso es keine sku mit 64cu gibt weis nur amd
Wie kommst du darauf dass es keine 64CU SKU von N48 geben wird?

Edgecrusher86
2024-12-26, 10:57:35
4090 - 88,8% aktive SM
5090 - 88,5% aktive SM

Kein wirklicher Unterschied.
Mal schauen, wie man sich entscheidet.

15-20% über der RTX 5080 könnte man noch ein Modell bringen, ohne die 5090 zu gefährden.

Die Frage ist, ob man es macht oder halt als zum Beispiel RTX 5000er mit zum Beispiel 48GB VRAM bringt, was natürlich locker den Preis um 3000€/$ gegenüber einer möglichen "RTX 5080 Ti" erhöht.


E: Neues Foto - dieses Mal bestückt. Foto 1 Quelle, Foto 2 Upscaled. Interessant, dass der Rahmen extrem breit ist und etwa die Hälfte des Sockels ausmacht.

E2: Nochmal das Foto von gestern - bissl klarer.

https://steamuserimages-a.akamaihd.net/ugc/63711481626371574/6188CA0C895574325B637EE42D164366DB238705/
https://steamuserimages-a.akamaihd.net/ugc/63711481626374359/6DB36C47768C26B6FA601E84E09D61C6FDD5636D/
https://steamuserimages-a.akamaihd.net/ugc/63711481626375603/EE96B84E06B6AF33CBB1E098EC2F123F09C1D022/

OgrEGT
2024-12-26, 14:53:53
Somit dürfte die Mär der 2 "zusammengeklebten" GB203 Dies nun zu Ende erzählt sein... Wenn das Bild authentisch ist, dann ist das immer noch ein Monolith...
Hier der Link zur News auf VC:
https://videocardz.com/newz/nvidia-gb202-300-gpu-and-gddr7-memory-for-geforce-rtx-5090-leaked

...744mm2

BlacKi
2024-12-26, 15:18:46
falls du auf mich anspielst, ich habe die möglichkeit in erwägung gezogen, gb202 könnte monolitisch 2x gb203 sein. das bild selbst widerlegt das zumindest nicht.

Altehardware
2024-12-26, 15:25:58
Sicher wird es erst wenn einer so ne chip mal auf schleifen würde
Wer mal locker 2900€ rumliegen hat der vermutete preis einer rtx5090.
Hab vergessen das trump 40% steuern auf die importe setzt sprich wenn die aib den us preis nehmen für Eu wirds hier richtig teuer.
ich gehe aber fest von nenn Monolithen aus das passt zur Größe

BlacKi
2024-12-26, 16:02:36
natürlich ist das monolitisch. aber die frage ist, kann man aus derselben belichtung eines gb202 wafers auch gb203 chips herstellen, indem man einfach einen 202er in der hälfte teilt? wenn man das in der entwicklung mitbeachtet könnte das möglich sein und man spart sich sehr viel R&D für einen gb203 chip spart.

nordic_pegasus
2024-12-26, 18:44:24
im HWLuxx wurde über den Artikel auf wccftech (https://wccftech.com/nvidia-amd-rushes-ship-out-next-gen-gpus-to-avoid-trump-tariffs/) diskutiert, wonach wohl Nvidia sehr bemüht ist, möglichst viele 5090 noch vor dem 20. Januar in die USA zu bekommen weil danach massive Preiserhöhungen wegen Strafzöllen für Produkte aus China erwartet werden. Es wird von ca. 40% Preisaufschlag gesprochen.

Mal zum Verständnis: natürlich würde dann zunächst kaum Ware nach Europa gelangen, darum werden die mutmaßlich geringen Stückzahlen zum Launch in Deutschland quasi sofort weg sein... und dann bei eBay landen zum x-fachen Preis.

Aber was passiert, wenn wirklich der Preis für neue Chargen in den USA ab Februar in die Höhe schnellt. Wird danach nicht die Nachfrage einsacken, weil weniger Käufer bereit sein werden, diese Preise zu bezahlen? Wird dann nicht mehr Angebot für Europa schlagartig verfügbar sein. Wird auch der Preis in der EU steigen? Wenn ein AIB in China/Taiwan sitzt, betreffen dann auch Produkte für den EU-Markt die Strafzölle für Importe in die USA? Ich würde vermuten, dass eine Inno3D 5090 für den europäischen Markt nicht durch die USA transportiert, gleiches gilt doch wohl für die Bauteile. Das wird alles in Asien hergestellt und mutmaßlich in China zusammengefügt.

Wer soll sich den Spaß abseits von ein paar schmerzbefreiten Freaks noch leisten? -> Leute, welche die Karte produktiv nutzen wollen. Genau hier liegt für mich die Krux im Erfolg von Nvidia. Seit der Krypto-Blase und jetzt mit dem AI-Boom werden Gaming-Karten zweckentfremdet. Das mag bislang noch sehr lukrativ für Nvidia gewesen sein, aber irgendwann wird zwangsläufig ein Kipppunkt erreicht werden, ab welchem zu viele Enthusiasten aus der Preisspirale aussteigen.

MSABK
2024-12-26, 18:50:41
Ist der Kundenkreis der 5090 eh nicht klein? Ich denke dieser Kundenkreis ist nicht so sensibel was den Preis betrifft, sonst würden sie ja paar Klassen tiefer kaufen. Ob da am Ende $2400 oder $3000 stehen, wird in diesen Sphären für den Käufer keine Rolle spielen.

The_Invisible
2024-12-26, 18:56:04
4090 liegt bei Steam bei 1% und noch vor jeglicher dedizierten Radeon

nordic_pegasus
2024-12-26, 19:55:55
4090 liegt bei Steam bei 1% und noch vor jeglicher dedizierten Radeon

und damit ist die 4090 wahrlich kein Exot. Ohne 4080Ti und der Enttäuschung um RDNA3 hat Nvidia perfektes Upselling betrieben. Dazu noch die Preisgestaltung der ursprünglichen 4080, welche erst durch die 4080Super einigermaßen attraktiv wurde.

Mit der mutmaßlich riesigen Lücke zwischen zwischen 5080 zur 5090 und dem kompletten Fehlen von Konkurrenz wäre eine 5090 für viele Enthusiasten eine Option, sofern der Preis nicht komplett abhebt.

Aber zurück zu meiner Frage: wenn in die USA wirklich Strafzölle kommen, wird das auch die Preise in der EU beeinflussen? Wird ein Preisschock durch Zölle die Nachfrage in den USA abflachen lassen und dann mehr Angebot nach Europa kommen?

Der_Korken
2024-12-26, 20:20:18
Aber zurück zu meiner Frage: wenn in die USA wirklich Strafzölle kommen, wird das auch die Preise in der EU beeinflussen? Wird ein Preisschock durch Zölle die Nachfrage in den USA abflachen lassen und dann mehr Angebot nach Europa kommen?

Unter der Annahme, dass die fertig verpackten Karten keinen amerikanischen Boden passieren müssen, sondern direkt von Asien nach Europa geliefert werden, würde ich zumindest erstmal keine Probleme mit EU-Preisen erwarten. Ob man daraus direkt eine höhere Verfügbarkeit oder gar niedrigere Preise für Europa erwarten kann, glaube ich eher nicht. Nvidia wird aufgrund der höheren Preise einfach in den USA weniger verkaufen (ggfs. auf Margen verzichten, um den Zollaufschlag etwas abzufedern) und entsprechend weniger Produktion für die USA einplanen. Afaik wurde schon mehrmals gesagt, dass die ganzen AI/HPC-Produkte durch HBM- und advanced packaging aber nicht durch den Wafer-Durchsatz von TSMC limitiert werden. Das würde also bedeuten, dass Nvidia das Angebot an 4000er Karten jederzeit hätte erhöhen können, sich aber bewusst für ein knappes Angebot zu hohen Preisen entscheiden habe. Daher glaube ich nicht, dass die Trump-Zölle ein Vorteil für europäische Kunden sind.

Wenn die fertigen Karten als Zwischenprodukte einmal durch die USA müssen, wäre es natürlich eine Katastrophe für jegliche HW-Preise bei uns.

wolik
2024-12-26, 20:23:52
4090 liegt bei Steam bei 1% und noch vor jeglicher dedizierten Radeon

Jeder hundertste Spieler hat einen 4090. 3090 jeder 200 Spieler. Sehr, sehr viele.
5090 wird sehr schwer zu bekommen.

Hübie
2024-12-26, 20:28:49
Ganz locker bleiben. Es werden immer mehr AIB Vendors von China nach Malaysien abwandern bzw. parallel an mehreren Standorten produzieren. Ich würde alles für die USA in Malaysia fertigen lassen und für den Rest der Welt in China.

Passend dazu--> https://www.channelnewsasia.com/asia/malaysia-china-companies-move-manufacturing-facilities-semiconductors-trade-war-4282471

Wer investiert, der sollte Malaysia im Blick behalten. ;) Nur so als Tipp...

Langlay
2024-12-26, 20:32:52
Unter der Annahme, dass die fertig verpackten Karten keinen amerikanischen Boden passieren müssen, sondern direkt von Asien nach Europa geliefert werden, würde ich zumindest erstmal keine Probleme mit EU-Preisen erwarten.

Wenn die Karten da nur für den Transit durchmüssen, muss da nicht zwingend Zoll drauf kommen. Ich weiss nicht wie die Regelung in den USA ist, aber in D wäre der reine Warentransit von z.b. Land A über Deutschland nach Land B Zollfrei.

OgrEGT
2024-12-27, 07:34:58
falls du auf mich anspielst, ich habe die möglichkeit in erwägung gezogen, gb202 könnte monolitisch 2x gb203 sein. das bild selbst widerlegt das zumindest nicht.
Eigentlich nicht...
Aber wie soll das genau gehen wenn GB203 84/84 SMs im Vollausbau haben soll im Gegensatz zu 170/192 bei GB202 wobei GB203 in 7GPCs (7x6x2) und GB202 aber in 12GPCs (12x8x2) organisiert sein soll? Selbst wenn das stimmig wäre wie und wo genau werden die GB202 in 2xGB203 auf dem Wafer getrennt? GB202 müsste dann einige Chipteile doppelt haben...

BlacKi
2024-12-27, 09:33:33
GB202 müsste dann einige Chipteile doppelt haben...richtig

AffenJack
2024-12-27, 09:52:05
richtig

Deshalb hab ich an solchen Lösungen auch große Zweifel. Die Waferkosten sind so hoch, dass selbst 10mm2 bei den Stückzahlen von Nvidia zu hohe Kosten verursacht und es sind eher mehr, was man an overhead hätte.

Entwicklungskosten sind für AMD und Intel das Problem, aber nicht für Nvidia. Die wollen maximale Marge und deswegen nix doppelt.

basix
2024-12-27, 10:17:23
Ein zusätzlicher Chip kostet auch viel in der Entwicklung und der Yield nimmt mit steigender Chipgrösse ab. Ein bisschen Overhead kann man sich mit Chiplets also leisten.

Für Nvidia macht es aber nicht so viel Sinn, ja. Sie haben die Stückzahlen und insbesondere GB202 kann aufgrund Top Dog Status sowie Einsatz im professionellen Umfeld für viel Geld und ansprechenden Stückzahlen verkauft werden. Schwieriger wird es für Chip N-1 darunter, wenn nicht entsprechend bepreist. Hat man an der RTX 4080 gut gesehen. Die hatte nicht den Top Dog Status und da das P/L nicht besser wie bei der RTX 4090 war, hat sie sich auch nicht gut verkauft.

Chiplets werden für Consumer-GPUs erst dann interessant, wenn man den "Common Anteil" aus dem Chip rauslöst. Also Display & Video Engines, PCIe usw. in ein eigenes Chiplet verfrachtet. Dann hat man die unnötige Verdopplung dieser Chipteile nicht. Dort kann man auch einen günstigeren Node verwenden. AMD hat Chiplets bei RDNA3 etwas anders gelöst, ich denke aber nicht dass dies langfristig der richtige Weg ist.

Matrix316
2024-12-27, 10:39:03
1400$ für die 5080??? Ich hoffe mal nicht.

7r2iBhxDhEM

MiamiNice
2024-12-27, 10:52:00
Ich hätte tatsächlich damit gerechnet, dass die 5080 den Preis der 4090 bekommt. Wenn die 5090 um 3000€ kosten soll, ist es nur logisch das die 5080 massiv im Preis steigt.

basix
2024-12-27, 10:58:24
Miami wieder mit "so viel kosten soll" :rolleyes:

Niemand weiss, wie viel die Dinger kosten werden. Wir werden es wissen, wenn Nvidia die Karten vorstellt.

1400 USD wären bei der 5080 eine Frechheit. GB203 wird vermutlich etwas kleiner als AD103 sein und bei 16GByte bleiben. Eine 4080S wird für 999$ angeboten (und hat auch kein super prickelndes P/L). Wer soll da die 5080 kaufen?

Matrix316
2024-12-27, 11:00:01
Ich hätte tatsächlich damit gerechnet, dass die 5080 den Preis der 4090 bekommt. Wenn die 5090 um 3000€ kosten soll, ist es nur logisch das die 5080 massiv im Preis steigt.
Aber das ist doch Bullshit. Nach der Logik kostet die 6080 dann 2000 oder 3000$. :freak:

Man kann doch nicht den Nachfolger einer Kategorie zum Preis der nächsten Kategorie anbieten. Das wäre so wie wenn der neue Golf zum Einstiegspreis des alten Passats kommen würde. Totaler Humbug. Wer soll sich das noch leisten?

Oh Mann AMD! Kommt aus den Puschen und bringt vernünftige High End Hardware zum vernünftigen Preis! :freak:

dildo4u
2024-12-27, 11:03:10
NV wird seine alten Karten nicht Wertlos machen 4070 TI Super sind 800€.
Alles unter 1.4K für die 5800 wäre erstaunlich.

https://i.ibb.co/3r2DrrL/Screenshot-2024-12-27-105955.png (https://ibb.co/dWFdWWz)

https://www.techpowerup.com/review/gpu-test-system-update-for-2025/3.html

MiamiNice
2024-12-27, 11:03:33
Meiner Meinung nach fällt die 5090 für Gamer raus, also wird die 5080 zur Enthusiast Karte. Im Prinzip erwarte ich, dass alle Karten ein Preisschild nach oben purzeln. Durch das ganze Portfolio wohlgemerkt.

Matrix316
2024-12-27, 11:07:36
NV wird seine alten Karten nicht Wertlos machen 4070 TI Super sind 800€.
Alles unter 1.4K für die 5800 wäre erstaunlich.

[...]

Wieviel MSRP hatte die 3080 noch mal? Und wie schnell war die im Vergleich zur 2080Ti die wie viel gekostet hat?

Mehr als eine 4080 Super darf die 5080 einfach nicht kosten. Selbst wenn sie schneller als eine 4090 wäre. Sie SOLLTE eigentlich schneller als eine 4090 sein und weniger kosten. Das ist der Sinn von technologischem Fortschritt. Mehr Leistung für weniger Geld. Nicht mehr Leistung für mehr Geld. Das ist keine Kunst. Das ist ABZOCKE.:mad:

BTW.: Man könnte auch einfach den Preis der 4070TI Super auf 500 Euro senken. Das wäre angemessen. Und eine 4080 Super kann man für 700 anbieten. Dann kann man die 5080 für 1000 rausschicken. Und selbst DAS sind eigentlich Preise die viel zu teuer sind. Viel viel viel viel zu teuer. Eine 970 - und das ist noch gar nicht so lange her - kostete mal 350 Euro oder so und die 980 499? Oder 599? Die 980TI dann 750. Da müssen wir mal wieder hin. Selbst inflationsbereinigt passt der aktuelle Preis nicht dazu, oder?

dildo4u
2024-12-27, 11:21:47
Der Markt wird sich diese Generation neu einordnen NV hat keine Konkurrenz zur 5080, alles da drunter wird wesentlich bessere Preise haben.

4080 ist gefloppt da man argumentieren konnte das die 7900XTX mithalten kann.
Was sich mit der Zeit ändert wenn Games RT voraussetzen siehe Indiana Jones,Avatar,Star Wars Outlaws) etc

Das ist ohne! die Nvidia Features RTX DI etc.

https://i.ibb.co/9c72xZP/Screenshot-2024-12-27-112015.png (https://ibb.co/sbZQTW7)

https://www.pcgameshardware.de/Geforce-RTX-4090-Grafikkarte-279170/Tests/5090-Preview-MAX-OC-Benchmarks-Watt-3-GHz-1461957/3/

BlacKi
2024-12-27, 11:25:21
Da müssen wir mal wieder hin. Selbst inflationsbereinigt passt der aktuelle Preis nicht dazu, oder?
tolle forderung. nur unrealistisch. zur normalen inflation kommen noch die deutlich gestiegenen anforderungen um die leistungssteigerungen die wir noch haben zu erreichen, die alles deutlich teurer machen.

und dann kommt das sahnehäubchen AI boom noch obendrauf.

wenn der AI boom nicht da wäre, dann würde eine 5090 trotzdem 1500€ kosten, falls nv noch geringe gewinne machen wollte, was zwingend notwendig ist, damit die firma existieren und weiter fortschritte machen kann.

den AI boom kann niemand in einer freien marktwirtschaft aufhalten, er kann sich nur selbst zerstören. deshalb ist die diskussion über die grafikkartenpreise müßig. die gesellschaft scheint die entwicklung so zu wollen.

robbitop
2024-12-27, 11:30:03
AI ist nicht nur das Sahnehäubchen. Nvidia macht um Größenordnungen mehr Umsatz mit AI als Gaming und kann da richtig fette Margen abgreifen. AI ist aktuell einer der Hauptgründe für die hohen GPU Preise.
Und AI ist gekommen um zu bleiben. Das kann langfristig nur der Markt lösen. Mehr Nachfrage -> mehr Halbleiterkapazität bis zum Punkt der Sättigung. Bei der Nachfrage wird das allerdings dauern.

MiamiNice
2024-12-27, 11:30:39
Das ist ABZOCKE.:mad:

Ist NV für etwas anderes bekannt als Abzocke?

Exxtreme
2024-12-27, 11:33:17
Das ist keine Kunst. Das ist ABZOCKE.:mad:


Nein, ist es nicht. Das ist ein Angebot, welches man ablehnen kann.

basix
2024-12-27, 11:33:30
Nvidia soll ja recht zügig alles von 5060 Ti 16GB bis 5090 bringen (Januar/Februar). Die werden alle Karten von 4060 Ti 16GB bis 4090 ablösen. Ist also ziemlich egal, was die RTX 40 Karten heute kosten. Die RTX 50 Karten werden ja nicht gleich doppelt so schnell wie die Vorgänger, sondern ca. 20...30% schneller sein bei vermutlich in etwa gleichen Preisen. Hier die Preise der Vorgänger zu reduzieren ist mit Abstand am sinnvollsten, man will die ja aus den Lagern loswerden. Nur die 5090 ist da etwas aussen vor, die wird vermutlich mehr als 30% schneller werden und auch einen deutlichen Preisaufschlag bekommen.

RTX 40xx SKU|MSRP||RTX 50xx Nachfolger|MSRP
RTX 4090|1599$||RTX 5090 (32 GB)|hier wird es einiges teurer werden
RTX 4080 Super|999$||RTX 5080 (16 GB)|1099$
RTX 4070 Ti Super|799$||RTX 5070 Ti (16 GB)|849$
RTX 4070 Super|599$||RTX 5070 (12 GB)|599$
RTX 4060 Ti 16 GB|499$||RTX 5060 Ti (16 GB)|479$
||||
RTX 4060 Ti 8 GB|399$||RTX 5060 Ti (12 GB)|429$
RTX 4060 8 GB|299$||RTX 5060 (12 GB)|349$
RTX 4060 8 GB|299$||RTX 5050 (8 GB)|249$

dildo4u
2024-12-27, 11:44:59
4080S sind noch nicht abverkauft die 4090 bekommt man hingegen nicht unter 2k.
Eine 5080 für 1100€ sehe ich nicht.

https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&bl1_id=30&xf=132_16384~9816_03+05+17+-+RTX+4080+SUPER&sort=eintr#productlist

Die Realität ist das eine 5080 für 1400€, 4090 Performance weit unter 2k holt.

basix
2024-12-27, 11:47:00
Halt halt, 1100$ ist der MSRP. Also in USD und vor Steuern.

dildo4u
2024-12-27, 11:50:58
Und nicht vergessen 4080S sind 320 Watt, 5080 400 das Board und der Kühler sollten deutlich aufwändiger sein.

basix
2024-12-27, 11:54:07
Das sind die max. TBP Zahlen. Die 4090 hatte auch schon 600W und ist dann bei 450W gelandet. Die 4080 wird auch >320W als max. Board Power aufweisen.

Matrix316
2024-12-27, 11:55:34
Nein, ist es nicht. Das ist ein Angebot, welches man ablehnen kann.
Kann man nicht, wenn man mehr Performance will.

Performance ist das einzige was zählt. Bei einem neuen Golf kann man sagen: Hol ich mir den alten, der ist gebraucht billiger. Beide werden auf der Straße ähnlich schnell fahren. Da geht es mehr um Bequemlichkeit und etwas weniger Verbrauch. Grafikkarten (und CPUs) müssen aber zwingend mehr Leistung bringen - und die will man auch haben, weil das ist ihr einziger Zweck.

Gerade weil neue Games so fordernd sind ist Leistung das allerwichtigste. Und das wollen wir ja auch: Bessere Grafik, schnellere Grafikkarten und CPUs. Mehr bieten die Komponenten ja auch nicht. Wenn die Leistung stagniert, braucht man nicht upgraden.

Sardaukar.nsn
2024-12-27, 12:07:52
4080S sind noch nicht abverkauft die 4090 bekommt man hingegen nicht unter 2k.
Eine 5080 für 1100€ sehe ich nicht.

https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&hloc=pl&hloc=uk&hloc=eu&bl1_id=30&xf=132_16384~9816_03+05+17+-+RTX+4080+SUPER&sort=eintr#productlist

Die Realität ist das eine 5080 für 1400€, 4090 Performance weit unter 2k holt.

Meine 4090 ging im Dezember für gute 1,7k an den zweiten Besitzer. Hole ich mir für 1-1,4k eine 5080 mit ähnlicher Leistung, frischer Garantie und evtl. neuen Features wäre ich fein raus.

AffenJack
2024-12-27, 12:10:17
Ein zusätzlicher Chip kostet auch viel in der Entwicklung und der Yield nimmt mit steigender Chipgrösse ab. Ein bisschen Overhead kann man sich mit Chiplets also leisten.


In Bezug auf Chiplets hast du natürlich recht, da kommen mehr Parameter dazu. Mir ging es um den Doppelchip den BlacKi beschrieben hat, den man für GB203 nur zersägt. Da hat man nur die Entwicklungskosten alsVorteil und schleppt mehr Ballast beim Big Chip mit.
Bei Chiplets habe sich das dann doch Yield evtl auf

Hatstick
2024-12-27, 12:11:54
nVidia kann die 5080 viel besser bei 1400$ positionieren, als die 4080, weil wir jetzt optional den Sweetspot der 5070Ti 16GB für "nur" um die 1000€ zu Release der 5000er bekommen.
Da erscheint die 5080 gar nicht mehr so viel teurer zu den 70er Karten und nVidia wäre blöd, wenn sie das nicht abschöpfen würden.

basix
2024-12-27, 12:21:55
Bei der 4060 (Ti) vs. 5060 (Ti) wird es noch interessant werden. Die 5060 könnte die SKU werden, die den grössten Performance-Sprung hinlegen wird (neben der 5090).

Die 4060 Ti sieht arg bandbreitenlimitiert aus. Die ist im CB-Index in 1080p nur 1.22x schneller als die 4060, trotz 34 vs. 24 SM (1.42x). Das liegt vermutlich daran, dass AD107 als auch AD106 128bit sowie 32MB L2$ aufweisen. Verwendet die 5060 Ti nun 28Gbps GDDR7, steigt die Bandbreite um 1.55x gegenüber der 4060 Ti mit 18Gbps. Das heisst, die 5060 Ti sollte überproportional an Performance zulegen können. Ich vermute ~4070 Performance oder leicht darüber (in 1080p). Mit aktiviertem Raytracing dürfte der Performance-Sprung gegenüber der 8GB Variante noch grösser sein
Die 5060 wird vermutlich ~30 SM tragen. Das ist eine gute Steigerung gegenüber den 24 SM bei der 4060. Die 4060 sollte ein gutes Stück überhalb der 4060 Ti landen. Hier würde bei 12GB der Performance-Sprung mit Raytracing ebenfalls noch grösser ausfallen.
Die 5050 wird wohl auf ~4060 Niveau landen. 20 SM vs. 24 SM sowie (meine Speku) 16MB vs. 32MB L2$ sollten den Chip einiges kleiner werden lassen. Der halbierte L2$ wird vom GDDR7-Bandbreitensprung kompensiert.


5060 und 5060 Ti dürften mit 12/16GB also richtig gute Karten werden. Ich hoffe, die Preise werden verglichen mit den 8GB Vorgängern nur moderat steigen.

In Bezug auf Chiplets hast du natürlich recht, da kommen mehr Parameter dazu. Mir ging es um den Doppelchip den BlacKi beschrieben hat, den man für GB203 nur zersägt. Da hat man nur die Entwicklungskosten alsVorteil und schleppt mehr Ballast beim Big Chip mit.
Bei Chiplets habe sich das dann doch Yield evtl auf
Der Yield wird auch bei einem Doppelchip-Konstrukt besser sein. Man kann nur die Doppelchips zu 5090 machen, die keine entsprechenden Defekte aufweisen.

Und die Entwicklunskosten für den grösseren Chip entfallen ebenfalls. Klar, ein funktionierendes Chiplet-Design benötigt ebenfalls Aufwand aber vermutlich weniger als ein zusätzlicher Chip. Es fallen auch die Lithographie-Masken etc. weg, welche in die Millionen gehen.

Unter dem Strich dürfte ein Doppelchip-Konstrukt trotz redundanten und zusätzlichen Chipteilen eher günstiger sein. Das dürfte Nvidia aber egal sein, da sie eh sehr hohe Preise verlangen können. Und ein Single-Chip ist performancetechnisch den meisten Dual-Chip Designs überlegen (max. Performance, Energieeffizienz) solange man nicht über das Reticle Limit rausgeht oder verschiedene Nodes mixt und 3D-Stacking betreibt (Performance- und/oder Kosten-Verbesserungen).

Edgecrusher86
2024-12-27, 12:26:39
NVIDIA GeForce RTX 5090 is confirmed to
be equipped with 32GB GDDR7 memory.
TGP (Total Graphics Power) is 600W, and
is expected to adopt a 16 +6 +7 Phase power
supply design. Except for models below
200W, it is unclear whether the 12V-2x6
connector will be introduced, including
GeForce RTX 5070, RTX 5070 Ti, RTX 5080,
RTX 5090 D and RTX 5090. [..]
The exposed PCB can also confirm that the
GeForce RTX 50 series graphics cards
have entered the PCle 5.0 gold finger design.
Although we have already confirmed that
the GeForce RTX 50 series of Blackwell GPU
architecture will introduce the PCle 5.0
specification; in addition, our news also
confirms that NVIDIA GeForce RTX The
number of PCB layers used in the 5090 is
14.
- Benchlife (translation)

29 Phasen und 14 Layer PCB also per Default - schwere Geschütze. ^^

https://videocardz.com/newz/nvidia-geforce-rtx-5090-to-feature-1667-power-design-and-14-layer-pcb

dildo4u
2024-12-27, 12:27:37
Bei der 4060 (Ti) vs. 5060 (Ti) wird es noch interessant werden. Die 5060 könnte die SKU werden, die den grössten Performance-Sprung hinlegen wird (neben der 5090).

Die 4060 Ti sieht arg bandbreitenlimitiert aus. Die ist im CB-Index in 1080p nur 1.22x schneller als die 4060, trotz 34 vs. 24 SM (1.42x). Das liegt vermutlich daran, dass AD107 als auch AD106 128bit sowie 32MB L2$ aufweisen. Verwendet die 5060 Ti nun 28Gbps GDDR7, steigt die Bandbreite um 1.55x gegenüber der 4060 Ti mit 18Gbps. Das heisst, die 5060 Ti sollte überproportional an Performance zulegen können. Ich vermute ~4070 Performance oder leicht darüber (in 1080p). Mit aktiviertem Raytracing dürfte der Performance-Sprung gegenüber der 8GB Variante noch grösser sein
Die 5060 wird vermutlich ~30 SM tragen. Das ist eine gute Steigerung gegenüber den 24 SM bei der 4060. Die 4060 sollte ein gutes Stück überhalb der 4060 Ti landen. Hier würde bei 12GB der Performance-Sprung mit Raytracing ebenfalls noch grösser ausfallen.
Die 5050 wird wohl auf ~4060 Niveau landen. 20 SM vs. 24 SM sowie (meine Speku) 16MB vs. 32MB L2$ sollten den Chip einiges kleiner werden lassen. Der halbierte L2$ wird vom GDDR7-Bandbreitensprung kompensiert.


5060 und 5060 Ti dürften mit 12/16GB also richtig gute Karten werden. Ich hoffe, die Preise werden verglichen mit den 8GB Vorgängern nur moderat steigen.




Das heißt nur das die Dinger zu teuer werden 350 und 450 sind wahrscheinlich.
Aber absehbar 5050 mit 8 GB dann 250.

Matrix316
2024-12-27, 12:28:09
nVidia kann die 5080 viel besser bei 1400$ positionieren, als die 4080, weil wir jetzt optional den Sweetspot der 5070Ti 16GB für "nur" um die 1000€ zu Release der 5000er bekommen.
Da erscheint die 5080 gar nicht mehr so viel teurer zu den 70er Karten und nVidia wäre blöd, wenn sie das nicht abschöpfen würden.
Man hätte sich dann den ganzen Aufwand mit den 5er Karten auch sparen können. Labelt man die 4070TI in 5060 um, die 4080 Super in 5070TI und die 4090 in 5080 und behälst den Preis und schon haste deine neuen Karten. :ugly:

DAS sollte doch nicht der Sinn der Sache sein. :rolleyes:

basix
2024-12-27, 12:30:47
29 Phasen und 14 Layer PCB also per Default - schwere Geschütze. ^^

https://videocardz.com/newz/nvidia-geforce-rtx-5090-to-feature-1667-power-design-and-14-layer-pcb

Man bekommt für sein Vermögen wenigstens auch Highend HW ;)

Das heißt nur das die Dinger zu teuer werden 350 und 450 sind wahrscheinlich.
So etwas um den Dreh rum erwarte ich auch. Aber wenigstens hat man >8GByte und der Performance-Sprung sollte sich sehen lassen. Ist OK, es wären stimmige SKUs ohne Sollbruchstellen.

Falls die 5060 mit 8GB kommen sollte: wtf Nvidia....haltet die lieber +3 Monate zurück und bringt die mit 12GB raus und dazu eine 5060 Ti 12GB Variante neben der 16GB SKU.

Edgecrusher86
2024-12-27, 12:32:15
$1199 MSRP und faster than RTX 4090 könnte ich mir schon für die RTX 5080 vorstellen. Bei einer SUPER kann man das P/L Verhältnis ja bessern, indem man zum selben Preis 24GB anbietet - das sehe ich aber frühstens in H1/2026.

@basix: Auf jeden Fall. 😉

dildo4u
2024-12-27, 12:35:19
Wenn die aktuellen Preise nicht passen wäre die Super Refrech weit unter UVP gegangen was bisher nicht passiert ist.

4070 TI Super sind immer noch 840€+ UVP war 890€.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-rtx-4070-ti-super-test.86707/seite-5

Matrix316
2024-12-27, 12:35:27
$1199 MSRP und faster than RTX 4090 könnte ich mir schon für die RTX 5080 vorstellen. Bei einer SUPER kann man das P/L Verhältnis ja bessern, indem man für denselben Preis 24GB anbietet.

@basix: Auf jeden Fall. 😉
1200$ ja von mir aus, aber 1400 wie in dem Video berechnet, wären IMO viel zu viel. Da kommt ja noch steuer drauf und so und dann ist man plötzlich bei 1700 Euro im Laden für Palit und so oder 2000 Bei Asus Modellen die noch die Asus Steuer drauf bekommen. :freak: Für eine 80er Karte ist das einfach zu viel.

Edgecrusher86
2024-12-27, 12:37:08
Wobei $1199 MSRP ja hierzulande grob 1430€ inklusive sind.
Ja, manche 4080 (S) Customs sind schon böse - als Noctua Edition geht es dann in Richtung 4090 Gefilde.
Aber das wird wohl eh wieder so kommen, wenn wir jetzt 200-300 Aufpreis für gehobene Modelle mit einbeziehen.

E: Wenn es dumm kommt, dann wird halt schon die Basis grob dort landen, wo etwa die günstigen RTX 3090er Customs begonnen haben - bei 1600€+.

Ich vermute mal, dass man bei der RTX 5070 Ti $899 MSRP an setzt - also es auch Straßenpreise bis 1400€ inkl. geben wird (ROG STRIX OC und Co.).

dildo4u
2024-12-27, 12:38:56
Ebend wir bekommen wieder was krummes 1359€ oder so ein Unsinn.

Matrix316
2024-12-27, 12:47:18
Wobei $1199 MSRP ja hierzulande grob 1430€ inklusive sind.

Ja, manche 4080 (S) Customs sind schon böse - als Noctua Edition geht es dann in Richtung 4090 Gefilde.

Aber das wird wohl eh wieder so kommen, wenn wir jetzt 200-300 Aufpreis für gehobene Modelle mit einbeziehen.
Ehrlich gesagt nach Asus Nvidia Karten schau ich schon seit der 30er oder 40er Serie nicht mehr, weil die alle massiv viel zu teuer sind. Wenn eine TUF Karte plötzlich so viel kostet wie früher mal Strix... da sind fast alle Karten eine Klasse teuerer als sie sein sollten. Eine ASUS ROG Strix GeForce RTX 4070 Ti SUPER OC kostet aktuell noch bei Alternate 1159 Euro. Da bekomm ich quasi auch eine GIGABYTE GeForce RTX 4080 SUPER Gaming OC oder billigere 4080er Super für. Die Asus 5080 Strix wird dann wohl so 1800~2000 Euro kosten. ;)

basix
2024-12-27, 12:52:42
Ja die ASUS Karten sind relativ zu anderen AIBs zu teuer. Und beiten keine relevanten Vorteile.

Edgecrusher86
2024-12-27, 12:53:45
Ja, zu RTX 3090 Zeiten wollte ich ja zuerst am liebsten eine STRIX OC nehmen, aber naja. Zum Glück war die dann auch nicht lieferbar für 1899€.
Bei der RTX 4090 hätte ich gerne die AORUS MASTER gehabt - auch nicht lieferbar. Naja, der TUF OC aufschlag auf TUF Non-OC war dann mit 300€
auch absolut bekloppt, aber sie war halt lieferbar. Teuerste 45 MHz ever (+ 150W max. PT, die eigentlich auch nicht wirklich sinnvoll sind). xD

Ja, der Mehrwert hält sich nach oben doch arg in Grenzen.
Mehr als eine TUF OC oder GAMING OC bräuchte ich auch nicht mehr.

Es lohnt halt einfach nicht.

basix
2024-12-27, 13:07:09
War bei mir ähnlich. Die TUF OC hatte gute Reviews und war lieferbar. Hatte zuerst auch mit der Gigabyte Gaming OC geliebäugelt.

Dafür hat die TUF Spulenfiepen :D Das konnte man mit Framelimiter und UV zum Glück eingrenzen.

The_Invisible
2024-12-27, 13:10:22
Jo, die premium AIBs hatten diese Gen das meiste spulenfiepen. Boah irgendwie gar keine Lust bei den 50ern wieder die ganzen Reviews und Foren durchzugehen um die beste Karte zu finden :D

Angiesan
2024-12-27, 13:15:38
Ich verstehe die ganze Diskussion nicht so wirklich, es ist doch klar das bei einer immer noch vergleichsweise hohen Inflation und einem schlechten Dollar/Euro Wechselkurs der Preis steigen wird. Ich gehe davon aus, dass für die Ref-Designs der 5090 um die 2.499,- EUR aufgerufen werden und die Dicken OC Karten an die 3.000,- Euro kosten werden. Aber hey, dass ist ein Hobby und immer noch vergleichsweise billig und es wird ja keiner gezwungen auf eine 5080 oder 5090 aufzurüsten.

Ich habe das schon immer so gemacht und werde auch im Januar, sofern verfügbar, wieder das dicke Ding kaufen sofern es die 3k Marke nicht reisen wird, das ist das Budget was ich bereit bin dafür auszugeben. Sollte das nicht möglich sein, bleibe ich eben bei der 4090, ist ja nicht so , dass man damit nicht mehr spielen könnte wenn die neuen Karten vorgestellt werden. Ein Wechsel auf eine 5080 schließe ich aber vorerst aus, selbst wenn die etwas schneller rauskommen sollte. Die 24 GB Speicher der 4090 beruhigen halt und viel Strom kann man, sollten die kolportierten 400 Watt für die 5080 stimmen, auch nicht.

Macht euch doch keinen Kopp wir reden hier immerhin von Luxusgütern und die waren eigentlich, egal in welchem Bereich, noch nie billig und auch nie für die breite Masse gedacht. Wie mein Sohn vor 21 Jahren auf die Welt gekommen ist habe ich auch noch andere Sorgen gehabt obwohl ich auch in der Zeit gespielt habe, wäre da eine 90er nicht drin gewesen. Mann sollte aber auch nicht grandig werden nur weil es vielleicht diesmal nicht mit dem Topmodel aufgeht und andere Sachen Prio genießen, so ist das Leben eben und die Kugel dreht sich auch ohne 5090/80 weiter :wink:

Edgecrusher86
2024-12-27, 13:20:13
Ja, das stimmt - ich spiele zum Glück ja idR gar nur mit niedrigen 60 fps - SP oder ARPGs. Hatte zum Test mal MAFIA Remake ohne SYNC laufen bei 230 fps und 400W im Menü - das war dann ein Zikadenkonzert.
60% PT halbierte dann die Lautstärke bei immer noch 210 fps und grob 270W (mit noch alten 5960X OC). Nun ja, dann kam noch UV dazu und das niedrige fps Cap + G-SYNC und Ruhe war.
Der Kühler selbst und die Lüfterlautstärke sind ja ein Traum, aber wehe, es geht Richtung Vollgas, dann melden sich die Spulen gewaltig, wobei z.B. CP 2077 mit Overdrive Mode, DL-DSR + DLSS Q und 2,6 GHz @ 925mV noch relativ leise sind - bei 300-330W etwa.

Es wäre schön, wenn man das Problem angehen könnte - auch wenn ich persönlich eine GPU so nicht betreiben würde, vielleicht abseits erster Benchmarks. :D

Nun ja, Blackwell wird auf jeden Fall für das Erste ausgesetzt - die Frage ist halt später, ob vielleicht eine neue RTX 6090 oder eine gebrauchte RTX 5090. 4000-5000€ NP für eine Enthusiasten-Karte wären ja nicht so cool - aber ich habe lieber dicke Klopper und bei Bedarf Leistungsreserven für etwa PT. :freak:

Matrix316
2024-12-27, 13:25:08
Ich verstehe die ganze Diskussion nicht so wirklich, es ist doch klar das bei einer immer noch vergleichsweise hohen Inflation und einem schlechten Dollar/Euro Wechselkurs der Preis steigen wird. Ich gehe davon aus, dass für die Ref-Designs der 5090 um die 2.499,- EUR aufgerufen werden und die Dicken OC Karten an die 3.000,- Euro kosten werden. Aber hey, dass ist ein Hobby und immer noch vergleichsweise billig und es wird ja keiner gezwungen auf eine 5080 oder 5090 aufzurüsten.

Ich habe das schon immer so gemacht und werde auch im Januar, sofern verfügbar, wieder das dicke Ding kaufen sofern es die 3k Marke nicht reisen wird, das ist das Budget was ich bereit bin dafür auszugeben. Sollte das nicht möglich sein, bleibe ich eben bei der 4090, ist ja nicht so , dass man damit nicht mehr spielen könnte wenn die neuen Karten vorgestellt werden. Ein Wechsel auf eine 5080 schließe ich aber vorerst aus, selbst wenn die etwas schneller rauskommen sollte. Die 24 GB Speicher der 4090 beruhigen halt und viel Strom kann man, sollten die kolportierten 400 Watt für die 5080 stimmen, auch nicht.

Macht euch doch keinen Kopp wir reden hier immerhin von Luxusgütern und die waren eigentlich, egal in welchem Bereich, noch nie billig und auch nie für die breite Masse gedacht. Wie mein Sohn vor 21 Jahren auf die Welt gekommen ist habe ich auch noch andere Sorgen gehabt obwohl ich auch in der Zeit gespielt habe, wäre da eine 90er nicht drin gewesen. Mann sollte aber auch nicht grandig werden nur weil es vielleicht diesmal nicht mit dem Topmodel aufgeht und andere Sachen Prio genießen, so ist das Leben eben und die Kugel dreht sich auch ohne 5090/80 weiter :wink:

Aber es ist ein Unterschied ob Luxusgüter noch für jedermann zu bezahlen sind oder in Sphären abdriften die nur noch den oberen 10000 zugänglich sind. Die Zielgruppe Gamer ist doch nicht die gleiche Zielgruppe wie Ferraris und Porsche. ;)

Nur mal so aus Spaß, Geforce 980 aus 2014 MSRP 549$

549,00 USD aus dem Jahr 2015 sind heute noch 426,45 USD wert. 706,77 USD müssten aktuell aufgewendet werden, um den Gegenwert von 549,00 USD aus dem Jahr 2015 zu erhalten.

699 wäre inflationsbereinigt unser MSRP für eine aktuelle 5080. Vielleicht 749. Aber nicht 1199 oder 1399 oder sowas verrücktes.

The_Invisible
2024-12-27, 13:29:00
Gibt doch Karten für jedermann, keiner wird gezwungen eine 5080/5090 zu kaufen ;-)

basix
2024-12-27, 13:33:56
699 wäre inflationsbereinigt unser MSRP für eine aktuelle 5080. Vielleicht 749. Aber nicht 1199 oder 1399 oder sowas verrücktes.

Die Rechnung klammert aus, dass der Chip als auch VRAM effektiv teurer geworden sind. N4P kostet pro Quadratmillimeter mehr als N28 und VRAM wurde auch nicht 4x günstiger pro GByte. Auch wenn man die gestiegenen Kosten hinsichtlich Inflation bereinigt, bleibt es teurer.

Die 5080 sollte konsequenterweise auch mehr kosten als eine inflationsbereinigte GTX 980. 1200$ sind mMn aber eindeutig zu viel ;)

dargo
2024-12-27, 13:39:00
Gibt doch Karten für jedermann, keiner wird gezwungen eine 5080/5090 zu kaufen ;-)
Klar... so ein RTX 4080 Besitzer freut sich bestimmt wie Bolle über eine kommende RTX 5070. Auf so ein "Upgrade" hat der bestimmt gewartet. X-D

Angiesan
2024-12-27, 13:44:07
Mann kann auch unter einer 5080/90 nicht spielen? Und ja wer das Beste haben will zahlt eben den Premiumaufschlag, überall!

Nur mal so als Vergleich, eine Golf 2 GTI hatte einen Listenpreis von umgerechnet runden 14.000,- EUR, und war mit dem GSI von Opel der Topdog unter den kompakten Sportlern. Was kostet das Ding heute? - 45.600,- EUR da geht es los, ist eine Steigerung von über 300% und darüber gibt es noch den R da geht es dann noch mal heftiger zur Sache bezüglich des Preises, da geht es bei 54.900 EUR los:freak:. Das waren früher die Autos der jungen Wilden, welcher junge Mensch kann sich das heute leisten.....ah Leasing machts möglich.

@Dargo: Ein 4080 Besitzer muss aber auch nicht aufrüsten, da sind wir wieder beim Luxusproblem

Matrix316
2024-12-27, 13:44:41
Die Rechnung klammert aus, dass der Chip als auch VRAM effektiv teurer geworden sind. N4P kostet pro Quadratmillimeter mehr als N28 und VRAM wurde auch nicht 4x günstiger pro GByte. Auch wenn man die gestiegenen Kosten hinsichtlich Inflation bereinigt, bleibt es teurer.

Die 5080 sollte konsequenterweise auch mehr kosten als eine inflationsbereinigte GTX 980. 1200$ sind mMn aber eindeutig zu viel ;)

Also im Vergleich zu 2014 sollte VRAM aber mehr als 4x günstiger sein.

Nur mal so aus 2023

https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GDDR6-RAM-Spottpreis-8-GiB-27-US-Dollar-1421668/

Je nach Übertragungsrate dürfte es zwar noch weitere Unterscheidungen beim Preis geben, und auch Chips mit 16 Gibibit könnten beim Preis pro Kapazität leicht abweichen. Die Tendenz ist aber klar: VRAM ist so günstig wie lange nicht. Deutlich wird das insbesondere mit Hinblick auf die historischen Daten, die vom Reddit-Nutzer "Balance-" gesammelt und von 3D Center aufgegriffen wurden. Dort ist gut zu sehen, dass sich der Preis für entsprechende Speicherchips seit Februar 2022 von rund 13 US-Dollar auf die besagten 3,3674 US-Dollar reduziert hat. Mit Blick auf die Vergangenheit ist VRAM damit derzeit spottbillig.

Und im Vergleich zu 2014 muss ALLES doch deutlich billiger herzustellen sein. Oder die machen was falsch.

dildo4u
2024-12-27, 13:45:04
Klar... so ein RTX 4080 Besitzer freut sich bestimmt wie Bolle über eine kommende RTX 5070. Auf so ein "Upgrade" hat der bestimmt gewartet. X-D


Du meinst 3080?Niemand hat die für 700€ gekauft das korrekte Upgrade ist die 5070 TI Super ohne Gefahr das der Vram bis zur PS6 ausgeht.

https://i.ibb.co/WzdfcVL/Screenshot-2024-12-27-134737.png (https://imgbb.com/)

Matrix316
2024-12-27, 13:51:17
Du meinst 3080?Niemand hat die für 700€ gekauft das korrekte Upgrade ist die 5070 TI Super ohne Gefahr das der Vram bis zur PS6 ausgeht.
[...]
3080 ist eigentlich ein gutes Stichwort. Wir müssen gar nicht zur 980 zurückzugehen. 700 Euro für die 3080 waren mal gefordert. Das zeigte doch schon, dass die MSRPs der 40er Serie schon totaler Humbug waren.

Klar, wenn man jetzt eine 5080 für 700 Euro anbieten würde, würde die wie die 3080 genauso im Nirvana verschwinden und für viel mehr bei Ebay wieder auftauchen. Aber das heißt, nicht, dass man jetzt noch mehr verlangen sollte als wie für eine 4080 Super.

dildo4u
2024-12-27, 13:55:39
Die Namen sind komplett unwichtig sondern was du für das Geld bekommst.

dargo
2024-12-27, 13:55:59
@Dargo: Ein 4080 Besitzer muss aber auch nicht aufrüsten, da sind wir wieder beim Luxusproblem
Haha... deswegen wird auch von 4090 auf 5090 aufgerüstet weil man es nicht muss. :tongue:

Nimm von mir aus 4070 --> 5060. Das wird dann auch ein riesen "Upgrade". ;D Was ich damit sagen will... innerhalb eines vergleichbaren Preises und Powerbudgets wird eine neue Generation immer langweiliger. Da braucht es schon zwei bis drei neue Generationen.

Die Namen sind komplett unwichtig sondern was du für das Geld bekommst.
Viel zu wenig!

MiamiNice
2024-12-27, 13:58:08
Ja die ASUS Karten sind relativ zu anderen AIBs zu teuer. Und beiten keine relevanten Vorteile.

Möchte ich so, als Asus Käufer, nicht stehenlassen.
Asus hat, meines Wissens nach, als einziger Hersteller eine voll automatische Bestückungsanlage. Verbaut auf den dicken Karten immer beste Bauteile und, last but not least, immer das beste eigene Platinenlayout. Und der letzte Punkt wäre, nicht für jeden relevant, für die Asus Karten im Asus Layout bekommt man immer einen hochwertigen Wasserkühler.

dildo4u
2024-12-27, 13:59:52
Die Kleinen Nvidia Karten mit 16 GB sind super da DLSS Performance in 4k gut aussieht.
5060 TI sollte 1080p High 60fps in High- End Games schaffen davon kann man hoch skalieren.

Auch zu teuer aber ohne Konkurrenz da niemand DLSS bei der Verbreitung schlagen wird.

dargo
2024-12-27, 14:00:20
Möchte ich so, als Asus Käufer, nicht stehenlassen.
Asus hat, meines Wissens nach, als einziger Hersteller eine voll automatische Bestückungsanlage. Verbaut auf den dicken Karten immer beste Bauteile und, last but not least, immer das beste eigene Platinenlayout.
Schon klar... deswegen fiepen die Karten so gerne. :D