PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25

OgrEGT
2024-12-05, 06:43:53
https://videocardz.com/newz/seasonic-lists-unannounced-amd-radeon-rx-8800-xt-as-220w-graphics-card

Badesalz
2024-12-05, 07:29:32
Heißt? Anhand der 220W ist klar, daß es nicht gegen die 4080 reicht?

Der_Korken
2024-12-05, 07:35:16
Heißt? Anhand der 220W ist klar, daß es nicht gegen die 4080 reicht?

Würde ich sagen. Genauso wie GRE-Performance bei 260W absolut graupig wäre, wäre eine davon ausgehened 40% höhere Performance bei 20% weniger Verbrauch unrealistisch gut. Das wären etwa 60% mehr Perf/W gegenüber RDNA3 ohne Fullnode-Sprung. Von den 240 oder 270mm2, die mit 380mm2 von Nvidia gleichziehen sollen, ganz zu schweigen.

OgrEGT
2024-12-05, 07:37:53
Was das heißt sofern die Gerüchte zutreffen werden wir sehen... wenn es so kommt 220W mit 4080S RZ und RT Leistung dann wäre das eine prima Karte...

mboeller
2024-12-05, 07:42:59
Heißt? Anhand der 220W ist klar, daß es nicht gegen die 4080 reicht?

wenn's so kommt sollte es aber eine sehr gute Notebook GPU werden.
Von 220w -> 150w ist nur ein kleiner Schritt.

E39Driver
2024-12-05, 07:46:18
220 Watt mit 7900GRE Leistung wäre sehr sehr schlecht.

220 Watt mit 4080 Leistung wären sehr sehr gut aber imho unrealistisch

220 Watt mit 7900XT Leistung + etwas höhere RT-Leistung sind wohl realistisch

BlacKi
2024-12-05, 08:39:23
Ich bin nun ein Milchmädchen aber N33 ist knapp über 200mm² groß und den kann man einfach verdoppeln und dann den N4 Bonus hinzufügen. Ich will damit sagen, wenn ich alles linear skalieren, dann kann ein N48 unter 300mm² rauskommen und dabei N31 Performance erreichen, wahrscheinlich nicht in allen Situationen, weil irgendwann die Speicherbandbreite ausgeht.
Aber bei 1440P kann die GPU ganz nett sein.
all das wird an der speicherbandbreite verhungern. mit verhungern meine ich, wird nicht besonders gut skalieren. und auch die rechenleistung einfach zu verdoppeln skaliert nicht 1 zu 1.

dazu muss gesagt werden, das die xtx 2,77x schneller ist als die 7600xt.



also kann n48 garnicht die xtx in raster erreichen, n48 wird genauso wie die gre an bandbreite verhungern, nur etwas schneller. etwa +- 15% im schnitt, weil die speicherbandbreite 10% größer ist.

7900GRE-Performance wäre eine absolute Enttäuschung. Vor allem bei 260-270W. 10% Perf/W in über 4 Jahren Entwicklung mit einem Fullnode Vorsprung gegenüber der 6900XT. Holy shit, wär das übel. Dieses Leistungsniveau muss mit maximal 200W drin sein, sonst hätte RDNA4 selbst die Effizienz-Ziele von RDNA3 verfehlt und das mit über 2 Jahren zusätzlicher Entwicklungszeit.ich finde den vergleich nicht besonders gelungen. man muss das in relation sehen. die gre ist schon die effizienteste rdna3 karte und rdna4 hat einen kaum besseren prozess. 15% weniger power draw und 15% mehr performance gegenüber dem effizientesten rdna3 chip im kaum besseren fertigungsverfahren finde ich schon eine gute verbesserung.

DrFreaK666
2024-12-05, 08:46:45
...
220 Watt mit 7900XT Leistung + etwas höhere RT-Leistung sind wohl realistisch

Davon gehe ich auch aus.

w0mbat
2024-12-05, 14:46:17
Mit einer neuen Architektur gibt es immer einen größeren Spielraum. Ich gehe zwar auch nicht von 4080S Leistung aus, aber anhand der die size würde ich hier nichts deuten wollen.

Exxtreme
2024-12-05, 14:59:54
Wenn sich AMD an das Namensschema hält dann sollte man nicht mehr als eine RX7900XT erwarten, zumindest ohne RT nicht. Mit RT könnte es auf >RX7900XTX hinauslaufen. Es hängt natürlich auch davon ab, was das Ding kosten wird. Wenn es mehr als 600 EUR kostet dann könnte es zu teuer werden.

Altehardware
2024-12-05, 15:02:23
ich rechne mit 260w bei grob rx7900xt perf. sofern die ipc steigt ansonsten eher rx7900gre
gegenüber rx7900xt wären das +30% Effizienz oder +-0% effizienz
letztere ist anzunehmend a wie mit ps5 pro erwiesen hat diea rch nur gefixt wurde.
Die eignetliche perf. zuwachs sehe ich nur in dxr da amn mehr hardware einheiten verbaut doppelte tmu das bringt alleine grob 60% mehr dxr perf. per cu das Resultat ist n48 64cu grob rtx4070 super dxr perf. und etwa rx7900gre bis rx7900xt raster perf.
Diese angaben kursieren seit Monaten und dürften hinkommen bei jeden amd launch fährt der hyper Zug ab wie blöde, um dann zu enttäuschen.
Nebenbei rdna4 ist seit min 3 Monaten produktionsbereit die Verzögerung ist wegen dem Abverkauf gemacht worden und man spekulierte auf nvidia preisvorgaben nur hat nvidia selber den launch verzögert.
Jetzt müssen amd und nvidia quasi gleichzeitig die Hosen fallen lassen und nvidia hat meiner Ansicht nach zu hoch gepokert amd wird wenn die preise realistisch sind gewinnen lediglich die tbp könnte da paar Probleme machen.
Ideal wäre gewesen den n48 mit 48cu bei 180w zu bringen der kommt nicht +- rtx4070 lvl
Jetzt ist an knapp darüber mit 230w etwa gleich wie die rtx4070 super/rtx5070 bei gleichem verbrauch.
zwischen den n48 56cu und n44 32cu massiv oc 3,4ghz etwa rtx5060 rtx4060ti lvl die Lücke ist groß.
Da ich aber wie erwähnt bei meiner rtx4070 massiv cpu limits festgestellt habe macht diese Einschränkung sogar Sinn. Theoretisch von aktuell rtx4060 11tf auf rtx4070 22,5tf doppelt so schnell real sind es nur bei ner standard entry cpu r5 3600/ r5 5600 +50%
Abhilfe schafft da nur x3d mit den r7 5700x3d und am5 r5 7600x3d
Und es werden kaum Leute die ne rx8600xt oder rtx5060 kaufen eine 300€ cpu holen

Nakai
2024-12-05, 15:31:43
all das wird an der speicherbandbreite verhungern. mit verhungern meine ich, wird nicht besonders gut skalieren. und auch die rechenleistung einfach zu verdoppeln skaliert nicht 1 zu 1.

dazu muss gesagt werden, das die xtx 2,77x schneller ist als die 7600xt.



also kann n48 garnicht die xtx in raster erreichen, n48 wird genauso wie die gre an bandbreite verhungern, nur etwas schneller. etwa +- 15% im schnitt, weil die speicherbandbreite 10% größer ist.


Das ist mir alles sehr wohl bewusst und habe ich in meinen letzten Posts auch erwähnt.

Eigentlich ist hier alles gesagt worden. Ob eine GPU nun 10% schneller oder langsamer ist, interessiert den DAU eigentlich nicht. Eigentlich ist ein 10% Unterschied bei GPUs so extrem vernachlässigbar. Alles unterhalb 25% ist kaum ein disskussionswürdiger Unterschied. Sobald N48 in der Region einer 7900XT landet und bei Raytracing ein gutes Stück drüber, ist alles tip-top. Und dann hängt es von Gesamtpaket ab und da gibt es genug Indikatoren dass es nicht schlecht aussieht.

davidzo
2024-12-05, 16:33:26
220 Watt mit 4080 Leistung wären sehr sehr gut aber imho unrealistisch

220 Watt mit 7900XT Leistung + etwas höhere RT-Leistung sind wohl realistisch
Mit RT könnte es auf >RX7900XTX hinauslaufen.

Mit zusammengekniffenen Augen ist das beides doch sehr ähnlich. 4080 und 7900XT sind in Rasterizing weniger als 10% auseinander.

Bei RT allerdings sortiert sich die 7900XTX nur zwischen 4070Super und Ti ein und die 7900Xt kommt gerade mal auf vanilla 4070 Niveau. Zur 4080 fehlen also ca. 40%, bzw. ausgehend von der 7800XT und 7900GRE rund 60-70%.

Es kann sein dass man die 4080 in selektiven benchmarks erreicht, oder per Übertaktung. Aber im Wesentlichen können wir zufrieden sein wenn die 8800XT die Rasterizing-Leistung einer 7900GRE abliefert und ein bisschen schneller in RT als eine XTX wird, solange man nicht über WQHD geht. Mehr wird aufgrund des kleineren Caches und schmalen DRAM interfaces nicht drin sein. Bei 220W wäre das aber auch eine ausgezeichnete Leistung für einen so kleinen Chip.

robbitop
2024-12-05, 16:38:26
Bei RT allerdings sortiert sich die 7900XTX nur zwischen 4070Super und Ti ein und die 7900Xt kommt gerade mal auf vanilla 4070 Niveau. Zur 4080 fehlen also ca. 40%, bzw. ausgehend von der 7800XT und 7900GRE rund 60-70%.

Kommt IMO stark darauf an was mit „RT“ gemeint ist. Ein breiter Spiele Index mit insgesamt gemischter RT Last? Oder Titel mit sehr hoher RT Last oder vergleicht man bspw isoliert die RT Leistung anhand eines Frametimes?
Je stärker die RT Last desto mehr bricht RDNA3 ein.
ZB lag laut PCGH die XTX sogar noch unter 4060 Niveau in CP77 PT (sehr hohe RT Last).

Hakim
2024-12-05, 17:21:13
Kann man davon ausgehen das RDNA4 sich ähnlich verhalten wird? Zwar ordentliche RT Leistung gegenüber RDNA3, aber je stärker RT Implementiert ist es dann ähnlich wie RDNA3 einbricht, da keine eigenständigen RT Einheiten?

vinacis_vivids
2024-12-05, 17:28:52
Nach den Gerüchten ist aber gerade RDNA4 in RT verbessert.

https://i.ibb.co/SBX79jB/AMD-Radeon-RX-8800-XT-RDNA-4-GPU.png

"Ray Tracing is indeed an epic improvement."

Da Raster nicht mehr so beliebt ist, kann AMD auch sehr gut an fp32 Einheiten sparen. Dafür die abgespeckten Matrix Cores von CDNA3 für fp8 bei RDNA4 einbauen.

Beim Takt erwarte eine Überlegenheit der RDNA4 uArch bei CP ~3,6-3,8 Ghz.

CP2077 PT ist bereits geknackt mit RDNA3, da braucht man kein RDNA4.

HIO1jJePPFQ

Die beiden schwierigen RT-Kadidaten sind Alan Wake 2 und Black Myth Wukong.

Hauwech
2024-12-05, 17:30:18
...

ich finde den vergleich nicht besonders gelungen. man muss das in relation sehen. die gre ist schon die effizienteste rdna3 karte und rdna4 hat einen kaum besseren prozess. 15% weniger power draw und 15% mehr performance gegenüber dem effizientesten rdna3 chip im kaum besseren fertigungsverfahren finde ich schon eine gute verbesserung.

Finde ich gar nicht. Anscheinend vergessen hier viele: Es wird, auf Gerüchten basierend, der effizienteste 5+6nm Chiplet Chip (on-and off-die) gegen einen 4nm monolithischen Chip (alles on die) verglichen. Wenn da nicht, rein vom auch nur leicht besseren Fertigungsverfahren, jeweils +15% rauskommen würden, wäre das peinlich.
Man müsste N44/48 mit N33 als monolithische Chips (6 vs 4 nm) vergleichen werden was sich in Bezug auf Effizienz getan hat.
Es wurde schon vor langer Zeit eine Leistung zwischen 7900GRE und der 7900XT spekuliert/angenommen/vorausgesagt. Mit maximal möglicher Taktkeule kommt man wahrscheinlich auf XT+ - wo der Verbrauch landen wird, werden wir dann sehen.

Und für die Leute die sich fragen was AMD die letzten 2 Jahre gemacht hat:

Der Marktanteil und die Gewinne aus der Gamingsparte sind nun nicht berauschend. Der AI-Hypetrain ist schon vor Jahren langsam losgefahren und hat ordentlich Fahrt aufgenommen. AMD verdient mit MI300 & Co lieber ein paar Milliarden anstatt mit Grafikchips ein paar hundert Millionen. Die Zauberwörter sind: begrenzte Packaging Kapazitäten.

Die Entscheidung dazu die Spieler mit 2 (anstatt wie üblich 3) Chips abzuspeisen dürfte lange, ganz lange vor der Verkündung dieses Jahr getroffen worden sein. Personal und Ressourcen Richtung MI und/oder RDNA5 zu schieben ist da dann nur die logische Konsequenz und der Grund warum es noch nicht mal zu einem N48 x 1,5 (N49?) gereicht hat. Ich gehe mal davon aus das N48 nicht großartig mehr als ein verdoppelter N44 ist.

Das würde ich persönlich angesichts der Zahlen zwar doof aber jetzt nicht so schlimm finden, schlimm finde ich nur das AMD die Leute auch noch versucht für dumm zu verkaufen mit dem sinngemässen "Wir konzentrieren uns lieber auf die 80% der Käufer".

Das ist reinstes Wasser predigen und richtig teuren Wein saufen. Und genau aufgrund dieser Verarsche, müsste es kollektiv seitens der Spieler den dicken Stinkefinger Richtung AMD geben: Keine Mehrleistung ggü der Vorgängergeneration, 4 bzw. 8 GB Speicher oben rum weniger und die üblichen Verdächtigen werden es wahrscheinlich sogar noch beklatschen. Yup, die Karten dürften billiger werden als nV aber die Leistung hätte man dann auch schon mit RDNA3 haben können.
Wer weiß, je nachdem wie lange und schnell der AI-Hypetrain noch rollt, könnte selbst RDNA5 wieder in monolithisch, dann halt in 3nm oder so, kommen. Wenn sie mit RDNA5 wieder oben angreifen gilt: Was geht mich mein Geschwätz von gestern an.

Fazit: Wenn sich die Gelegenheit bietet, ist AMD genauso gierig wie alle anderen auch und versucht auch noch die Leute für dumm zu verkaufen.

vinacis_vivids
2024-12-05, 17:33:40
Fazit: Wenn sich die Gelegenheit bietet, ist AMD genauso gierig wie alle anderen auch und versucht auch noch die Leute für dumm zu verkaufen.

?

AMD (ATI) war und bot seit je her immer die bessere Preis-Leistung bei Grafikkarten und CPUs. War nie anders.

Was Huang das für Schrott überteuert verkauft geht unter keiner Kuhhaut.

gedi
2024-12-05, 17:47:00
Anvisiert waren doch ~ 7900xt Raster und über 25% mehr mit RT. Sieht für mich aus, als dass die Karte im Schnitt leicht besser performt, als eine 4070s. Nicht ganz 4070ti-Niveau, aber bei ~250w Boardpower immerhin eine brauchbare Leistung.

dargo
2024-12-05, 17:58:11
Kommen denn im Januar direkt auch Customs oder nur die Referenz? Noch länger auf die Customs (Februar/März?) zu warten wäre echt ätzend. Da ist dann der Winter wieder praktisch vorbei. :freak:

OgrEGT
2024-12-05, 18:43:36
Anvisiert waren doch ~ 7900xt Raster und über 25% mehr mit RT. Sieht für mich aus, als dass die Karte im Schnitt leicht besser performt, als eine 4070s. Nicht ganz 4070ti-Niveau, aber bei ~250w Boardpower immerhin eine brauchbare Leistung.
Aus meiner rein persönlichen Sicht wäre es gar nicht schlecht wenn da noch etwas mehr Leistung rauskäme (da ich eine 7900XT schon habe) :biggrin:

vinacis_vivids
2024-12-05, 20:14:48
Bei der 7900XT lassen sich teilweise +15% oder +20% mehr fps. durch UV/OC rausholen ggü. OEM stock.
Wird bei der 8800XT relativ ähnlich sein je nach Partnermodell und Kühlung.

RX 8800XT 64CU - 270W OEM
RX 8800XT 64CU OC - 270 - 330W

RX 8700XT 56CU - 220W OEM
RX 8700XT 56CU OC - 225 - 275W

RX 8600XT 32CU - 180W OEM
RX 8600XT 32CU OC - 180 - 225W

TheGood
2024-12-05, 22:11:22
Finde ich gar nicht. Anscheinend vergessen hier viele: Es wird, auf Gerüchten basierend, der effizienteste 5+6nm Chiplet Chip (on-and off-die) gegen einen 4nm monolithischen Chip (alles on die) verglichen. Wenn da nicht, rein vom auch nur leicht besseren Fertigungsverfahren, jeweils +15% rauskommen würden, wäre das peinlich.
Man müsste N44/48 mit N33 als monolithische Chips (6 vs 4 nm) vergleichen werden was sich in Bezug auf Effizienz getan hat.
Es wurde schon vor langer Zeit eine Leistung zwischen 7900GRE und der 7900XT spekuliert/angenommen/vorausgesagt. Mit maximal möglicher Taktkeule kommt man wahrscheinlich auf XT+ - wo der Verbrauch landen wird, werden wir dann sehen.

Und für die Leute die sich fragen was AMD die letzten 2 Jahre gemacht hat:

Der Marktanteil und die Gewinne aus der Gamingsparte sind nun nicht berauschend. Der AI-Hypetrain ist schon vor Jahren langsam losgefahren und hat ordentlich Fahrt aufgenommen. AMD verdient mit MI300 & Co lieber ein paar Milliarden anstatt mit Grafikchips ein paar hundert Millionen. Die Zauberwörter sind: begrenzte Packaging Kapazitäten.

Die Entscheidung dazu die Spieler mit 2 (anstatt wie üblich 3) Chips abzuspeisen dürfte lange, ganz lange vor der Verkündung dieses Jahr getroffen worden sein. Personal und Ressourcen Richtung MI und/oder RDNA5 zu schieben ist da dann nur die logische Konsequenz und der Grund warum es noch nicht mal zu einem N48 x 1,5 (N49?) gereicht hat. Ich gehe mal davon aus das N48 nicht großartig mehr als ein verdoppelter N44 ist.

Das würde ich persönlich angesichts der Zahlen zwar doof aber jetzt nicht so schlimm finden, schlimm finde ich nur das AMD die Leute auch noch versucht für dumm zu verkaufen mit dem sinngemässen "Wir konzentrieren uns lieber auf die 80% der Käufer".

Das ist reinstes Wasser predigen und richtig teuren Wein saufen. Und genau aufgrund dieser Verarsche, müsste es kollektiv seitens der Spieler den dicken Stinkefinger Richtung AMD geben: Keine Mehrleistung ggü der Vorgängergeneration, 4 bzw. 8 GB Speicher oben rum weniger und die üblichen Verdächtigen werden es wahrscheinlich sogar noch beklatschen. Yup, die Karten dürften billiger werden als nV aber die Leistung hätte man dann auch schon mit RDNA3 haben können.
Wer weiß, je nachdem wie lange und schnell der AI-Hypetrain noch rollt, könnte selbst RDNA5 wieder in monolithisch, dann halt in 3nm oder so, kommen. Wenn sie mit RDNA5 wieder oben angreifen gilt: Was geht mich mein Geschwätz von gestern an.

Fazit: Wenn sich die Gelegenheit bietet, ist AMD genauso gierig wie alle anderen auch und versucht auch noch die Leute für dumm zu verkaufen.
Tausche AMD mit NIvidia und du kriegst dasselbe, was du hier schreibst. MEhrleistung der letzten und dieser Generation sind geradezu lächerlich bei den geslazenen preisen ;)

horn 12
2024-12-07, 12:41:58
Könnte gut passen!

Kanpp über 7900XT un bei RT wohl ca. 20% über 7900XTX
und FRS 4.0 wird wohl auch bei RDNA 3 voll reinhauen.

https://www.youtube.com/watch?v=1p95dcYBJwY

mboeller
2024-12-07, 13:45:20
was allgemeines, aber für die N44 doch wichtig:

https://www.notebookcheck.com/Todesurteil-fuer-GPUs-mit-weniger-als-12-GB-VRAM-Indiana-Jones-und-der-Grosse-Kreis-ueberfordert-Grafikkarten-wie-RTX-4060-Ti.929027.0.html

Ich hoffe, dass auch die N44 mit 16GB kommen. Ansonsten sind sie eher "Sondermüll" wie alle anderen neuen Karten mit weniger als 12GB

GerryB
2024-12-07, 16:18:03
???
Zwischen 16GB und <12GB ist aber ne Menge Platz, ... und Indie läuft mit 12GB prima.

raffa
2024-12-07, 16:25:41
Lieber 12GB/192bit als 16GB/128bit

bbott
2024-12-07, 17:04:07
Wie sieht es eigentlich bei DX Version und Video Beschleunigung aus? Früher war ATI/AMD häufiger einen Schritt voraus, aber schon länger läuft man nur noch hinterher :-(
Video AI Upscaling fände ich klasse, aber seit der NV Shield haben NV es schleifen lassen und AMD leider nie angeboten :-(

bbott
2024-12-07, 17:05:29
Lieber 12GB/192bit als 16GB/128bit
Solange RAM Takt in IF unbekannt sind weder noch :D

Bzw. da ich 16G/265bit habe, definitiv ein nogo. Wer will schon ein Downgrade?!
Eine neue GK muss mindestens 24 eher 32GB haben, vorher gibt halt kein Geld :-p

DrFreaK666
2024-12-08, 05:06:14
Wie sieht es eigentlich bei DX Version und Video Beschleunigung aus? Früher war ATI/AMD häufiger einen Schritt voraus, aber schon länger läuft man nur noch hinterher :-(
Video AI Upscaling fände ich klasse, aber seit der NV Shield haben NV es schleifen lassen und AMD leider nie angeboten :-(

Sowohl Nvidia als auch AMD bieten Video Upscaling.
Und ob die Shield tatsächlich AI genutzt hat ist auch eher fragwürdig

vinacis_vivids
2024-12-09, 14:58:17
Beim Einbau der fp8 Matrix Cores von CDNA3 in RDNA4 erwarte ich folgende Ergebnisse :

https://i.ibb.co/PwtFXzP/STALKER-2-Prediction-RX-8800-XT-fastest.png

In der Tat können +40-50% zur RX 7900 XTX oder auch RTX4090 desöfteren vorkommen, sollte die Engine massiv Upscaling + RT + FG nutzen.

Auch in Szenarien wo die RX 8800XT doppelt so schnell wie die RTX 4080 / RX 7800XT ist, sind durchaus realistisch.

DrFreaK666
2024-12-09, 15:02:14
Szenarien, also Cherry-Picking... Ja

robbitop
2024-12-09, 15:07:29
Sowohl Nvidia als auch AMD bieten Video Upscaling.
Und ob die Shield tatsächlich AI genutzt hat ist auch eher fragwürdig
https://www.nvidia.com/en-us/shield/support/shield-tv/ai-upscaling/

Wieso fragwürdig? Nvidia gibt es selbst so an.
Maxwell im X1 hat bereits dp4a support - bedeutet 4x INT8 Durchsatz. Für ein kleines NN kann das schon reichen.
Auf dem X1 AI SDK läuft ja auch einiges an NN Anwendungen / Demos soweit ich mich erinnern kann.

Odal
2024-12-15, 12:46:56
Wieso soll man über selbstgemalte Balkendiagramme sinnieren
Zeit das mal ein echter Leak irgendwo auftaucht

275Watt, das wäre etwas über der 7800xt. Ich hoffe AMD nutzt die 275W auch ordentlich aus.


Die Entscheidung dazu die Spieler mit 2 (anstatt wie üblich 3) Chips abzuspeisen dürfte lange, ganz lange vor der Verkündung dieses Jahr getroffen worden sein. Personal und Ressourcen Richtung MI und/oder RDNA5 zu schieben ist da dann nur die logische Konsequenz und der Grund warum es noch nicht mal zu einem N48 x 1,5 (N49?) gereicht hat. Ich gehe mal davon aus das N48 nicht großartig mehr als ein verdoppelter N44 ist.


Für mich klingt das alles nicht nach einem würdigen Polaris Nachfolger sondern danach das man aus dem Chip nochmal rausgequetscht hat was geht (bei 275Watt) preislich deutet ja auch alles drauf hin. Und die halbierten LowEnd GPUs (eigentlich eher 150€ Klasse) bei 300€ an den Mann bringt
Wenn die eigentliche Mittelklasse (8800XT) schon bei 275 Watt liegt will ich auch nicht wissen wo das HighEnd gelandet wäre.

dargo
2024-12-15, 13:47:13
Wenn die eigentliche Mittelklasse (8800XT) schon bei 275 Watt liegt will ich auch nicht wissen wo das HighEnd gelandet wäre.
Ganz einfach... dort wo eine RTX 4090 heute liegt. Hoffentlich kriegst du keinen Herzinfarkt bei der RTX 5090 bald. X-D Leider sind heute diese Heizöfen im High-End Normalität geworden. Viele Spieler scheinen das zu akzeptieren, ergo wirds gebaut.

basix
2024-12-15, 13:48:24
Ich hoffe schwer, dass N48 <275W landet (eher so 240W). Ausser N48 skaliert noch wirklich gut (sagen wir +10% Performance bei 275W vs. 240W), dann wäre das noch vertretbar.

Ganz einfach... dort wo eine RTX 4090 heute liegt. Hoffentlich kriegst du keinen Herzinfarkt bei der RTX 5090 bald. X-D Leider sind heute diese Heizöfen im High-End Normalität geworden. Viele Spieler scheinen das zu akzeptieren, ergo wirds gebaut.

Ich vermute auch, dass es bei den 450W TDP bleibt. Aber die 4090 hat die im Schnitt oft nicht ausgenutzt. Ich vermute eine 5090 wird deutlich öfters in den 450W hängen.

dargo
2024-12-15, 13:52:03
Ich hoffe schwer, dass N48 <275W landet (eher so 240W). Ausser N48 skaliert noch wirklich gut (sagen wir +10% Performance bei 275W vs. 240W), dann wäre das noch vertretbar.

Im Prinzip ist mir das relativ latte solange es wieder MPT-Support gibt und der Betriebspunkt nicht so verkackt von AMD gewählt werden muss wie bei RDNA3. Wenn sich AMD beim Betriebspunkt eher bei RDNA2 orientiert passt für mich das völlig. Ergo darf RDNA4 nicht so ein extremer Säufer sein wie RDNA3. Aber davon gehe ich nicht aus. 2x den gleichen Fehler hintereinander wäre schon verdammt kurios.

Edit:
Oder anders ausgedrückt wer mir nicht folgen kann... solange die 275W bei 1050-1100mV anliegen anstatt schon bei 900-950mV ist alles im grünen Bereich.

basix
2024-12-15, 13:59:29
Wenn man einen energiehungrigen Schreihals released ist das für AMD aber nicht so gut ;) Deswegen lieber etwas die Handbremse ziehen und ein rundes Produkt abliefern. AIBs können dann ja immer noch All-In gehen.

Wenn AMD wieder mehr Marketshare erreichen will, müssen sie auch in den B-Noten überzeugen.

dargo
2024-12-15, 14:05:17
Wenn man einen energiehungrigen Schreihals released ist das für AMD aber nicht so gut ;)
Wenn man Leistung liegen lässt (auch wenn es 2-3% sind) für die man mehr Geld verlangen kann auch. Insofern... nichts Neues.

AIBs können dann ja immer noch All-In gehen.

Das können die auch bei 275W Referenz, müssen aber nicht. Gibt solche und solche custom Designs, auch nichts Neues.

Odal
2024-12-15, 14:11:29
Ganz einfach... dort wo eine RTX 4090 heute liegt. Hoffentlich kriegst du keinen Herzinfarkt bei der RTX 5090 bald. X-D Leider sind heute diese Heizöfen im High-End Normalität geworden. Viele Spieler scheinen das zu akzeptieren, ergo wirds gebaut.

Na HighEnd/Enthusiast++ ist für mich eh außen vor. Die können auch ruhig 1000 Watt verbraten. Ich gucke wenn dann im Mittelsektor und da hätte ich <200 Watt erwartet (Preislich natürlich auch keine 500++€)

Bei mir persönlich werden die Karten auch nochmal undervolted und zum Teil eingebremst. (bisher FullHD max 60FPS Gamer).

dargo
2024-12-15, 14:29:17
Da musst du auf die RX 8700XT schauen. Die dürfte <500€ kosten und womöglich auch unter 200W liegen. Letzteres ist aber noch etwas unsicher bzw. wirst du dafür womöglich manuell eingreifen müssen. Soll heißen... wird die 8800XT mit 275W @Referenz released wird die 8700XT auf keinen Fall bei <200W rauskommen. Bei 230W für die 8800XT ist es viel wahrscheinlicher.

Hakim
2024-12-15, 15:04:18
Die angebliche Größe des Chips mit den angeblichen 275W deutet zumindest das es hoch geprügelt wird, ich hoffe nicht

Der_Korken
2024-12-15, 15:18:52
Eigentlich ist für uns ganz gut, wenn die 275W bereits der hochgeprügelte Verbrauch sind, denn dann gibt es viel Spielraum für UV und kleinere Powertargets (sofern AMD den nicht wieder künstlich auf -5% begrenzt :rolleyes:).

reaperrr
2024-12-15, 17:16:01
Die 4070 Ti hat auch 285W mit nem ~280mm² Chip, die 5070 hat wohl 250W mit einem vermutlich ~250mm² Chip.
Dass man das Top-Modell auch bei AMD "hochprügelt" macht grundsätzlich schon Sinn, wenn es bei der Balkenlänge auch noch was bringt (50W mehr für 2% mehr Leistung wär natürlich Quark).

Dass es darunter ein Modell mit deutlich besserer Perf/W, Kühlbarkeit usw. geben wird, steht für mich aber fest.
Es war auch schon die Rede von einem 220W-Modell, das entspräche vom Verbrauch einer 4070S.

raffa
2024-12-15, 18:16:14
220W wurde schon spekuliert, ebenso wie 275. Vielleicht zwei Modelle?

8800 @ 220
8800xt @ 275

oder so ähnlich

Nightspider
2024-12-16, 03:10:47
RDNA4 kommt in N4P oder?

Da AMD ja eine gewisse Kapazität an Wafern vor längerer Zeit bei TSMC gebucht haben muss frage ich mich gerade was die deutlich verspätete Markteinführung von RDNA4 dafür bedeutet.

Hat AMD jetzt eventuell schon ein großes Volumen an RDNA4 Chips auf Halde oder hat AMD die Kapazitäten bisher für anderen Produkte genutzt? (gibts da neben Zen5 überhaupt noch welche?)
Eigentlich hieß es doch immer das RDNA schon vor gut 1-2 Quartalen auf den Markt kommen sollte oder?

robbitop
2024-12-16, 06:59:17
Was spricht dagegen selbst die TDP einzustellen? Dann kann es einem doch egal sein wie die SKU konfiguriert ist.
Ich mache das immer und mir ist es komplett egal was der OEM macht. Sehe das Problem nicht.

horn 12
2024-12-16, 07:09:28
Abverkauf Navi 31 XT und XTX
sowie teilweise Navi 32

Sollten doch einige noch abverkauft worden sein!

dargo
2024-12-16, 07:59:42
Was spricht dagegen selbst die TDP einzustellen?
Man merkt, dass du keinen RDNA3 in Aktion hattest. Was dagegen spricht? Je nach GPU-Design dumme Entscheidungen von AMD.

vinacis_vivids
2024-12-16, 08:02:29
Intel konkurriert trotz der besseren Fertigung mit der 4 Jahre alten RX 6750XT 12GB, also zwei gens. zurück, mit RDNA2.

AMD verkauft RDNA2 7nm ganz normal weiter.

Bei den 12GB Karten gibs derzeit folgendes "Ranking"

RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+

Neu in 2025 bei den 12GB GPUs?
RTX 5070 12GB - 899€+ ???
RX 8700 XT 12GB -599€+ ???
RTX 4070 12GB - 559€+
RX 7700 XT 12GB - 427€+
RX 6750 XT 12GB - 329€+
B580 12GB - 329€+
RTX 3060 12GB - 299€+

robbitop
2024-12-16, 08:23:06
Man merkt, dass du keinen RDNA3 in Aktion hattest. Was dagegen spricht? Je nach GPU-Design dumme Entscheidungen von AMD.
stimmt - da konnte man nur um ~10-15% die TDP reduzieren und UV war limitiert oder? Aber wenn es grundsätzlich flexibel einstellbar ist, sollte es doch egal sein oder?

OgrEGT
2024-12-16, 08:25:34
Was spricht dagegen selbst die TDP einzustellen? Dann kann es einem doch egal sein wie die SKU konfiguriert ist.
Ich mache das immer und mir ist es komplett egal was der OEM macht. Sehe das Problem nicht.
Bei RDNA3 bist du limitiert auf TBP +/- 10% via Treiber. MPT sowie BIOS Update per Software funktioniert bei RDNA3 nicht.

basix
2024-12-16, 09:01:02
delete

basix
2024-12-16, 09:06:54
Da frage ich mich aber schon, was AMD daran hindert. Gibt es da einen bestimmten Grund?

Bei Nvidia (Ada) kann ich via MSI AB auf bis zu 2% runterdrehen. Macht das Sinn? Nein, deswegen wird es auch niemand machen. Aber es schadet auch nicht. 60...110% ist vermutlich der Bereich, den die meisten Leute nutzen würden. Mit 50...120% deckt man wohl 99.99% aller Leute ab. Ich habe typ. 60...70% eingestellt. Für mich ist das runterdrehen des Power Limits also schon ein ziemlich relevantes Feature.

Abseits vom Power Limit:
Ich hoffe RDNA4 verhält sich ähnlich wie Lovelace, wenn geringe Last anliegt. Der Verbrauch sinkt automatisch auch wenn der Maximaltakt anliegt. Ich weiss nicht genau, wie das Nvidia macht (Clock Gating von einzelnen SMs?) aber es funktioniert. Bei vielen UE5 Games oder oftmals bei DLSS-Q/B/P liegt meine 4090 bei 230...250W, wenn man nicht die allerhöchsten Settings einstellt. Nur bei wenigen Spielen kommt man auf 300W. Sowas wünsche ich mir definitiv für RDNA4. Und daneben auch gute Verbrauchswerte bei den B-Noten (Idle, YT, Fenster schieben, 4K120 usw.)

dargo
2024-12-16, 09:15:43
stimmt - da konnte man nur um ~10-15% die TDP reduzieren und UV war limitiert oder? Aber wenn es grundsätzlich flexibel einstellbar ist, sollte es doch egal sein oder?
Mir schon, siehe MPT @RDNA2. Wobei ganz egal ist es mir nicht. So ca. 50-70W komme ich in der Regel runter ohne Performance zu verlieren. Viel mehr sollte der IHV also es mit der TGP auch nicht übertreiben. Mein Limit beträgt 300W (gerne aber weniger) @IHV weil ich dort schon Minus 50-70W durch manuellen Eingriff einberechne.


Ich hoffe RDNA4 verhält sich ähnlich wie Lovelace, wenn geringe Last anliegt. Der Verbrauch sinkt automatisch auch wenn der Maximaltakt anliegt. Ich weiss nicht genau, wie das Nvidia macht (Clock Gating von einzelnen SMs?) aber es funktioniert.
Das ist nichts Besonderes, nennt sich Taktlimit. ;) Sehe ich beim RDNA2 durchgehend @UV. Würdest du beim N31 auch oft sehen wenn AMD N31 450W und kein extremes Korsett @355W spendiert hätte. ;)

BlacKi
2024-12-16, 09:41:18
Das ist nichts Besonderes, nennt sich Taktlimit. ;) Sehe ich beim RDNA2 durchgehend @UV. Würdest du beim N31 auch oft sehen wenn AMD N31 450W und kein extremes Korsett @355W spendiert hätte. ;)also wenn ich mechabellum spiele, das die nv gpu 30% auslastet und die GRE ebenso, zumindest laut den daten die ausgespukt werden, was per se wohl auch nicht genau ist. dann säuft die nv karte trotz vollem takt trotzdem 3x weniger. die GRE ist da auch schon am runtertakten wegen meines eingestellten 30fps limits. am vram liegts auch nicht, die takten beide schon voll bei dieser last.
die GRE hat ja schon bei youtube über 80w verbraucht, obwohl die taktraten des kerns nicht hoch sind.


das liegt nicht am takt unter teillast.

Intel konkurriert trotz der besseren Fertigung mit der 4 Jahre alten RX 6750XT 12GB, also zwei gens. zurück, mit RDNA2.

der chip ist kleiner als der von der 6750xt. d.h. intel wäre wohl deutlich schneller als die im märz 2022 releaste, also 2,x jahre alte karte. ;) wenn man genauso groß bauen würde. und ja, intel liegt hinten dran, aber dafür machen sie preislich nochmals amd konkurenz.

dargo
2024-12-16, 09:47:52
Es macht überhaupt keinen Sinn den kaputten bzw. missglückten RDNA3 als Vergleich anzuziehen. Wie oft denn noch?

BlacKi
2024-12-16, 09:50:34
du versuchst dich an einer erklärung und hinterher sagst du, alle erklärungen machen keinen sinn. finde den fehler. geh woanders trollen.

dargo
2024-12-16, 09:51:32
Ich merks schon... du raffst mal wieder die einfachsten Zusammenhänge nicht. Das Thema war Taktlimit in Games @basix und nicht dein Youtube Offtopic!

btw.
Meine RX 6800XT zieht aktuell exakt 38W ASIC @4k YT-Video wenn du schon OT bist. VRAM ist dabei um 100Mhz übertaktet.

Der_Korken
2024-12-16, 10:27:32
also wenn ich mechabellum spiele, das die nv gpu 30% auslastet und die GRE ebenso, zumindest laut den daten die ausgespukt werden, was per se wohl auch nicht genau ist. dann säuft die nv karte trotz vollem takt trotzdem 3x weniger. die GRE ist da auch schon am runtertakten wegen meines eingestellten 30fps limits. am vram liegts auch nicht, die takten beide schon voll bei dieser last.
die GRE hat ja schon bei youtube über 80w verbraucht, obwohl die taktraten des kerns nicht hoch sind.


das liegt nicht am takt unter teillast.

In Spielen kannst du nur dann bei Teillast effizienter werden, wenn du bei Volllast ineffizient warst. Die GRE ist eine massivst untertaktete Karte, die am absoluten Sweetspot läuft. Das ist ungefähr so, als würdest du eine 4080 per default mit 2,1Ghz und 180W PT laufen lassen, nur um dich zu wundern, dass die bei Teillast in Spielen ja gar nicht mehr so weit runtergeht mit dem Verbrauch. Oder andersrum: Gib der GRE 400W, dann wird sie - ausgehend von diesem ineffizienten Niveau - unter Teillast sicher auch ordentlich an Effizienz zulegen.

Außerhalb von 3D säuft die GRE wahrscheinlich wegen Chiplet-Verbindungen viel Strom. AMD (und in gewissem Maße auch Nvidia) haben seit je her das Problem, dass bei gewissen Lasten wie Youtube oder 2 Monitoren der VRAM hochtakten muss, mit allem was dranhängt (IMC, PHYs, etc.). Wenn das Speichersystem jetzt noch über mehrere Dies verteilt ist, wird das weder einfacher noch effizienter. V10 war in dem Bereich super effizient. Und warum? Er hatte keine DDR-PHYs, sondern on-package HBM. P10 und N10 davor und danach haben es mit GDDR5/6 wieder deutlich schlechter gemacht.

basix
2024-12-16, 11:58:43
Vielleicht noch als Idee fürs RDNA4 Portfolio:
N48 XTX = 256bit, 16GByte, ~20Gbps
N48 XT = 256bit, 16GByte, 18Gbps
N44 XTX = 128bit, 16GByte, 18Gbps
N44 XT = 96bit, 12GByte, ~20Gbps
N44 LE = 128bit, 8GByte, 16Gbps

Pirx
2024-12-16, 12:09:15
...
der chip ist kleiner als der von der 6750xt. d.h. intel wäre wohl deutlich schneller als die im märz 2022 releaste, also 2,x jahre alte karte. ;) wenn man genauso groß bauen würde. und ja, intel liegt hinten dran, aber dafür machen sie preislich nochmals amd konkurenz.
fragwürdige Rechnung, da BMG-G21 mehr Transistoren hat, als N22

HOT
2024-12-16, 16:28:56
Das hinkt aber, da G21 XMX-Einheiten und Lichtjahre besseres RT hat...

reaperrr
2024-12-16, 17:04:03
Das hinkt aber, da G21 XMX-Einheiten und Lichtjahre besseres RT hat...
Ob man für "Lichtjahre besseres RT" zwingend massiv mehr Transistoren braucht, sei mal dahingestellt.
Nvidia hat auch "Lichtjahre besseres RT", und deren GPUs sind trotzdem klein.

Umgekehrt muss man auch sagen, N22 hat für die Rohleistung 48MB zu viel IF$, was viel unnötige Fläche für wenig Nutzen gekostet hat, und G21 ist einen vollen Node weiter und trotzdem so groß wie N22 trotz viel weniger Cache, und schafft die Taktraten möglicherweise überhaupt nur aufgrund dieser künstlich niedrigen Transistordichte.

Odal
2024-12-16, 17:58:19
Mir schon, siehe MPT @RDNA2. Wobei ganz egal ist es mir nicht. So ca. 50-70W komme ich in der Regel runter ohne Performance zu verlieren. Viel mehr sollte der IHV also es mit der TGP auch nicht übertreiben. Mein Limit beträgt 300W (gerne aber weniger) @IHV weil ich dort schon Minus 50-70W durch manuellen Eingriff einberechne.



Ja wobei RDNA2 da auch schon viel zu fricklig ist. Das hat ewig gedauert bis ich mit MorePower / MoreCurve Tool da eine vernünftige Einstellung gefunden hatte.
Ok ich hab mein Gesamtsystem auch auf <150Watt (meist 120Watt) an der Dose beim FullHD 60 FPS Gamen gedrückt.

Beim Polaris war das noch so schön straight forward 7 Power States mit Frequenz -> Spannung fertig. Nur das man noch beachten musste das die GPU Voltage nicht < Speicher(controller) Voltage sein darf und man den Ram ggf. untertakten musste.


K.a. wie das bei Nvidia und Ada Lovelace ist, aber bestimmt einfacher als beim RDNA2

GerryB
2024-12-17, 22:37:23
Jaja, Polaris war sooo sparsam, ... oder auch nicht!
selbst ne 570 hat ne höhere TDP als ne 6600
von Fps/W ganz zu schweigen, wo ne 6600 ca. 150% effektiver im TS ist

Falls "Fps-Limit" nicht bekannt sein sollte, kann man auch einfach Vsync am 60Hz-FHD-Moni nutzen.

Raff
2024-12-17, 22:51:55
Die RX 480 (Sommer 2016) lief noch im Süßpunkt, danach wurde die Keule geschwungen. ;)

MfG
Raff

GerryB
2024-12-17, 23:36:22
btw.
ne 6600 etwas optimieren, sollte auch ganz einfach ohne MPT gehen:
z.Bsp.
Vram +68MHz und Schnelles Timing
GPU maxTakt +50MHz (nach m.E. egal, ob man UVtet oder den maxTakt anhebt)
bei gleichzeitig Leistungsbereich = -5% (132W -5% = 125W)

ist schon ein ganz simples Boostsetting, was 24/7 genauso schnell ist wie die 6600ref. ab Werk

Wer mehr Watt einsparen will kann natürlich im MPT die Volt vom SOC und Vram schrittweise reduzieren,
was es bei NV überhaupt nicht gibt, weil da nur ganz einfache rudimentäre Dinge im AB verstellt werden.
(die Curve kann nur GPU-Werte verstellen, aber nicht SOC+Vram)

Die RX 480 (Sommer 2016) lief noch im Süßpunkt, danach wurde die Keule geschwungen. ;)

MfG
Raff

Ihr hattet damals 160W gemessen.
Wieviel Points waren das im TS?

edit:
Habs gefunden RX 480 vs RX 570:

BlacKi
2024-12-22, 00:41:57
damit würde ich sagen, das die 275w wahrscheinlicher sind als nur die bisher geleakten 220w durch seasonic. für 220w sind 3 lüfter unnötig.
https://videocardz.com/newz/radeon-rx-8000-reference-gpu-might-have-just-been-leaked-by-amd

edit: sry leute, wer in die bilder reinzoomed, der sieht das die bilder AI generated sind. sieht für mich nach fake aus.

Der_Korken
2024-12-22, 00:45:07
damit würde ich sagen, das die 275w wahrscheinlicher sind als nur die bisher geleakten 220w durch seasonic. für 220w sind 3 lüfter unnötig.
https://videocardz.com/newz/radeon-rx-8000-reference-gpu-might-have-just-been-leaked-by-amd

Das würde ich sogar fast positiv finden, denn das würde auch dafür sprechen, dass die Performance nicht einfach nur 7900GRE-Level plus ein paar Krümel ist. Oder AMD hat komplett Lack gesoffen und RDNA4 ist nach 2 Jahren nochmal ineffizienter als RDNA3 :freak:

BlacKi
2024-12-22, 00:47:30
ich hab meinen beitrag editiert, ich halte die bilder für fake.

und wenn das nur fsr4 ist, dann können sie es behalten^^

HOT
2024-12-22, 07:17:44
220w tgp würde zu 275w tbp passen.

[MK2]Mythos
2024-12-22, 09:05:54
ich hab meinen beitrag editiert, ich halte die bilder für fake.

und wenn das nur fsr4 ist, dann können sie es behalten^^
Die original Bilder sind ziemlich klein, die Ai Artefakte kommen von dem Upscaler.

horn 12
2024-12-22, 09:21:46
275 Watt ... da geht der Schuss nach Hinten los
wenn meine 7900XTX mit UV nur 300 Watt braucht ... und ja die 8800XT kann man auch Untervolten, hat aber auch ein Dttittel weniger Speicher verbaut.

Wenn man 7900XT und bei RT die 7900 XTX um 20% schlägt ist dies schon gut, aber KEIN Grund die 7900XTX Besitzer zu überzeugen!

dildo4u
2024-12-22, 09:34:39
Es geht nicht um was alte AMD Karten brauchen Nvidia verbaut überall die neuen Stecker damit sie kleinere Chips mit höheren Takt nutzen können.
Daran wird AMD gemessen geringer Takt macht für Konsolen und Notebook Sinn nicht für Desktop.

GerryB
2024-12-22, 09:35:08
Was spricht gegen 3x Lü. ?

Ich hätte lieber nen Kühler der etwas länger als das PCB ist und am Ende durchpusten kann.
(ob man nun 3x 80mm oder 2x 100mm verbaut ist bzgl. der Watt buggy, ... lässt sich vermutlich mit 2x 120ern gut
aufmotzen )

vinacis_vivids
2024-12-22, 09:35:15
Huang geht auf die 600W zu. Da ist AMD mit 220 - 275W sehr human, zumal viele arme Leute in Deutschland teuren Strom zahlen und zur Tafel gehen müssen.

dildo4u
2024-12-22, 09:39:02
Huang geht auf die 600W zu. Da ist AMD mit 220 - 275W sehr human, zumal viele arme Leute in Deutschland teuren Strom zahlen und zur Tafel gehen müssen.
Du wirkst auch Nvidia Karten um 250 Watt kaufen können, die 600 Watt Karte ist einfach über zwei mal schneller was dann auf die Selbe Performance/Watt rauskommt.

robbitop
2024-12-22, 09:52:50
Ggf mal einen reality check. Die 7900XTX hat 96 CUs. Die im raster schlagen oder gleichziehen zu wollen mit nur 64CUs ist seeehr optimistisch. Die 8800XT wird sicher auch höher takten - aber ich würde vermuten die XTX holt man nicht in Raster. Ggf die XT. In RT sieht es ggf. anders aus - da ist RDNA2/3 ja wirklich nur das Minimum.
Mein Tipp: 7900XT Rasterperformance und 4070 non super RT Performance (in heavy RT Titeln wo RDNA3 um Faktoren einbricht).

HOT
2024-12-22, 09:54:15
RDNA3.5 -> Radeon RX 80x0-Serie
RDNA4.0 -> Radeon RX 90x0-Serie

Neue N48XT -> Radeon RX 9070 XT

robbitop
2024-12-22, 09:57:37
Und dann gibt’s bestimmt auch wieder tolles Rebranding von 7000er Radeons auf 8000er. ^^

GerryB
2024-12-22, 10:09:50
Ggf mal einen reality check. Die 7900XTX hat 96 CUs. Die im raster schlagen oder gleichziehen zu wollen mit nur 64CUs ist seeehr optimistisch. Die 8800XT wird sicher auch höher takten - aber ...
Die Frage ist, ob ne 8800xt die FP32 besser auslasten kann in WQHD.
(= ähnlicher Effekt wie bei B580 vs. A770)

btw.
FSR4 soll wohl FP8@RDNA4 nutzen können, ... mal schauen, wie dann das Performance-Scaling mit FSR+FG ausschaut.

robbitop
2024-12-22, 10:13:49
Die Frage ist wie stark Compute sich n Spielen bei der XTX limitiert. Aber ja mehr Auslastung wäre gut - kostet aber auch Transistoren die VOPD Limitierungen zu lockern und/oder generell höhere Auslastung zu erlauben (mehr Scheduler resources, mehr Register usw).
Bei BM hatte man 1st Gen Probleme überwunden - davon sollte AMD aber schon viel zu weit entfernt sein.

Schließt du von PSSR auf FSR4 oder wie kommst du auf das Datenformat? Gab es zu FSR4 bereits solche Details?
Allerdings meinst du wohl INT8 oder?

DrFreaK666
2024-12-22, 10:15:42
Huang geht auf die 600W zu. Da ist AMD mit 220 - 275W sehr human, zumal viele arme Leute in Deutschland teuren Strom zahlen und zur Tafel gehen müssen.
Wenn ich von der Tafel Hilfe annehmen muss, dann hab ich auch keine 600€ für eine Grafikkarte

HOT
2024-12-22, 10:16:38
Und dann gibt’s bestimmt auch wieder tolles Rebranding von 7000er Radeons auf 8000er. ^^
Könnt ich mir nur bei Esher vorstellen... oder auch nicht, immerhin sind das ja jetzt Ryzen AI 200 APUs, die werden schon 70x0 bekommen denke ich. Halo, Strix und Kraken sind ja RDNA 3.5 und haben alle 80x0-Branding.

GerryB
2024-12-22, 10:18:32
Schließt du von PSSR auf FSR4 oder wie kommst du auf das Datenformat? Gab es zu FSR4 bereits solche Details?
Allerdings meinst du wohl INT8 oder?
FP8 meint HOMEX im guru3d-Treiberthread, wo man die neuesten Insidermodule vergleicht
https://forums.guru3d.com/threads/when-will-there-be-a-new-driver.448223/page-67

PSSR nutzt NPU-Cores und nicht FP-Cores. Das ist nach m.E. nicht so bei RDNA4 zu erwarten.
(wäre zu teuer)

DrFreaK666
2024-12-22, 10:29:29
RDNA3.5 -> Radeon RX 80x0-Serie
RDNA4.0 -> Radeon RX 90x0-Serie

Neue N48XT -> Radeon RX 9070 XT

9070? Klingt eher nach einer NV-Karte

GerryB
2024-12-22, 10:40:34
RDNA 3.5 bei der PS5pro ist ne ganz interessante Mischung

FP32 ala RDNA2(x)
FrontEnd ala RDNA3
RT ala RDNA4

(x) Sowas lässt sich gut auslasten, ... wurde aber mit Kompatibilität begründet.
(um weniger Gamecode ändern zu müssen?, ... insofern nicht gut für PC-Ports@RDNA3)

HOT
2024-12-22, 10:42:20
9070? Klingt eher nach einer NV-Karte


Ryzen AI 395 Max+ -> Radeon RX 8060S

Jo, offenbar geht AMD diesen Weg auch.

w0mbat
2024-12-22, 10:48:12
Ich fände einen anderen Namen als 8800 XT ziemlich dumm.

HOT
2024-12-22, 11:01:54
Es wird sehr sehr sicher 9070 XT.
Ich finde 70er besser für das Produkt.

https://wccftech.com/amd-radeon-rx-9070-xt-the-top-rdna-4-gpu-radeon-9000-new-branding/

robbitop
2024-12-22, 11:11:50
Könnt ich mir nur bei Esher vorstellen... oder auch nicht, immerhin sind das ja jetzt Ryzen AI 200 APUs, die werden schon 70x0 bekommen denke ich. Halo, Strix und Kraken sind ja RDNA 3.5 und haben alle 80x0-Branding.
Kann ich mir auch für N33 vorstellen. ^^

robbitop
2024-12-22, 11:14:20
FP8 meint HOMEX im guru3d-Treiberthread, wo man die neuesten Insidermodule vergleicht
https://forums.guru3d.com/threads/when-will-there-be-a-new-driver.448223/page-67

PSSR nutzt NPU-Cores und nicht FP-Cores. Das ist nach m.E. nicht so bei RDNA4 zu erwarten.
(wäre zu teuer)
PSSR nutzt laut Mark Cernys deepdive die normalen FPUs (die auch INT können). Es gibt aber ein spezielles Instructionset für PSSR wo dann ein Cycle IIRC 9 INT OPs "wert" ist.

FP8 wäre ungewöhnlich weil für NN Anwendungen eigentlich meist INT genutzt wird.

Hat dieser "HOMEX" irgendwelche nennenswerten Referenzen, dass man das ernst nehmen sollte? (ernst gemeinte Frage - der Name sagt mir nichts)

GerryB
2024-12-22, 11:33:43
H ist aus dem OCer-Bereich bekannt.
(schau halt in die HoF für RDNA3, wo er ne gute 7900xt und XTX hat)

HOT
2024-12-22, 11:49:40
Kann ich mir auch für N33 vorstellen. ^^
Glaub ich nicht. Wenn man die renamed dann wird die sicherlich 8050 oder so heißen.

basix
2024-12-22, 12:41:24
FP8 wäre ungewöhnlich weil für NN Anwendungen eigentlich meist INT genutzt wird.

Kommt auf das DNN drauf an. Zum Beispiel Stable Diffusion benutzt FP16 / FP8

robbitop
2024-12-22, 13:01:56
Glaub ich nicht. Wenn man die renamed dann wird die sicherlich 8050 oder so heißen.
Ja 8er Serie meine ich ja :)
Und wer weiß ob sie N32 auch so noch laufen lassen ^^

Kommt auf das DNN drauf an. Zum Beispiel Stable Diffusion benutzt FP16 / FP8
Erste codesnippets (siehe Homex und dein Post im Nachbarforum) scheinen ja FP8 zu erhärten. ^^
Mal sehen ob AMD auch ihr Instructionset weiter aufgebohrt hat, um die FP8 TOPS Rate zu erhöhen.*

Was ich in dem DF reaction Video zum Sony PS5Pro Deep Dive interessant fand ist, dass PSSR mit den 2 ms wohl doch deutlich langsamer sein soll als DLSS. Ich glaube Alex sprach von 0.7 ms. Die Frage ist ob er das gegen die 2 ms Gesamtzeit von PSSR entgegensetzt oder gegen die 1 ms die das CNN braucht von PSSR.

*Bei 3 GHz hätte man FP32 mit VOPD ~50 TFLOPs FP32 (N48 mit 64 CUs). Wenn man ein Speedup von 4x für FP8 einbaut sind das immerhin 200 TOPS. Aber das ist im Vergleich zum potenziell nicht besonders schnellen PSSR (unter der Annahme dass die CNNs ähnliche Rechenleistungen brauchen) nicht so viel. Entsprechend könnte eine ähnliche Entscheidung wie bei Sony mit dem CNN spezifischen Instructionset sinnvoll sein.

aufkrawall
2024-12-22, 13:21:57
Was ich in dem DF reaction Video zum Sony PS5Pro Deep Dive interessant fand ist, dass PSSR mit den 2 ms wohl doch deutlich langsamer sein soll als DLSS. Ich glaube Alex sprach von 0.7 ms. Die Frage ist ob er das gegen die 2 ms Gesamtzeit von PSSR entgegensetzt oder gegen die 1 ms die das CNN braucht von PSSR.

Der reale Durchsatz wird halt wesentlich geringer sein als bei Fixed Function, wenn gleichzeitig noch 3D läuft. Und vermutlich ist das schon ein absolutes Spar-Modell gegen das von DLSS. Zumindest, wenn man das anhand des aktuellen Resultats bewertet und da nicht noch irgendein Wunder mit einer neuen Version passiert.

DrFreaK666
2024-12-22, 13:23:52
Das Wunder heißt Final Fantasy Rebirth

dildo4u
2024-12-22, 13:28:27
Ja 8er Serie meine ich ja :)
Und wer weiß ob sie N32 auch so noch laufen lassen ^^


Erste codesnippets (siehe Homex und dein Post im Nachbarforum) scheinen ja FP8 zu erhärten. ^^
Mal sehen ob AMD auch ihr Instructionset weiter aufgebohrt hat, um die FP8 TOPS Rate zu erhöhen.*

Was ich in dem DF reaction Video zum Sony PS5Pro Deep Dive interessant fand ist, dass PSSR mit den 2 ms wohl doch deutlich langsamer sein soll als DLSS. Ich glaube Alex sprach von 0.7 ms. Die Frage ist ob er das gegen die 2 ms Gesamtzeit von PSSR entgegensetzt oder gegen die 1 ms die das CNN braucht von PSSR.


Hängt das nicht von der Hardware ab hat DLSS immer 0.7 egal ob 4060 oder 4090 ich denke nicht.
Für ein Vergleich sollte man eine 4060 TI nutzen?

basix
2024-12-22, 13:37:48
*Bei 3 GHz hätte man FP32 mit VOPD ~50 TFLOPs FP32 (N48 mit 64 CUs). Wenn man ein Speedup von 4x für FP8 einbaut sind das immerhin 200 TOPS. Aber das ist im Vergleich zum potenziell nicht besonders schnellen PSSR (unter der Annahme dass die CNNs ähnliche Rechenleistungen brauchen) nicht so viel. Entsprechend könnte eine ähnliche Entscheidung wie bei Sony mit dem CNN spezifischen Instructionset sinnvoll sein.

Ich glaube nicht, dass das an den TOPS scheitern wird. Hier hat ARM bereits aufgezeigt, dass ein 10 GOPS DNN schon sehr gute Resultate erzielen kann:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13614986#post13614986

10 GOPS wären im Idealfall 0.05ms Azsführungszeit bei 200 TOPS / TFLOPS. In Realität wohl eher ~0.1ms, da man die GPU nicht zu 100% auslasten kann, aber das ist immer noch nichts.

Man muss auch berücksichtigen, dass FSR4 vermutlich auch auf RDNA2 abzielt (Konsolen). Eine PS5 hat ~20 TFLOPS FP16. Macht ~1ms für das 10 GOPS DNN. Ich denke also dass 10 GOPS keine schlechte Hausmarke ist. Evtl. macht AMD zwei verschiedene DNNs, eines für GPUs inkl. WMMA Unterstützung (RDNA3, RDNA4, Intel Arc, alle RTX GPUs) und ein kleineres, leichteres für non-WMMA GPUs sowie Konsolen und APUs / iGPUs. Evtl. kann man in Spielen via "FSR4 DNN Quality Setting" zwischen den zwei DNNs umschalten, wäre noch schick, z.B. aus akademischen Gründen :)

Edit:
Apropos 200 TFLOPS FP8, das wäre bereits eine Steigerung der Execution-Rate gegenüber RDNA3. RDNA3 hat 1x FP32, 2x FP16, 2x INT8, 4x INT4 Rates. RDNA4 vermutlich (wenn keine dedizierten Matrix-Cores zum Einsatz kommen) 1x FP32, 2x FP16, 4x INT8, 4x FP8, 4/8x INT4.

aufkrawall
2024-12-22, 14:05:39
Das Wunder heißt Final Fantasy Rebirth
Würde mich nicht wundern, wenn das TAA + Spatial ML Scaler wäre. Es fällt durch komplette Abwesenheit von "ML-Ghosting" aka Smearing auf, hat dafür aber einen seltsam aufgequollen-überschärften Look. Aber glaub ruhig an Wunder.

mboeller
2024-12-22, 14:28:48
Edit:
Apropos 200 TFLOPS FP8, das wäre bereits eine Steigerung der Execution-Rate gegenüber RDNA3. RDNA3 hat 1x FP32, 2x FP16, 2x INT8, 4x INT4 Rates. RDNA4 vermutlich (wenn keine dedizierten Matrix-Cores zum Einsatz kommen) 1x FP32, 2x FP16, 4x INT8, 4x FP8, 4/8x INT4.

Da Cerny in seinem deep-dive PS5-Pro Video auch darüber berichtet hat, dass AMD und Sony so zusammen arbeiten, dass beide die Früchte der Arbeit benutzen dürfen könnte es doch sein, dass AMD bei RDNA4 schon die PS5-Pro DNN-Sachen benutzen darf.

In seinem Video zeigt er ja per Diagramm wie sie auf die 300 TOPS kommen. Kurz gefasst: 16,7TFlops x 18 (9x Multiply + 9x ADD) = 300TOPS (8bit).

Die Frage wäre dann eher, ob bei RDNA4 50TFlops als Basis dienen können, oder doch "nur" 25TFlops. Wären aber 450 - 900 TOPS. Ich gehe aber aufgrund der 67TFlops (16bit) von 25TFLops aus, also 450TOPS für DNN's

Video ab 27min 25sec: https://www.youtube-nocookie.com/embed/lXMwXJsMfIQ

basix
2024-12-22, 14:33:47
Kann sein, dass sie das selbe DNN nutzen ja. Ich vermute aber nicht. Sony hat ihr Design auf die PS5 Pro spezialisiert, AMD will eine breitere HW-Basis unterstützen.

Ich glaube auch nicht, dass AMD die INT8 Umsetzung der PS5 Pro übernimmt. Wäre irgendwie ungewöhnlich, Sony spricht dort von Custom-Design.

DrFreaK666
2024-12-22, 15:28:34
Ja, Custom RDNA Design, wenn ich mich recht erinnere. Also von AMD

https://i.postimg.cc/15wXJqYb/Gf-Go-Quk-WAAAi1h-V.jpg (https://postimages.org/)

mboeller
2024-12-22, 19:54:24
????

https://x.com/All_The_Watts/status/1870791241157202361

https://x.com/All_The_Watts/status/1870840371045175436

https://x.com/All_The_Watts/status/1870895368327536841

9070?? 7090gre??

Der_Korken
2024-12-22, 19:59:37
Also 7900GRE <= N48XT < 7900XT

Für 649$ ... meh ...

GerryB
2024-12-22, 20:23:36
klingt nach 220W, was noch akzeptabel wäre
(für 275W wärs eigentlich Stillstand und der heimliche Sieger wäre ne olle GRE)

AffenJack
2024-12-22, 20:32:04
Also 7900GRE <= N48XT < 7900XT

Für 649$ ... meh ...

Die Preisspannen würde ich eher als groben Bereich sehen, ohne Ahnung zu haben, wo die Karte landet. Gleiche Sache wie bei Nvidia, Preise werden kurz vor Launch festgelegt.

Die Geschwindigkeit wäre für mich schon weniger als erwartet, wenn man manchmal nur auf 79GRE Level ist, auch wenn ich nie viel von den hochtrabenden Gerüchten gehalten hab. Aber in die Mitte von 79GRE und XT sollte man sich schon setzen. Sonst macht seine Einordnung mit der 192 Bit 7900 auf 78XT Level auch wenig Sinn.

MSABK
2024-12-22, 20:35:35
Rt wird wahrscheinlich der Knackpunkt im Vergleich zum Vorgänger.

The_Invisible
2024-12-22, 20:43:50
Timespy: https://x.com/All_The_Watts/status/1870895368327536841?t=rseNFr6z4eQHeEFWzqgp2g&s=19

4070ti bzw 7900gre niveau

AffenJack
2024-12-22, 20:44:53
Rt wird wahrscheinlich der Knackpunkt im Vergleich zum Vorgänger.

Die PS5Pro macht nicht den Eindruck, dass das soviel Unterschied machen wird. Ich erwarte da nicht, dass man an dei 79XT rankommt, wenn man bei Raster mehr als 10% hinten liegt. Das wäre schon ne Verbesserung, aber man sollte keine Wunder erwarten.

Der Knackpunkt dürfte für AMD Produktionspreis und Margen sein, die man deutlich verbessert. Deswegen halte ich auch nix von übertriebenen Preisangaben im Moment.

Der_Korken
2024-12-22, 20:45:17
Die Preisspannen würde ich eher als groben Bereich sehen, ohne Ahnung zu haben, wo die Karte landet. Gleiche Sache wie bei Nvidia, Preise werden kurz vor Launch festgelegt.

Die Geschwindigkeit wäre für mich schon weniger als erwartet, wenn man manchmal nur auf 79GRE Level ist, auch wenn ich nie viel von den hochtrabenden Gerüchten gehalten hab. Aber in die Mitte von 79GRE und XT sollte man sich schon setzen. Sonst macht seine Einordnung mit der 192 Bit 7900 auf 78XT Level auch wenig Sinn.

Ich hatte daw so interpretiert, dass 449$ für den Salvage und 649$ für den vollen Chip sind. Aber die Differenz wäre für den geringen Leistungsunterschied natürlich viel zu groß. Und ja, nach all der Wartezeit habe ich auch auf mehr Leistung gehofft. Ich bin mit einer 5700 natürlich weit entfernt, was aber nur dadurch ging, das ich einfach nichts aktuelles mehr spiele. Wenn ich heute in die neuen Games will, wäre mir "N21-Performance" eigentlich schon zu wenig.

Manchmal fühlt es sich so an, als wolle mich der GPU-Markt dafür bestrafen, dass ich damals zum 6800XT-Release nicht für 800 Ocken zugeschlagen habe, sondern den early adopter Aufschlag aussitzen wollte. Dann kam die lange Mining-Hölle, dann N32 aka N21v2 und jetzt anscheinend N48 aka N21v3. Die überteuerten 12GB-Krüppel von Nvidia zähle ich mal nicht :freak:.

@GerryB: Ich will den Teufel nicht an die Wand malen, aber mich würde es nicht überraschen, wenn N48XT trotzdem bei 275W liegen wird und somit 1:1 auf RDNA3-Effizienzlevel. Bei N32 waren wir hier auch lange vorsichtig optimistisch, bis kurz vorher so langsam Andeutungen kamen, dass N33N32 nicht an die 6900XT rankommt und dabei näher an 300W als an 200W liegen würde.

GerryB
2024-12-22, 20:45:18
Timespy: https://x.com/All_The_Watts/status/1870895368327536841?t=rseNFr6z4eQHeEFWzqgp2g&s=19

TS ohne passenden Treiber = ?, ... ist schwierig zu bewerten
Falls schon ein inoffizieller finaler Treiber existiert, wünsche ich dem Treiberteam ein Frohes Fest!
... und mir persönlich einen 24.12.2 am 31.12.


@GerryB: Ich will den Teufel nicht an die Wand malen, aber mich würde es nicht überraschen, wenn N48XT trotzdem bei 275W liegen wird und somit 1:1 auf RDNA3-Effizienzlevel. ...

Dann hat AMD echt ein Problem, wenn die 5070 mit 250W mal richtig hochgetaktet wird.
Beide mit ähnlichem, zu hohem Preis ?
(dann müsste N48 nach m.E. deutlich billger werden)

Hakim
2024-12-22, 21:11:54
Raster hätte ich mir schon so ~7900xt/4070ti super Niveau gewünscht, wenn der Post stimmt wäre es etwas drunter

robbitop
2024-12-22, 21:14:21
Das Ding hat 64 CUs. Ist deutlich unter 300mm2 und soll mehr RT Leistung und ML Capability haben. Wo soll deutlich mehr Rasterleistung herkommen als bei N32 oder N31XT?

Der_Korken
2024-12-22, 21:18:18
Das Ding hat 64 CUs. Ist deutlich unter 300mm2 und soll mehr RT Leistung und ML Capability haben. Wo soll deutlich mehr Rasterleistung herkommen als bei N32 oder N31XT?

Fiji hatte auch 64 CUs - sofern du meinen Hint verstehst.

Und wenn sich 275W und 649$ bewahrheiten, wäre mehr als Null Fortschritt gegenüber der alten Gen imho nicht zu viel verlangt.

basix
2024-12-22, 21:21:48
Das Ding hat 64 CUs. Ist deutlich unter 300mm2 und soll mehr RT Leistung und ML Capability haben. Wo soll deutlich mehr Rasterleistung herkommen als bei N32 oder N31XT?

~N31XT könnte durch mehr Takt schon drin liegen. Gab ja Gerüchte mit ~3.2GHz Takt. Das wäre ~7900XT Niveau hinsichtlich TFLOPS.

Falls der Takt sich bewahrheitet hängt es dann an der IPC, ob drüber oder drunter.

robbitop
2024-12-22, 21:33:28
Fiji hatte auch 64 CUs - sofern du meinen Hint verstehst.
.
Ein Vergleich der aber nicht passt. GCN -> RDNA hat viel mehr Transistoren pro CU gekostet. Dafür ist anhand der kolportierten Chipgrößen von N48 aber keinen Platz. Und weiterhin ist es auch „nur“ eine weitere Iteration von RDNA.

robbitop
2024-12-22, 21:36:33
~N31XT könnte durch mehr Takt schon drin liegen. Gab ja Gerüchte mit ~3.2GHz Takt. Das wäre ~7900XT Niveau hinsichtlich TFLOPS.

Falls der Takt sich bewahrheitet hängt es dann an der IPC, ob drüber oder drunter.

Jo N31XT Niveau wäre IMO noch gerade so drin (raster). Aber hier waren einige enttäuscht dass es „nur“ das Niveau ist.
Aber auch das muss er erstmal erreichen.
Man sollte doch realistisch bleiben und in den letzten paar Jahren hat die RTG nicht gerade viele Gründe zu echtem Enthusiasmus geliefert dass man annehmen könnte dass mit N48 jetzt (transistornormiert) ein krasser Sprung ansteht.
Geil wäre es - aber die Wahrscheinlichkeit ist nicht gerade groß IMO.

IPC Steigerung (tflop normiert - CU normiert wurde rdna3 schneller - das hat aber auch gut Transistoren gekostet und für den doppelten fp32 Durchsatz kam echt wenig dabei rum - und diesmal ist anscheinend nicht so viel Platz für mehr Transtoren pro CU drin wenn man die kleine Chipfläche bedenkt) gab es zuletzt 2019 mit RDNA1 - seit dem nur regressionen.

gedi
2024-12-22, 21:48:53
Ich finde das Ergebnis als erwartungsgemäß an. Mit finalem Treiber können es wegen mir auch 24k GPU-Score sein. Damit wäre man auf Augenhöhe mit einer 7900xt. Wer mehr erwartet hat, ... Wichtiger erscheint doch die RT-Leistung und die P/W. Wenn Seasonic recht behält, dann benötigt die 9070 in etwa 250w Boardpower, was dann ein Sprung von -60w wäre. Nicht überragend, aber besser als nix. Der Gegner wird eindeutig die 5070 sein.

w0mbat
2024-12-22, 21:56:54
Bei 200W und $599 vielleicht eine Option, sonst übernimmt Nvidia komplett. Und die neuen Namen sind mal komplett dämlich. RX 8800(XT) klingt so viel besser.

Der_Korken
2024-12-22, 22:02:11
Ein Vergleich der aber nicht passt. GCN -> RDNA hat viel mehr Transistoren pro CU gekostet. Dafür ist anhand der kolportierten Chipgrößen von N48 aber keinen Platz. Und weiterhin ist es auch „nur“ eine weitere Iteration von RDNA.

Es gibt neben der Anzahl und der "IPC" der CUs noch einen weiteren Parameter. Sonst wäre eine 7800XT ja nur 30% schneller als eine Fury X.

Die Chipgrößen sind noch nicht bekannt, aber bei den Minigrößen, die zeitweise zur Diskussion standen, könnte man das Teil ja vielleicht auch mal billiger verkaufen statt den Preis von N31LE zu matchen. Es sei denn, AMD ist mit <10% Marktanteil zufrieden und sie haben es nicht nötig ihre Entwicklungskosten über Stückzahlen abzuschreiben.

Ich finde das Ergebnis als erwartungsgemäß an. Mit finalem Treiber können es wegen mir auch 24k GPU-Score sein. Damit wäre man auf Augenhöhe mit einer 7900xt. Wer mehr erwartet hat, ... Wichtiger erscheint doch die RT-Leistung und die P/W. Wenn Seasonic recht behält, dann benötigt die 9070 in etwa 250w Boardpower, was dann ein Sprung von -60w wäre. Nicht überragend, aber besser als nix. Der Gegner wird eindeutig die 5070 sein.

Die 7900XT hat 26K und liegt damit knapp 15% vorne: https://www.computerbase.de
Da ist nichts mit "optimierte Treiber". Bei der 7800XT haben die 3DMark-Leaks auch nicht gelogen und sie kam ziemlich genau auf 6800XT-Performance raus. An eine geringere Leistungsaufnahme und gute RT-Performance glaube ich erst, wenn ich es sehe. 275W Board Power halte ich momentan für das wahrscheinlichste und bei RT würde mich eine weitere Billiglösung auch nicht überraschen.

Edit:

Und die neuen Namen sind mal komplett dämlich. RX 8800(XT) klingt so viel besser.

Allerdings. Die RTX5070 wäre schneller als die RX9070. Immer wenn AMD irgendein Namensschema von der Konkurrenz abkupfert oder sie eine Serie überspringen, um einen 100er oder 1000er vor der Konkurrenz zu sein (siehe Chipsets), war das Produkt tendenziell eher mies. Zusätzlich wirkt sowas auf mich sehr unsympathisch, wenn eine Firma so wenig Selbstbewusstheit hat, dass sie nicht ihr eigenes Ding durchziehen kann.

BlacKi
2024-12-22, 22:02:55
ich denke, das war schon allein anhand der bandbreite gut abzuschätzen, wo n48 liegen würde. und nun bestätigen erste leaks die performance.

raffa
2024-12-22, 22:12:24
RX AI 9070 XT :D

Raytracing ~2x RDNA2 (siehe ps5 pro)
Raster leichte Steigerung zu RDNA3
ML FSR4 (hoffentlich zum Start)
Effizienz?

Wenn AMD das Gesagte von wegen Marktanteilen ernst meint und die kleinen spekulierten Chipgrößen stimmen, dann wären recht agressive Preise schon denkbar. Geldmangel hat AMD ja nicht, aber der dGPU Marktanteil ist derweil echt bescheiden.

DrFreaK666
2024-12-22, 23:50:31
...Allerdings. Die RTX5070 wäre schneller als die RX9070. Immer wenn AMD irgendein Namensschema von der Konkurrenz abkupfert oder sie eine Serie überspringen, um einen 100er oder 1000er vor der Konkurrenz zu sein (siehe Chipsets), war das Produkt tendenziell eher mies. Zusätzlich wirkt sowas auf mich sehr unsympathisch, wenn eine Firma so wenig Selbstbewusstheit hat, dass sie nicht ihr eigenes Ding durchziehen kann.

Die aktuellen Ryzen-CPUs sind 9000er. Die nächsten Radeons sollen auch 9000er werden. Ich glaube das ist kein Zufall.
Außerdem ist RX8000 schon mit RDNA 3.5 besetzt. Auch so macht die 9000 Sinn

bbott
2024-12-23, 00:12:19
Und mit UDNA gibt es was komplett neues, somit macht 9xxx schon Sinn.

prinz_valium_2
2024-12-23, 00:45:19
Dann kann man nur noch über den Preis punkten. Das Teil muss für $499 kommen, wenn man gerade mal GRE performance erreicht.

Bei $649 oder so kann auch gleich wieder zur 5070TI greifen, auch wenn die noch teurer wird.

Hakim
2024-12-23, 04:32:57
9070xt gefällt mir irgendwie nicht, ich wünschte AMD würde etwas mehr in ihre eigenen versions Schema vertrauen als es der Konkurrenz ähnlicher zu machen. 8800xt sah und hörte sich doch gut an, wozu was ändern? Naja letzten Endes muss das Produkt was taugen, der Name ist dann zweitrangig. Ich hoffe endet nicht wie bei Intel nach der Änderung der Versionskennung :)

Altehardware
2024-12-23, 07:25:57
Die perf. ist genau da wo ich sie erwartet habe zwischen 7900gre und 7900xt
Der name ist nebensächlich aber was auffällt ist das der preis eher meh wird 649$ isn ansage da die dxr perf. auf etwa lvl der rtx4070 super sein wird denk amd wohl das nvidia die rtx5070 um diesen preis setzen wird.
579$ wäre ratsamer aber wir werden sehen
Die 449$ für den salvage der kaum über die rx7800xt kommt ist gewagt maxed rechne ich mit ner rtx4070 +5% perf.
Da kommt es stark auf die tbp an aber es wird vermutlich 220w sein womit das keine option ist.

amd typisch verkac... Nun da die 1000 durch sind dürfte ein neues Nameschema kommen.

robbitop
2024-12-23, 08:03:19
Es gibt neben der Anzahl und der "IPC" der CUs noch einen weiteren Parameter. Sonst wäre eine 7800XT ja nur 30% schneller als eine Fury X.


Takt ist schon einbezogen in mein Posting. Und auch da sollte man realistisch bleiben. 3-3,2 GHz (real und sustained!) sind wahrscheinlich schon ziemlich gut/optimistisch.

ich denke, das war schon allein anhand der bandbreite gut abzuschätzen, wo n48 liegen würde. und nun bestätigen erste leaks die performance.

So ist es. Der GDDR6 Takt und die LLC Menge war schon lange bekannt und ein ganz guter Indikator.

dildo4u
2024-12-23, 08:10:57
Die Leistungs Klasse ist klar 7900GRE wird nicht mehr Produziert da braucht man keine Timespy Werte.

https://www.computerbase.de/news/grafikkarten/produktion-eingestellt-amd-radeon-rx-7900-gre-ist-eol-und-macht-platz-fuer-rx-8000.90740

Das war das Problem Hoch Komplexer Chip der nur mit dem dritt größten NV Chip konkurriert.

7900 GRE 57 Milliarden Transistoren

https://www.techpowerup.com/gpu-specs/radeon-rx-7900-gre.c4166

4070S 36 Milliarden Transistoren mit besseren Upsampling Raytracing etc.

https://www.techpowerup.com/gpu-specs/geforce-rtx-4070-super.c4186

Redneck
2024-12-23, 08:46:56
Wenns so kommt, wäre es maximal uninteressant. Sehe keinen Sinn nur für besseres Raytracing 500/600 Euro auszugeben. Dann wirds dieses mal eben eine Karte von NV.

horn 12
2024-12-23, 09:34:55
Ja, Raytracing etwas über 7900XTX und dafür 8 GB Weniger Speicher
Bleiben Ladenhüter die Karten!
Einzig und Alleine kann FSR 4.0 was reißen und falls auch dies ein Fail wird ist es dies gewesen mit den Karten!
Wie so oft verkac.. es AMD erneut,- eine Karte für 349 und 449 Euro wäre mal was geworden,- aber so geht der Schuss zum X-ten Male nach hinten los.
AMD lernt nie aus,- so rennen sie erneut ins Messer und sacken bis zu 5% Marktanteile noch ab!

MSABK
2024-12-23, 09:45:19
Vlt kommt ja von Intel was brauchbares im Bereich $400 und somit hätten wir wenigstens bissi Auswahl.

prinz_valium_2
2024-12-23, 09:57:04
Ja, Raytracing etwas über 7900XTX und dafür 8 GB Weniger Speicher
Bleiben Ladenhüter die Karten!
Einzig und Alleine kann FSR 4.0 was reißen und falls auch dies ein Fail wird ist es dies gewesen mit den Karten!
Wie so oft verkac.. es AMD erneut,- eine Karte für 349 und 449 Euro wäre mal was geworden,- aber so geht der Schuss zum X-ten Male nach hinten los.
AMD lernt nie aus,- so rennen sie erneut ins Messer und sacken bis zu 5% Marktanteile noch ab!
Dabei weiß AMD wie es geht und hat es mit Zen vorgemacht.
Ein großartiges Produkt zu einem großartigen Preis rausbringen und danach wenn man Goodwill hat, reichen auch gute Produkte zu okayen Preisen.

Aber bei den GPUs gibt es nur noch mittelmäßigste Produkte zu mittelmäßigen Preisen im besten! Fall.
Aber sie können auf Grund der Kosten und Vorgaben wohl nicht anders.

Eine RX 9070XT für $499 und der salvage Part für $379 würde das ganze mal eben zu einem guten Produkt (P/L ist halt ein Bewertungsmaßstab) zu einem großartigen Preis machen.
Selbst bei nur GRE Performance und unter 5070.

Den kleinen Chip dann für $229 bis $299 anbieten.
Intel kann auch 16GB GDDR6 für $250 verkaufen.

Okay es ist ein älterer Prozess, aber trotzdem. Die Preise liegen ja noch drüber und das sind nur die Startpreise für die billig Modelle. Wenn der Markt bereit ist mehr zu zahlen, gehen sie hoch wie beim ryzen 9080X3D.

robbitop
2024-12-23, 10:00:10
Die Frage ist ob die 7 dieses Mal an Nvidia angelehnt wird (also was sie glauben 5070 sein wird als target) oder ob man wie bei RDNA3 die Zahl eine Nummer zu groß gemacht hat.

BlacKi
2024-12-23, 10:03:32
Ja, Raytracing etwas über 7900XTX
also sicher gibts performance optimierungen. aber welche generation welchen herstellers hat denn schonmal zweistellige prozentpunke RT optimierungen gebracht? und du glaubst direkt an 30%? oder meinst du das mit softwareoptimierungen wie RT reconstruction? rein in architekturbedingt 30% in RT halte ich für nicht möglich.

HOT
2024-12-23, 10:28:00
RX AI 9070 XT :D

Raytracing ~2x RDNA2 (siehe ps5 pro)
Raster leichte Steigerung zu RDNA3
ML FSR4 (hoffentlich zum Start)
Effizienz?

Wenn AMD das Gesagte von wegen Marktanteilen ernst meint und die kleinen spekulierten Chipgrößen stimmen, dann wären recht agressive Preise schon denkbar. Geldmangel hat AMD ja nicht, aber der dGPU Marktanteil ist derweil echt bescheiden.
Wenn man die Karten günstig herstellen kann ist der Markt bei den Preisen die reinste Goldgrube... AMD muss eben etwas machen, was man noch nie gemacht hat: massenhaft GPUs am Start haben.

BlacKi
2024-12-23, 10:43:51
sry, aber marktsegmente auszulassen bewirkt erstmal, das man marktsegmente verliert. wenn die leute bei der xtx bleiben, verkauft man weniger karten. und preislich attraktiv war die rdna3 generation auch schon gegenüber nv. dann kommen so sprüche wie, man kann die marktanteile nicht über den preis steigern, von amd selbst.

tja, dann kommen diese leaks zur performance.

bleibt nur fsr4. und da bin ich dabei, dass wird das wichtigste feature werden, das amd bringen wird. und doch glaube ich nicht, das man damit direkt am start punkten können wird. zu wenige spieletitel und anfangsprobleme.

aufkrawall
2024-12-23, 10:53:09
Nach dem FSR 3.1-Debakel bez. der Upsampling-Qualität müsste schon die Hölle zufrieren, dass FSR 4 bei 66% Auflösung auch nur mit DLSS Preset C mithalten könnte. Von Preset E und RR bei 50% ganz zu schweigen.
Das letzte Feature Anti-Lag 2 ist noch immer in fast gar keinem MP-Shooter verfügbar und fehlt auch immer noch ständig mit FG. Angesichts solcher Entwicklungen tut mir der Optimismus einiger hier bez. AMD-Features mittlerweile wirklich im Kopf weh...

dildo4u
2024-12-23, 10:59:32
Preise müssen nur stimmen die neue Intel Karte hat wild schwanke Leistung wurde aber trotzdem Positiv aufgenommen.

9700 ohne XT muss imo 400€ sein in dem Bereich ist Nvidia am schwächsten.

davidzo
2024-12-23, 11:14:22
Ich finde das Ergebnis als erwartungsgemäß an.

Finde ich auch. Das ist der übliche AMD-Hypetrain kurz vor dem Launch gewesen der hier die Erwartungshaltung hochgeschraubt hat auf den letzten 20 Seiten. Wer da noch mitfiebert hat die letzten Jahre nichts gelernt, den Hypetrain darf man getrost ignorieren.
Wenn man etwas zurückblättert waren die Erwartungen noch realistischer. Es war klar dass der Chip ein reiner midrange bis performance class Chip wird, also 5060-5070. Alle Indizien sprechen für einen eher geringen Sprung:
- AMD cancelt die RDNA4 Big-chips weil sie nicht konkurrenzfähig gewesen wären (sagt nichts gutes über RDNA4)
- Kein neuer Fullnode Sprung. N4P bietet entweder 22% weniger Leistungsaufnahme oder 11% mehr Performance. In erster Linie ist es aber ein kostenoptimierter Node mit weniger Masken, schnellerer Wafer Durchlaufzeit.
- Der Chip ist mit 270mm2 nur wenig größer als N33 und auf dem level von B580. Das ist defacto kleiner als Navi32. Und das trotz 4CUs mehr und neuer RT Technologie. Man wird also woanders in der Architektur abgespeckt haben müssen.
- Wir haben mitgekriegt dass AMD relativ langsamen GDDR6 bestellt hat. Der Infinitycache bleibt trotzdem bei 64MB. Das performance-Ziel kann also nicht zu hoch sein.
- Die GRE hat 80CU und 260W TBP. Von der Bandbreite her sind beide 256bit/64MB IF$. Ich denke wenn man mit 64CU und 220Watt TBP die GRE Leistung erreicht ist das schon sehr beachtlich für einen halfnode Sprung.


Und die neuen Namen sind mal komplett dämlich. RX 8800(XT) klingt so viel besser.
Finde ich nicht.
Mich nervt schon lange dass AMD nach der 6800xt die 800er Serie so abgewertet hat. Die 5700xt war ein starker 2070 counter, da hat die Welt noch gestimmt. Navi32 ist ein klarer 700er Chip und die neue Karte eben auch. Ich finde immer noch dass ein 800er/80er Chip wenigstens in Schlagweite zu Nvidias 80er Serie sein müsste.

Die perf. ist genau da wo ich sie erwartet habe zwischen 7900gre und 7900xt
Der name ist nebensächlich aber was auffällt ist das der preis eher meh wird 649$ isn ansage da die dxr perf. auf etwa lvl der rtx4070 super sein wird denk amd wohl das nvidia die rtx5070 um diesen preis setzen wird.

genau, marketingmäßig wird man sich eher mit der 4070super und 4080 vergleichen, auch wenn man letztere nicht erreicht. Den Vergleich zur 7900xtx wird man scheuen weil man im Rasterizing und in hohen Auflösungen nicht mithalten kann und außerdem die RT perf wohl diesmal ähnlich zu nvidia ist. Gegenüber der 4070super hat man mehr Speicher und gegenüber der vanilla 4080 ist man halt viel erschwinglichere 16GB. Der Pitch ist eine "poor mans 4080" und trifft damit ziemlich genau was sich die Mehrzahl der AMD Käufer wünscht:
- AMD Käufer würden eigentlich lieber eine Nvidia Highend-Karte haben, wünschen sich aber eine bessere Preis/Leistung.
- AMD Käufer planen gerne voraus und informieren sich viel über ihre Kaufentscheidung und sind daher von Nvidias erschwinglicheren MidrangeKarten abgeschreckt weil Speichermenge und Performance da nicht passen.
- Last-gen oder gebrauchte Nvidia Highenkarten sind für AMD Käufer durchaus eine Option. Zum Beispiel eine 1080ti statt einer 6600xt oder eine 2080 statt einer 7600.
= AMD pitcht die Karten am besten als erschwingliche last gen nvidia Highend Karten.

Takt ist schon einbezogen in mein Posting. Und auch da sollte man realistisch bleiben. 3-3,2 GHz (real und sustained!) sind wahrscheinlich schon ziemlich gut/optimistisch.



So ist es. Der GDDR6 Takt und die LLC Menge war schon lange bekannt und ein ganz guter Indikator.
Eben. 11% mehr Perf laut TSMC, dann aber gleiche effizienz. Oder halt 22% mehr Effizienz bei gleichem Takt.

Die Frage ist ob die 7 dieses Mal an Nvidia angelehnt wird (also was sie glauben 5070 sein wird als target) oder ob man wie bei RDNA3 die Zahl eine Nummer zu groß gemacht hat.
Ich denke die 7 ziehlt auf die 4070 super. Wo nvidia mit der 5070 landet weiß man nicht, aber mit nur 50SMs und weiterhin 12Gb wird es vermutlich auch nicht viel mehr.
Aber da AMD sowieso bei Gamern zweite Wahl ist, konkurriert man am Markt eh stärker mit nvidias Last Gen, sofern die Verfügbar ist. Blackwell sieht aber auch nicht nach einem großen perf-sprung bei rasterizing oder im RT aus, sondern wiedermal nur nach einer neuen DLSS Version.

HOT
2024-12-23, 11:24:37
sry, aber marktsegmente auszulassen bewirkt erstmal, das man marktsegmente verliert. wenn die leute bei der xtx bleiben, verkauft man weniger karten. und preislich attraktiv war die rdna3 generation auch schon gegenüber nv. dann kommen so sprüche wie, man kann die marktanteile nicht über den preis steigern, von amd selbst.

tja, dann kommen diese leaks zur performance.

bleibt nur fsr4. und da bin ich dabei, dass wird das wichtigste feature werden, das amd bringen wird. und doch glaube ich nicht, das man damit direkt am start punkten können wird. zu wenige spieletitel und anfangsprobleme.

Alles völlig irrelevant, wenn die Preise gut sind, das hat die 7800XT gezeigt. Wenn die Dinger 20-30% unter NV bepreist sind gehen die wie warme Semmeln.

Redneck
2024-12-23, 11:38:03
sry, aber marktsegmente auszulassen bewirkt erstmal, das man marktsegmente verliert. wenn die leute bei der xtx bleiben, verkauft man weniger karten. und preislich attraktiv war die rdna3 generation auch schon gegenüber nv. dann kommen so sprüche wie, man kann die marktanteile nicht über den preis steigern, von amd selbst.

tja, dann kommen diese leaks zur performance.

bleibt nur fsr4. und da bin ich dabei, dass wird das wichtigste feature werden, das amd bringen wird. und doch glaube ich nicht, das man damit direkt am start punkten können wird. zu wenige spieletitel und anfangsprobleme.
So isses..
Vor allem holt man die noch verbliebene Basis, die bereits eine 7900 XT/XTX oder wie meiner einer mit einer 6900XT mit so einer RDNA4 nicht ab (vorausgesetzt die leaks stimmen). FSR4 taugt nicht als alleiniger Grund. Da kann ich gleich zu DLSS greifen und habe dann noch mehr Features und Performance... Nee.. Das geht nur über Preis (was mich aber auch nicht lockt..)

horn 12
2024-12-23, 13:11:37
https://videocardz.com/newz/leaked-amd-gpu-render-confirmed-by-hardware-insider-as-radeon-rx-9070-xt

Karte scheint echt zu sein, 3 Lüfter und da dann bei 270 Watt zu landen bei 7900X Leistung mit 4GB Minderspeicher würde den Vogel abschiessen.

DrFreaK666
2024-12-23, 13:14:39
Wenns so kommt, wäre es maximal uninteressant. Sehe keinen Sinn nur für besseres Raytracing 500/600 Euro auszugeben. Dann wirds dieses mal eben eine Karte von NV.

Die Nvidia kaufst dann wegen schlechterer RT-Leistung?

Redneck
2024-12-23, 13:36:58
Die Nvidia kaufst dann wegen schlechterer RT-Leistung?

Ich brauche mehr Raster (VR). Raytracing spielt bei mir kein Rollo. NV hat ja auch aktuell noch besseres Upscaling und andere Dinge. Habe seit Ewigkeiten (zwischendurch einmal eine gtx970) ATI/AMD im Rechner, aber wenn es für meinen Anwendungsfall nichts gescheites gibt - ADIEU.

w0mbat
2024-12-23, 14:45:40
Finde ich nicht.
Mich nervt schon lange dass AMD nach der 6800xt die 800er Serie so abgewertet hat. Die 5700xt war ein starker 2070 counter, da hat die Welt noch gestimmt. Navi32 ist ein klarer 700er Chip und die neue Karte eben auch. Ich finde immer noch dass ein 800er/80er Chip wenigstens in Schlagweite zu Nvidias 80er Serie sein müsste.

Mir gehts auch weniger um die "-800", sondern um die Anpassung an die Nvidia-Nomenklatur.

RX 8700(XT) wäre mMn auch eine gute Wahl und deutlich besser als RX 9070.

robbitop
2024-12-23, 15:17:51
Genau. Einfach mal auf eine Nomenklatur festlegen und dabei bleiben. Siehe Apple. A18(Achtzehnte Iteration eines SoC) :)

DrFreaK666
2024-12-23, 15:25:33
Mir gehts auch weniger um die "-800", sondern um die Anpassung an die Nvidia-Nomenklatur.

RX 8700(XT) wäre mMn auch eine gute Wahl und deutlich besser als RX 9070.

Wir haben Ryzen 9000 und jetzt bald Radeon 9000.
Keine Ahnung wieso da Radeon 8000 besser passen soll.
Radeon 8000 ist RDNA 3.5

Der_Korken
2024-12-23, 15:30:21
Wir haben Ryzen 9000 und jetzt bald Radeon 9000.
Keine Ahnung wieso da Radeon 8000 besser passen soll.
Radeon 8000 ist RDNA 3.5

Dann eben RX 9700(XT). Auch das würde ins alte Namensschema passen. Die Zehnerstelle fürs Segment passt nicht zu den alten GPUs, dafür 1:1 zum Namensschema der Konkurrenz.

AffenJack
2024-12-23, 15:45:18
https://x.com/All_The_Watts/status/1871185600310899030?t=19sovspe77_XR0Zj2ZMxbA&s=19

Port Royal 14723
Laut Twitter leicht über 79XT. Das wäre für RT nen gutes Ergebnis, wenn man ohne RT mehr als 10% hinter der 79XT liegt. Man hat ja nicht nur RT in so einem Benchmark, daher würde auf ne gute RT Steigerung hindeuten, wenn ma. Da soviel aufholt.

mczak
2024-12-23, 15:47:07
Genau. Einfach mal auf eine Nomenklatur festlegen und dabei bleiben. Siehe Apple. A18(Achtzehnte Iteration eines SoC) :)
Wobei das Namensschema nicht ganz so alt ist wie die 18 suggeriert. Der erste Chip mit A-Namen war der A4 - gab zwar durchaus 3 Vorgänger in der A-Reihe, die hatten aber keinen offiziellen Namen :rolleyes:.

robbitop
2024-12-23, 16:36:28
Wobei das Namensschema nicht ganz so alt ist wie die 18 suggeriert. Der erste Chip mit A-Namen war der A4 - gab zwar durchaus 3 Vorgänger in der A-Reihe, die hatten aber keinen offiziellen Namen :rolleyes:.
Weiss ich. Die ersten drei hat noch Samsung geliefert und hat man wohl mitgezählt weil man da auch schon am SoC gearbeitet hat. Aber der springende Punkt ist Konsistenz seit vielen vielen Jahren.

MSABK
2024-12-23, 16:40:44
Finde es ehrlich gesagt auch nicht so gut, dass sich AMD an den Nvidia Namen orientiert. So erweckt Amd mehr den Anschein als müssen sie hinterherlaufen, was sie ja an sich schon tun, und machen es quasi offiziell.

G3cko
2024-12-23, 16:51:51
Wir haben Ryzen 9000 und jetzt bald Radeon 9000.
Keine Ahnung wieso da Radeon 8000 besser passen soll.
Radeon 8000 ist RDNA 3.5

Es macht keinen Sinn das Namensschema an Ryzen zu orientieren. Bei Ryzen haben die APUs eine eigene Nummernserie, weshalb ja Zen 4 als Ryzen 9000 erschien. Bei den GPUs würde man regelmäßig Nummer auslassen. Eigentlich müssten die APUs ins reguläre Namensschema und kein eigenes bilden, mit einer Art Suffix wie Intel K-CPUs oder AMDs X3D.

Ex3cut3r
2024-12-23, 16:52:54
Kommt maximal an eine RX 7900 GRE ran. Herzlichen Glückwunsch AMD. Da habt ihr mal wieder fantastische Arbeit geleistet :rolleyes:

G3cko
2024-12-23, 16:56:55
Kommt maximal an eine RX 7900 GRE ran. Herzlichen Glückwunsch AMD. Da habt ihr mal wieder fantastische Arbeit geleistet :rolleyes:

Niemand wird gezwungen jede Generation eine neu Grafikkarte zu kaufen. Das dürften auch die wenigsten machen. Nach der Vega64 kam eine RX480 auch nicht an die Leistung ran. Man muss sich damit abfinden, dass es nicht jede Generation Oberklasse Chips gibt.

Eine 9800XT wäre genau das was ich suche. Mittelklasse und dabei kein Speicherkrüppel zu einem vernünftigen Preis.

Th3o
2024-12-23, 17:01:51
Kommt maximal an eine RX 7900 GRE ran. Herzlichen Glückwunsch AMD. Da habt ihr mal wieder fantastische Arbeit geleistet :rolleyes:
Man kann sich ja eine sauteure Nvidia 5xxx Karte kaufen, wenn das notwendige Kleingeld vorhanden ist. So what?

Ex3cut3r
2024-12-23, 17:07:13
Es ist Offenbarungseid von AMD, und ihr fragt so what? Damit gibt man zu, keine Chance gegen Nvidia zu haben und die Krönung ist dann noch, dass man eine Karte herausbringt, die nicht mal den drittplatzierten der letzten Gen aus dem eigenen Hause schlagen kann.

robbitop
2024-12-23, 17:12:40
Das hatten wir mit Polaris doch damals auch schon mal. Ist gf nichts für Enthusiasts aber wenn der Preis stimmt ggf. was für die Masse.

Ex3cut3r
2024-12-23, 17:21:59
Und die hat sich toll gut verkauft im Vergleich zu einer 1060 und 1070? Nein!

Das ging damals genau so in die Hose und hat nicht wirklich was gebracht, warum das jetzt schon wieder probiert wird, mir ein Rätsel.

Damals (2016) gab es nicht mal Ryzen und AMD war wirklich knapp bei Kasse. Mit dem Ryzen Erfolg sollte genug Investitionskraft da sein, mal was anständiges in der GPU Sparte hinzubekommen. Aber nein, AMD geht einfach mal wieder 2-3 Schritte zurück in der GPU Sparte.

robbitop
2024-12-23, 17:23:52
Man muss schon realistisch bleiben (wegen mindshare und dem technologischen Vorsprung von nv). Relativ zu Geforce hat sich keine Radeon eine lange Zeit gut verkauft. Aber gemessen an Radeon sales war Polaris iirc ziemlich gut.

raffa
2024-12-23, 17:26:59
Jupp, zu Polaris Zeiten hatte AMD um die 30% Marktanteil, heute sinds 10.

https://www.heise.de/news/AMD-erhoeht-Grafikkarten-Marktanteil-auf-fast-30-Prozent-3812947.html

Ex3cut3r
2024-12-23, 17:28:34
Das lag eher am bescheuerten Mining.

Der_Korken
2024-12-23, 17:32:02
Man muss sich damit abfinden, dass es nicht jede Generation Oberklasse Chips gibt.

In Zweiten, wo mehr als zwei Jahre zwischen zwei Generationen vergehen, bedeutet das, dass das entsprechende Segment für mehr als 4 Jahre nicht besetzt ist.

Das hatten wir mit Polaris doch damals auch schon mal. Ist gf nichts für Enthusiasts aber wenn der Preis stimmt ggf. was für die Masse.

"Nichts für Enthusiasten" ist ja purer Euphemismus. Natürlich erwartet niemand, dass AMD mit GB102 mitzieht, aber selbst GB103 wird kaum noch mit dem Fernglas zu sehen sein. Da wo die 12GB von GB205 reichen, wird N48 selbst gegen diesen schon Probleme bekommen.

Jetzt bringst du mit Verweis auf Polaris den Preis ins Spiel, aber was müsste eine 9070XT kosten, um attraktiv zu sein? Die 7900GRE für 649$ bzw. unter 600€ Straßenpreis, sowie die 7800XT für 499$ und 500€ Straßenpreis haben zuletzt für 10% Marktanteil gereicht. Ein attraktiver Preis wäre imho <500$, ansonsten wird die Karte bestenfalls von Leuten gekauft, denen die aktuelle Karte kaputt gegangen ist und gezwungen sind zu kaufen. Alle anderen haben längst zugeschlagen. Allein dass von dem Leaker ein Preisbereich von 449$ bis 649$ ins Spiel gebracht wurde, stimmt mich pessimistisch.

robbitop
2024-12-23, 17:33:23
Das lag eher am bescheuerten Mining.

Mining hatten beide IHVs. Sollte sich also normieren.



"Nichts für Enthusiasten" ist ja purer Euphemismus. Natürlich erwartet niemand, dass AMD mit GB102 mitzieht, aber selbst GB103 wird kaum noch mit dem Fernglas zu sehen sein. Da wo die 12GB von GB205 reichen, wird N48 selbst gegen diesen schon Probleme bekommen.

Jetzt bringst du mit Verweis auf Polaris den Preis ins Spiel, aber was müsste eine 9070XT kosten, um attraktiv zu sein? Die 7900GRE für 649$ bzw. unter 600€ Straßenpreis, sowie die 7800XT für 499$ und 500€ Straßenpreis haben zuletzt für 10% Marktanteil gereicht. Ein attraktiver Preis wäre imho <500$, ansonsten wird die Karte bestenfalls von Leuten gekauft, denen die aktuelle Karte kaputt gegangen ist und gezwungen sind zu kaufen. Alle anderen haben längst zugeschlagen. Allein dass von dem Leaker ein Preisbereich von 449$ bis 649$ ins Spiel gebracht wurde, stimmt mich pessimistisch.

Man darf nicht vergessen, dass man für eine 203 SKU schnell 4 stellig hinlegt und für den yield cut down noch 800€.
Auch wenn es noch eine höhere SKU mit der 90er gibt - da legt man dann 2000€ hin.
Das ist alles fern ab der Realität des Massenmarktes. Welcher 0815 Mensch haut solche Mengen an Geld raus für nur eine GPU? Da sind wir in einer Filterblase.
Die PS5PRO (das ist ein komplettes System und nicht nur eine GPU) wurde für ihre 800€ kritisiert.
Ich denke der Massenmarkt findet bis 500€ statt. Ggf noch im Auslauf bei 600€.

Und genau dort wird man mit N44 und 48 landen. Aber: es ist wichtig dass man dort einen guten Preis macht. 650€ für nichtmal 7900xt Leistung wird uninteressant. Aber 499 wäre etwas anderes.
Ich bin aber auch nicht sonderlich optimistisch zu diesem Szenario. AMD hat schon lange aufgehört wirklich konsistent preiswert sein zu wollen mit den Radeons.

Ex3cut3r
2024-12-23, 17:35:33
War Pascal nicht im Vergleich zu Polaris viel schlechter bezüglich Mining? Ich glaube, da war etwas.

Th3o
2024-12-23, 17:48:24
Es ist Offenbarungseid von AMD, und ihr fragt so what? Damit gibt man zu, keine Chance gegen Nvidia zu haben und die Krönung ist dann noch, dass man eine Karte herausbringt, die nicht mal den drittplatzierten der letzten Gen aus dem eigenen Hause schlagen kann.
Solange der P/L Verhältnis stimmt, werden sich genug Käufer finden. Es spielt nicht jeder in 4k mit RT. Und es ist imho nicht schlimm zuzugeben, dass jemand anders in der Spitze besser ist.

Ex3cut3r
2024-12-23, 17:50:01
Der Mitbewerber hat doch auch "günstige" Karten. Eine 5070 hat mehr RT Leistung und ist vermutlich sogar im Raster schneller. Mit 16GB (anstatt der 12GB) sehe ich gar kein Argument für eine AMD Karte.

Der_Korken
2024-12-23, 17:59:58
Der Mitbewerber hat doch auch "günstige" Karten. Eine 5070 hat mehr RT Leistung und ist vermutlich sogar im Raster schneller. Mit 16GB (anstatt der 12GB) sehe ich gar kein Argument für eine AMD Karte.

Die 5070 wird natürlich weiterhin 12GB haben und nur einen Chip mit 50 SMs bekommen (4070S hat aktuell 58SMs). Für 16GB wirst du die 4070Ti für 899$ kaufen müssen. Für eine gescheite Custom abseits der Dual-Fan-Brüllwürfel wird man entsprechend >1000€ hinblättern müssen.

Ex3cut3r
2024-12-23, 18:10:38
Mal abwarten ob, Sie nicht doch 16GB hat. ;)

Der_Korken
2024-12-23, 18:18:13
Mal abwarten ob, Sie nicht doch 16GB hat. ;)

GB105 hat nur ein 192bit Interface. 16GB sind da zu 100% ausgeschlossen.

reaperrr
2024-12-23, 18:19:53
Mal abwarten ob, Sie nicht doch 16GB hat. ;)
Geht mit einem 192bit SI nicht.

Kann sein, dass es später (aber halt nicht zum Launch) ne 18GB-Version gibt, die wird sich NV aber ähnlich wie die 4060Ti-16GB entsprechend vom Kunden vergolden lassen. Unter 699$/800€ seh ich die nicht.

Die 5070 Ti basiert diesmal gleich auf dem nächstgrößeren Chip, daher wird NV die nicht unter 900-1000€ verkaufen.


Summa Summarum: Wer ne NV-Karte mit mehr als 12GB für unter 800€ will, muss ne 5060Ti nehmen (die wird von den Specs her aber langsamer als ne 4070), oder ne gebrauchte 4070 Ti Super, wenn die mal günstiger werden sollten. Oder halt ne alte 3090 (Ti), wenn der Verbrauch egal ist.

Ex3cut3r
2024-12-23, 18:21:01
Wer sagt, dass die Leaks stimmen?

reaperrr
2024-12-23, 18:25:15
Wer sagt, dass die Leaks stimmen?
So kurz vorm Launch waren Infos, die von mehreren Gerüchteküchen übereinstimmend berichtet wurden, schon lange nicht mehr falsch.

Zu diesem Zeitpunkt dürften Boardpartner schon gebrieft sein, spätestens dann würden Abweichungen durchsickern, wenn es sie gäbe.

robbitop
2024-12-23, 18:41:32
Blackwell wird sicherlich eher etwas teurer als Ada werden. Wer glaubt da eine günstige 5070 mit viel Speicher und großem Performanceboost zum günstigen Preis zu bekommen wird wahrscheinlich enttäuscht werden. Das Melken wird vermutlich eher schlimmer werden.

BavarianRealist
2024-12-23, 19:16:51
... 650€ für nichtmal 7900xt Leistung wird uninteressant. Aber 499 wäre etwas anderes...

Bei den genannten Preisen dürte es sich ja eher um geplante Listenpreise handeln. Je nach Situation dürften sich dann die Marktpreise nach unten bewegen, denke ich.

Langlay
2024-12-23, 19:36:40
Niemand wird gezwungen jede Generation eine neu Grafikkarte zu kaufen. Das dürften auch die wenigsten machen. Nach der Vega64 kam eine RX480 auch nicht an die Leistung ran. Man muss sich damit abfinden, dass es nicht jede Generation Oberklasse Chips gibt.



Dein Beispiel passt nicht, Vega10 kam 1 Jahr nach Polaris10.

Aber ja Polaris10 hatte auch nur die Leistung des damals 3 Jahre alten Hawaii Chips.

BlacKi
2024-12-23, 19:41:05
Kommt maximal an eine RX 7900 GRE ran. Herzlichen Glückwunsch AMD. Da habt ihr mal wieder fantastische Arbeit geleistet :rolleyes:man ist doch schneller als eine GRE und in raster langsamer als ne xt aber schneller in RT.


das war im erwartbaren ramen, wenn man die leaks zum vram berücksichtigt. und ja, amd hat schon lange bei der entwicklung von rdna4 enthusiast den stecker gezogen. das ist keine neuigkeit.

Mal abwarten ob, Sie nicht doch 16GB hat.

erine 5070ti wurde ja schon mit 16gb geleakt. eine 5070 mit 16gb wäre nur mit 3gb modulen möglich, was zum release nicht passieren wird.

Ex3cut3r
2024-12-23, 19:44:23
Schön und gut, und worauf sollen jetzt RDNA 2 Besitzer einer 6800 XT - 6900 XT, die keine RDNA 3 Karte gekauft haben wechseln? Bleibt ja nur eine GeForce übrig. So eine RTX 5070 Ti käme wohl als erstes infrage.

w0mbat
2024-12-23, 19:46:19
Jupp, RTX 50. Ich schiele auf die 5090.

Hakim
2024-12-23, 20:02:30
Was sollen Leute machen die maximal 600 bis 700€ ausgeben wollen. Ist irgendwie für die, die sowieso das beste wollen am einfachsten, zwar teuer aber bekommen eine ordendliche Karte mit gutem Performance Upgrade. Bei den billigeren Kategorien wird man mit ~10-15% Zuwachs abgefertigt, oder muss Kompromisse beim Vram eingehen.

fizzo
2024-12-23, 20:13:38
Bei mir steckt momentan noch eine 6700 XT im Rechner und ich freu mich schon auf den Release der neuen 9700 XT. Mehr Speicher, spührbar mehr Leistung sowohl in Raytracing wie auch in Raster bei annähernd selben Verbrauch. Da lohnt sich ein Wechsel sehr wohl. Der einzige Knackpunkt könnte der Preis werden. Meine Schmerzgrenze liegt bei ~ € 600,00.

GerryB
2024-12-23, 20:27:07
Vllt. haste Glück und NV bringt die 5070@659€ ala 4070S, ... das könnte den Preis der 9070xt drücken.
Mir kommt die N48-Speku mit 649$ ziemlich überhöht vor, = >GRE, die es im Januar für 535€ gab!

reaperrr
2024-12-23, 20:28:07
Was sollen Leute machen die maximal 600 bis 700€ ausgeben wollen. Ist irgendwie für die, die sowieso das beste wollen am einfachsten, zwar teuer aber bekommen eine ordendliche Karte mit gutem Performance Upgrade. Bei den billigeren Kategorien wird man mit ~10-15% Zuwachs abgefertigt, oder muss Kompromisse beim Vram eingehen.
So ist es.

Man bekommt ne Raster-Leistung zwischen 4070S und 4070Ti, 16GB RAM und ne RT-Leistung immerhin über 7900XT für das Geld.
Was Neukarten angeht, ist alles andere entweder langsamer (jedenfalls in Raster), teurer, oder hat nur 12GB.
Daran werden auch 5070 und 5060Ti nichts ändern, mindestens einer dieser Punkte trifft auf jede NV-Karte zu, und jetzt wo die GRE quasi vom Markt ist eigentlich auch auf jede verfügbare AMD-Karte.

Ich glaub auch noch nicht an die 649$, mehr als an einer 7800XT verdienen sie auch noch mit nem Preis von 549-599$.
Wenn die 5070 schneller ist und für 599$ kommt, wird AMD den Preis auch knapp unter dieser ansetzen, hat bei der 7800XT vs. 4070 auch relativ gut funktioniert.

madzapp
2024-12-23, 20:32:07
Mein Tipp ist ein RTX4070TIS-Klon für 680€. Habe die letzten Wochen um 30€ erhöht.

Ex3cut3r
2024-12-23, 20:40:31
Wie soll man an eine 4070 Ti Super ran kommen, wenn man gerade so an eine 7900 GRE rankommt?

GerryB
2024-12-23, 21:06:25
Falls AMD die Graka@stock doch nur mit 220W laufen lässt, kanns vllt.@275W mit OCen in manchen Games reichen.
Die Graka sollte ja gut über Takt skalieren. (und Vram-OCen nicht vergessen dabei)

Speku:
Der Namen würde es ja hergeben 9070xt@220W und ne 9070XTX@275W, falls da mit Binning und 100mV+ more was geht.
ala 6900xt und 6900XTXH
(als Customs wg. Kühler)

mczak
2024-12-23, 21:09:50
Geht mit einem 192bit SI nicht.

Sag niemals nie, rein theoretisch ginge das indem 2 32bit Kanäle im Clamshell-Modus laufen (also 2x2 16gbit Chips) und die anderen Kanäle im normalen Modus. Das "kleine" Problem dabei, nur 12GB haben volle Bandbreite,die restlichen 4 bloss ein Drittel. Aber bei der GTX 970 ging sowas ähnliches ja auch :tongue:.

BlacKi
2024-12-23, 21:13:25
bzgl. performance leak. schon erstaunlich das VCZ die ergebnisse nicht postet.

Schön und gut, und worauf sollen jetzt RDNA 2 Besitzer einer 6800 XT - 6900 XT, die keine RDNA 3 Karte gekauft haben wechseln? Bleibt ja nur eine GeForce übrig. So eine RTX 5070 Ti käme wohl als erstes infrage.amds hauptproblem wird amds ehemaligen enthusiast gpus sein. es sei denn sie verrecken. nvidia jünger konnte man nie erreichen. ich glaube, amds ziel ist, eine gute low end, midrange, unteres highend zu bringen. durch ihre generell niedrigen marketshare halte ich es für möglich, das sie durch gute hw und software wie bei rdna1 ihren marketshare verbessern. das könnte gut funktionieren, wenn man die rdna2+3 produkte durch mangelnde AI funktionalitäten in dlss4 benachteiligt. dann hat man eine grafikkarte die sparsam, neues featureset und leise ist, bieten kann. das bringt vl auch xtx user zum wechseln.

Dino-Fossil
2024-12-23, 21:30:05
Mittlerweile sieht es für mich (falls die Gerüchte zutreffen) nach einer weiteren Generation aus, die ich aussetzen kann.
"Nur" Mittelklasse-Performance wäre nicht das Problem - das war damals mit Polaris auch der Fall. Der Sprung wäre für mich schon ok. Allerdings nicht zu dem kolportierten Preis. Scheint ja gerade alles darauf hinauszulaufen, dass auch mit dieser Generation P/L eine Vollkatastrophe wird (rot wie grün).
N48 evtl (wenigstens Anfangs) nicht unter 500€ und N44 wohl der nächste Aufguss einer Karte mit ~6600XT/7600XT Performance und Perf/W (+paar generationsbedingte %) zum vermutlich wiederum inzwischen etablierten Preis um die 300-350 €. Gähn...
Daran ändert vermutlich auch Intel nichts, denn einen echten Preisbrecher haben sie nicht gebracht und die Performance bietet auch nichts, was man so nicht schon haben könnte.

AffenJack
2024-12-23, 21:39:25
bzgl. performance leak. schon erstaunlich das VCZ die ergebnisse nicht postet.


Das hatte mich auch schon gewundert. Ebenso wenig wccftech, obwohl beide normalerweise jede News posten und es definitiv mitbekommen haben.

lilgefo~
2024-12-23, 22:23:04
bzgl. performance leak. schon erstaunlich das VCZ die ergebnisse nicht postet.

amds hauptproblem wird amds ehemaligen enthusiast gpus sein. es sei denn sie verrecken. nvidia jünger konnte man nie erreichen. ich glaube, amds ziel ist, eine gute low end, midrange, unteres highend zu bringen. durch ihre generell niedrigen marketshare halte ich es für möglich, das sie durch gute hw und software wie bei rdna1 ihren marketshare verbessern. das könnte gut funktionieren, wenn man die rdna2+3 produkte durch mangelnde AI funktionalitäten in dlss4 benachteiligt. dann hat man eine grafikkarte die sparsam, neues featureset und leise ist, bieten kann. das bringt vl auch xtx user zum wechseln.

Performance, Features, Effizienz, Preis. In der Reihenfolge. Da kann AMD nicht viel bieten für 4k Spieler. Alles im LowEnd Bereich macht sehr viel Sinn weil günstig und RT unter 4090/4080S ist eh für die Tonne. Die 7900xtx hier im Haushalt röchelt sich schon in TLOU Part1 4k einen ab und da ist kein RT dabei. Welcher XTX User würde da eine Karte wählen die noch langsamer ist nur weil sie eiffizienter ist? RDNA4 ist nen Markt für die Leute die 4,5 Jahre oder was nicht upgraden und nu grad mal was suchen was gut im fps/€ Bereich ist auch wenns nicht spielbar ist.

GerryB
2024-12-23, 22:33:55
Äpfel+Birnen?
4090 Preis und 4k sind was ganz Anderes

die 9070xt reicht dicke für WQHD = größte Zielgruppe für Marktanteile
may be mit RT dann FSR4+FG hilfreich, ... Performance-Scaling besser als bei NV!?
(kein PT in der Preisklasse, ... nur normales RT)

Ob man in WQHD die FP32 besser auslasten kann als bei der 7900xt wird man sehen.
(in realen Games ist womöglich der Abstand zur 7900xt kleiner als im ausgemiezelten TS)

RitterRost
2024-12-23, 23:38:16
Das hatte mich auch schon gewundert. Ebenso wenig wccftech, obwohl beide normalerweise jede News posten und es definitiv mitbekommen haben.

https://wccftech.com/amd-radeon-rx-9070-xt-gpu-benchmarked-time-spy-better-performance-rx-7900-gre/

reaperrr
2024-12-24, 00:28:56
Ob man in WQHD die FP32 besser auslasten kann als bei der 7900xt wird man sehen.
(in realen Games ist womöglich der Abstand zur 7900xt kleiner als im ausgemiezelten TS)
Wenn man nach der GRE im Vergleich zur 7800XT geht, skaliert TS scheinbar besser mit Shaderleistung und weniger mit Bandbreite als die meisten realen Spiele.

Und gerade Bandbreite (inkl. IF$) hat die 9070XT kaum mehr als die GRE und deutlich weniger als die 7900XT.

Mit viel besserer Auslastung würde ich daher nicht rechnen. Ich tippe eher, dass die Bandbreite zumindest Teil des Problems bei N48 ist, da hat sich im Bereich Delta Color Compression und Culling eventuell wenig getan.
War vielleicht ursprünglich auf GDDR7 ausgelegt, den man jetzt aus Kostengründen doch nicht nutzt.

GerryB
2024-12-24, 00:35:00
Dann müsste die 9070xt wunderbar mit Vram-OCen skalieren.

BlacKi
2024-12-24, 00:50:55
so wie die GRE. aber wie hoch willst du den takt ziehen? meine GRE hat 8% dauerhaft stabil gemacht. immernoch weit weg von einer xt.

daniel owen spekuliert auf einen geringeren preis als 500$, irgendwas zwischen 430-500$. und nv verkauft consumer products um die 2000$.

irgendwas läuft hier falsch. und an geld mangelt es amd nicht.

dildo4u
2024-12-24, 06:04:40
so wie die GRE. aber wie hoch willst du den takt ziehen? meine GRE hat 8% dauerhaft stabil gemacht. immernoch weit weg von einer xt.

daniel owen spekuliert auf einen geringeren preis als 500$, irgendwas zwischen 430-500$. und nv verkauft consumer products um die 2000$.

irgendwas läuft hier falsch. und an geld mangelt es amd nicht.
Selbst wenn die Hardware den selben Stand hätte fehlt die Software du kannst keine 2k verlangen wenn FSR4 zum Launch in 5 Games vorhanden ist.

Die korrekte Logik hinter der 9700XT ist die Basis für die 2026 Karten zu legen und dann in 26 hoffentlich genug Game Support zu haben das man direkt mit DLSS konkurriert.

Daher waren auch die Vergleiche mit Ryzen immer Unsinn dort musste AMD kein komplett neues Software Feld erforschen um an die Spitze zu gelangen.

Denniss
2024-12-24, 07:07:37
AMD muß Marktanteile zurückgewinnen und das geht eher mit hohem Verkaufsvolumen im Preisbereich von 200-700€ denn mit geringem Volumem bei Karten um 1k rum oder teurer.
Das wird grüne Jünger halt nicht von Rot überzeugen aber das sind dann die die am lautesten heulen wenn AMD sich zurückzieht und nvidia die Preise frei diktieren kann.

GerryB
2024-12-24, 07:45:34
so wie die GRE. aber wie hoch willst du den takt ziehen? meine GRE hat 8% dauerhaft stabil gemacht. ...
Der 9070xt-Vram sollte doch hoffentlich so gut sein wie bei der 7800xt, wo ca.2598...2630MHz drin sind. Ersteres für 24/7.
Wieviel GPU-Takt sich dann lohnt bevor die Bandbreite ausgeht muss man abwarten, ... bis erste User das Dingens haben, ... und
wie sich so ein kleiner Chip dann kühlen lässt bei 275W+.

may be
das sich der Vram ohne FT stabiler OCen lässt
(ohne das man einen großen Performanceunterschied FT=on/off merkt, weil dann evtl. schon die Fehlerkorr. ne Rolle spielt)

dargo
2024-12-24, 07:49:33
daniel owen spekuliert auf einen geringeren preis als 500$, irgendwas zwischen 430-500$. und nv verkauft consumer products um die 2000$.

irgendwas läuft hier falsch. und an geld mangelt es amd nicht.
Der GPU-Markt ist doch schon seit mehreren Jahren völlig im Arsch, das ist nun wirklich keine neue Erkenntnis. :tongue: Wie heißt es so schön... wie bestellt so geliefert. Und mal ganz davon abgesehen... nüchtern betrachtet sind neuere Fertigungen nicht leistungsfähig genug um überzeugende Leistungszuwächse in der selben Preisklasse und Powerbudget pro Generation zu liefern.

00-Schneider
2024-12-24, 08:31:59
Bzgl. AMD Nameskonventionen:

https://i.redd.it/0lb0n36q5j8e1.jpeg

The_Invisible
2024-12-24, 08:37:05
so wie die GRE. aber wie hoch willst du den takt ziehen? meine GRE hat 8% dauerhaft stabil gemacht. immernoch weit weg von einer xt.

daniel owen spekuliert auf einen geringeren preis als 500$, irgendwas zwischen 430-500$. und nv verkauft consumer products um die 2000$.

irgendwas läuft hier falsch. und an geld mangelt es amd nicht.

Sind doch unterschiedliche Leistungsklassen, eine 5070 wird sicher teurer sein aber nicht signifikant. Und nein, ich komm jetzt nicht mit einen dummen Autovergleich ;-)

dildo4u
2024-12-24, 08:41:23
Die 5070 könnte auch 4070S Performance haben für 500€.
Der Cuda Count ist extrem niedrig laut Gerüchten.

5700 6400 32 Tflops

https://www.techpowerup.com/gpu-specs/geforce-rtx-5070.c4218

4070S 7168 35 Tflops

https://www.techpowerup.com/gpu-specs/geforce-rtx-4070-super.c4186

NV verkauft immer weniger Hardware da sie auf überlegenes DLSS setzen.


Und ja bei 2070S auf 3070 haben wird mehr Hardware bekommen daher mein Vergleich

2560

https://www.techpowerup.com/gpu-specs/geforce-rtx-2070-super.c3440

5888
https://www.techpowerup.com/gpu-specs/geforce-rtx-3070.c3674

robbitop
2024-12-24, 08:48:31
Ich kann mir gut vorstellen, dass einige von den Blackwell Preisen enttäuscht sein werden. Straßenpreis für die 5070 wird bestimmt deutlich mehr als 500€. Insbesondere wenn sie schneller als die 4070 ist (wovon auszugehen ist).

dargo
2024-12-24, 09:19:49
NV verkauft immer weniger Hardware da sie auf überlegenes DLSS setzen.

Klar... deshalb kam ein dicker AD102 und bald ein dicker Blackwell. :lol:

dildo4u
2024-12-24, 09:29:07
Ich meine die Klasse über die wir hier reden 5700 vs 9700xt.

vinacis_vivids
2024-12-24, 09:33:57
So native rendering 720p und upscaling auf 2160p wird wohl interessanter werden als 2160p native rendering, was sowieso unspielbar langsam ist auf Mitteklassekarten.

Bei niedriger Auflösung (720p oder auch 480p) spart man auch sehr viel fp32 Rechenpower und kann stattdessen in fp8 Silizium allerlei fp8-KI-upscaling, fp8-KI-Frame-Generation und fp8-Ray-Tracing investieren.

Auf Spieloptimierung und schnelle Engines scheinen die Käufer nicht mehr so zu stehen, sondern eher auf langsame Engines, die möglichst schlecht laufen. Hauptsache das AI-Marketing *hula hula* ist groß genug.

Emil_i_Lönneberga
2024-12-24, 09:34:07
Schön und gut, und worauf sollen jetzt RDNA 2 Besitzer einer 6800 XT - 6900 XT, die keine RDNA 3 Karte gekauft haben wechseln? Bleibt ja nur eine GeForce übrig. So eine RTX 5070 Ti käme wohl als erstes infrage.

Eine Geforce auf Pump kaufen?

https://www.capital.de/geld-versicherungen/immer-mehr-deutsche-konsumieren-auf-pump-33797078.html

Der Trend bei den Ratenkrediten geht der Schufa zufolge zu Kleinkrediten unter 1000 Euro. Vier von zehn (42,6 Prozent) der Neuabschlüsse hierzulande lägen inzwischen in diesem Bereich. Im Schnitt leihen sich Verbraucher in solchen Fällen 356 Euro, ein Jahr zuvor waren es 398 Euro, wie aus dem am Dienstag veröffentlichten Schufa-“Risiko- und Kreditkompass“ hervorgeht.

Gut 3,8 Millionen der 9,1 Millionen neuen Verträge im vergangenen Jahr waren demnach Kleinkredite unter 1000 Euro. Ein Jahr zuvor hatte die Auskunftei mit Sitz in Wiesbaden in dieser Kategorie etwas mehr als 2 Millionen neue Abschlüsse gezählt. Erstmals war nun der Anteil der Kleinstkredite größer als der Anteil der neu abgeschlossenen Kredite über Beträge von mehr als 10.000 Euro.

The_Invisible
2024-12-24, 09:38:35
Eine 5090 fällt nicht mehr unter Kleinkredite :D

dargo
2024-12-24, 09:46:00
Ich meine die Klasse über die wir hier reden 5700 vs 9700xt.
Ok... nur sind diese Klassen noch langweiliger da dort praktisch mehr oder weniger Stillstand seit Jahren stattfindet was P/L angeht.

Palpatin
2024-12-24, 10:05:30
Eine 5090 fällt nicht mehr unter Kleinkredite :D
Gilt auch für die 5080 und sehr wahrscheinlich auch für die 5070ti. Für einen Kleinkredit gibt es bei NV bei der 50er Serie max 12gb. :weg:

DrFreaK666
2024-12-24, 10:36:15
... Aber der springende Punkt ist Konsistenz seit vielen vielen Jahren.

Wie hieß der Nachfolger vom iPhone 8? ;)

robbitop
2024-12-24, 10:43:49
Es ging um die SoC Benennung. Und das iPhone X war eine Besonderheit für das 10 Jahresjubileum.
Genug OT.

DrFreaK666
2024-12-24, 10:45:43
Wer sagt, dass die Leaks stimmen?

Die Leaks zu AMD stimmen, zu Nvidia aber nicht :ugly:

"Ich mach' mir die Welt
Widdewidde wie sie mir gefällt"

...Mir kommt die N48-Speku mit 649$ ziemlich überhöht vor, = >GRE, die es im Januar für 535€ gab!

Januar! Das ist fast ein Jahr her.
Der 7800X3D wurde vor Zen 5 auch teurer

Und man sollte Projekt Amethyst nicht vergessen. Das wird aber erst in Zukunft Früchte tragen

BlacKi
2024-12-24, 12:01:45
Sind doch unterschiedliche Leistungsklassen, eine 5070 wird sicher teurer sein aber nicht signifikant. Und nein, ich komm jetzt nicht mit einen dummen Autovergleich ;-)ich habe von den top produkten geredet, die beide firmen im selben zeitrausreleasen. das amd top produkt ist 4x so billig und mehr als 2x langsamer. die differenz beider top produkte ist gigantisch. das war bei der rx 5700xt nicht so! viele hier spielen auf die alte zeit an anno 2019. doch die unterschiede sind gewaltig anders.

Der GPU-Markt ist doch schon seit mehreren Jahren völlig im Arsch, das ist nun wirklich keine neue Erkenntnis. Wie heißt es so schön... wie bestellt so geliefert. Und mal ganz davon abgesehen... nüchtern betrachtet sind neuere Fertigungen nicht leistungsfähig genug um überzeugende Leistungszuwächse in der selben Preisklasse und Powerbudget pro Generation zu liefern.

richtig, und scheinbar hilft geld für amd wohl nicht dabei das problem zu fixen. scheinbar will oder kann amd das problem nicht fixen.

dargo
2024-12-24, 12:41:45
richtig, und scheinbar hilft geld für amd wohl nicht dabei das problem zu fixen. scheinbar will oder kann amd das problem nicht fixen.
Was willst du da noch fixen? Glaubst du wirklich wenn AMD den fetten RDNA4 nicht gecancelt hätte würde das dem GPU-Markt in irgendeiner Weise helfen? Ich glaube nicht daran. Der AI-Boom macht den GPU-Markt im Gamingsegment völlig kaputt weil dort das richtige Geld verdient wird. Früher war es Miningboom, heute ist es AI-Boom was dem Gamingmarkt schadet. Ich glaube jedenfalls nicht daran, dass es eine Preisschlacht zwischen NV und AMD geben würde gäbe es auch so fette Gaming-GPUs von AMD. Die Zeiten haben sich geändert. Eventuell leichte Preiskorrekturen, aber nichts Großes.

robbitop
2024-12-24, 12:49:10
Denke ich auch. Bis auf ein paar vereinzelte Deals ist die Situation so wie sie ist ohne großen Preisverfall doch schon seit rdna2/ampere zu sehen. Nicht ohne Grund haben viele noch genau diese Karten.
Das wird so schnell auch nicht besser. Entsprechend lohnt Warten/Spekulieren eigentlich nicht mehr. Bedeutet: GPU zu dem budget kaufen was man hat wenn man eine GPU braucht.

Exxtreme
2024-12-24, 12:49:52
richtig, und scheinbar hilft geld für amd wohl nicht dabei das problem zu fixen. scheinbar will oder kann amd das problem nicht fixen.

Die Frage ist halt wiederum für wen das ein Problem ist. Wenn die Herstellungskosten extrem niedrig sind dann machen sie womöglich immer noch ein Plus. Und deren GPUs scheinen mehr aufgemotzte Konsolenchips zu sein. Sie sind flexibler als Nvidias Chips mit sehr spezialisierten Schaltkreisen. Du kannst auf RDNA die Textureeinheiten entweder für Texturfilterung oder für Raytracing nutzen etc. Auf Konsolen hast du da mehr Kontrolle über sowas.

Und es ist auch fraglich ob ein fetterer RDNA4-Chip irgendetwas geändert hätte. Seit RDNA2 hat AMD wohl die Lektion gelernt, dass egal was sie machen, ab einer bestimmten Leistungsklasse kauft sowieso fast jeder grün. Also macht es für sie keinen Sinn Produkte zu entwickeln, die sowieso niemand kauft.

BlacKi
2024-12-24, 13:44:01
Die Frage ist halt wiederum für wen das ein Problem ist. Wenn die Herstellungskosten extrem niedrig sind dann machen sie womöglich immer noch ein Plus. Und deren GPUs scheinen mehr aufgemotzte Konsolenchips zu sein. Sie sind flexibler als Nvidias Chips mit sehr spezialisierten Schaltkreisen. Du kannst auf RDNA die Textureeinheiten entweder für Texturfilterung oder für Raytracing nutzen etc. Auf Konsolen hast du da mehr Kontrolle über sowas.

Und es ist auch fraglich ob ein fetterer RDNA4-Chip irgendetwas geändert hätte. Seit RDNA2 hat AMD wohl die Lektion gelernt, dass egal was sie machen, ab einer bestimmten Leistungsklasse kauft sowieso fast jeder grün. Also macht es für sie keinen Sinn Produkte zu entwickeln, die sowieso niemand kauft.wenn amd den kampf aufgibt, halte ich das schon für ein problem. und amds probleme sind durchaus lösbar. amd hat einfach zulange gegen die implementierung von AI gearbeitet und das chiplet design nicht gut ausgearbeitet. und ich hoffe, das amd hier nun ansetzt, damit die nächsten generationen konkurenzfähiger werden.


auch wenn es amd gegen den strich gehen würde, aber in punkto dlss sollten sie die verweigerung gegen die blackbox closed source produkte aufgeben und dlss support bei nv beantragen. zumindest für einen zeitraum.


denn ohne support für einen gleichwertigen upscaler wie dlss, in quali und in verbreitung, gehe ich nie wieder zu amd zurück. und das gilt, je schwächer die karte, umso wichtiger.
aber ich will krawall nicht zuviele schmerzen bereiten wenn ich über ein gutes fsr schwadroniere^^

Th3o
2024-12-24, 13:45:27
Exxtreme +1
Die Leute erwarten, dass AMD die Preise drückt, um bei Nvidia billiger zu kaufen. So gesehen rausgeworfenes Geld für AMD, das man in anderen Bereichen besser investieren kann.

vinacis_vivids
2024-12-24, 13:49:26
Soviel rants von den Huang's Jüngern hier weil AMD keine große GPU für wenig Geld baut?

😂

Jack Huynh hat euch alle Fragen schon beantwortet. Kauft Nvidia und stagniert die nächsten 10 Jahre mit 8GB Karten. Deal with it.

Bei den AI GPUs bietet AMD 192GB während H100 gerade mal mit mageren 80GB desöfteren "oom" geht. "Oom" = out of memory.

Exxtreme
2024-12-24, 13:59:35
wenn amd den kampf aufgibt, halte ich das schon für ein problem. und amds probleme sind durchaus lösbar. amd hat einfach zulange gegen die implementierung von AI gearbeitet und das chiplet design nicht gut ausgearbeitet. und ich hoffe, das amd hier nun ansetzt, damit die nächsten generationen konkurenzfähiger werden.


Das ist vielleicht ein Problem für Nvidia-Käufer, die AMD nur deshalb brauchen weil sie einen Preisdrücker benötigen. Ist halt wiederum eine andere Frage ob sich AMD dafür hergibt. AMD ist immer noch eine AG, die in allererster Linie ihren Anlegern verpflichtet ist. Und nicht Dritten, die ihre Produkte sowieso niemals kaufen würden.


auch wenn es amd gegen den strich gehen würde, aber in punkto dlss sollten sie die verweigerung gegen die blackbox closed source produkte aufgeben und dlss support bei nv beantragen. zumindest für einen zeitraum.



Warum sollte man so eine Schrotttechnologie wie DLSS denn lizenzieren? Damit würde man Nvidias Marktmacht auch noch zementieren. Divide et impera macht aus AMDs Sicht wohl viel mehr Sinn.

HOT
2024-12-24, 14:00:13
Exxtreme +1
Die Leute erwarten, dass AMD die Preise drückt, um bei Nvidia billiger zu kaufen. So gesehen rausgeworfenes Geld für AMD, das man in anderen Bereichen besser investieren kann.

Wenn NV 60%+ Marge macht, wieso soll dann 40% Marge bei AMD schlecht sein? Das ergibt keinen Sinn. GPUs sind dennoch lukrativ, eben weil NV die Preise so nach oben gezogen hat.

basix
2024-12-24, 14:44:05
Was würdet ihr von solch einem Portfolio halten?

SKU|CU|SI Breite|SI Speed|VRAM Menge|TDP|MSRP
9070 XT|64|256 bit|20 Gbps|16 GByte|220W|549$
9070|56|256 bit|18 Gbps|16 GByte|200W|499$
9060|48|192 bit|18 Gbps|12 GByte|180W|429$
9050 XT|32|128 bit|18 Gbps|16 GByte|130W|329$
9050|28|96 bit|21 Gbps|12 GByte|110W|279$
9040 XT|24|128 bit|16 Gbps|8 GByte|70W|199$

Hakim
2024-12-24, 14:50:09
Was würdet ihr von solch einem Portfolio halten?


Ganz ehrlich wenn das mit dem grob ticken über 7900 GRE bei Raster stimmt, finde ich selbst die 549$ etwas zuviel, hier wäre es dann vermutlich 600€ und mehr. Bis auf das Verbesserte RT hätte man etwas was man schon seit Jahren in dem Preisbereich für Leistung kaufen kann.

Linmoum
2024-12-24, 14:50:54
Auch ausgehend von der aktuell kolportierten Leistung aus Sicht von AMD vermutlich relativ naheliegend, aus Kundensicht bei dem, was man am Ende des Tages allerdings damit bekommen würde, wenig Fortschritt und (viel) zu teuer. Mit dem, was aktuell an Leistung spekuliert wird, wären eher $449 die absolute Obergrenze. Die 7900 GRE hatte beim Launch immerhin schon einen offiziellen MSRP von $549.

basix
2024-12-24, 14:55:38
Ganz ehrlich wenn das mit dem grob ticken über 7900 GRE bei Raster stimmt, finde ich selbst die 549$ etwas zuviel, hier wäre es dann vermutlich 600€ und mehr. Bis auf das Verbesserte RT hätte man etwas was man schon seit Jahren in dem Preisbereich für Leistung kaufen kann.
7900 GRE Performance halte ich für zu tief. Wieso? Nehmen wir mal die 7800XT als Basis (7900 GRE = 1.1x 7800XT):
- 64 vs. 60 CU
- 4 vs. 3 SE (etwas höhere IPC)
- 3.2 vs. 2.4 GHz

Die N48 Taktraten kommen aus der Gerüchteküche. Wenn die Taktraten stimmen kann ich mir nicht vorstellen, dass da nur 7900 GRE Performance dabei rauskommt.

AffenJack
2024-12-24, 15:13:09
Die N48 Taktraten kommen aus der Gerüchteküche. Wenn die Taktraten stimmen kann ich mir nicht vorstellen, dass da nur 7900 GRE Performance dabei rauskommt.

Genau das ist es ja. Die Taktraten machen vorne und hinten keinen Sinn, wenn man gleichzeitig an TDP Reduktion glaubt. Entweder Takt eht hoch oder TDP runter. Eine Kombi wird es nicht geben.

vinacis_vivids
2024-12-24, 15:19:47
RX 7900 XT Custom OC
256 x 84 x 2850~ 61,28 Tflop/s

RX 9070 XT Custom OC
256 x 64 x 3600 ~ 58.98 Tflop/s

RX 7900 XT
256 x 84 x 2500 ~ 53,76 Tflop/s

RX 9070 XT OEM
256 x 64 x 3200 ~ 52.42 Tflop/s

RX 7900 GRE
256 x 80 x 2400 ~ 49,15 Tflop/s

RX 9070 XT
256 x 64 x 3000 ~ 49,15 Tflop/s

RX 7800 XT
256 x 60 x 2800 ~ 43,00 Tflop/s

Einzig die 7900XTX bleibt unberührt von RDNA4. Alle anderen werden ersetzt.

robbitop
2024-12-24, 16:09:54
7900 GRE Performance halte ich für zu tief. Wieso? Nehmen wir mal die 7800XT als Basis (7900 GRE = 1.1x 7800XT):
- 64 vs. 60 CU
- 4 vs. 3 SE (etwas höhere IPC)
- 3.2 vs. 2.4 GHz

Die N48 Taktraten kommen aus der Gerüchteküche. Wenn die Taktraten stimmen kann ich mir nicht vorstellen, dass da nur 7900 GRE Performance dabei rauskommt.

Mit fallen 2x Optionen ein

(1) Die 9070 XT ist ein jebait und es gibt eine XTX (oder irgendeine andere schnellere sku).
(2) Die GPU Taktraten sind doch nicht so optimistisch wie gedacht. (die Performanceleaks und der 64 MiB IF$ in Verbindung mit dem low spec GDDR5 sprechen nicht gerade für viel GPU Leistung relativ zu N32)

basix
2024-12-24, 16:11:45
Genau das ist es ja. Die Taktraten machen vorne und hinten keinen Sinn, wenn man gleichzeitig an TDP Reduktion glaubt. Entweder Takt eht hoch oder TDP runter. Eine Kombi wird es nicht geben.

Man muss berücksichtigen, dass RDNA3 ca. 20% unterhalb von seinem geplanten Taktpotential rauskam. AMD hatte auf den Folien "Engineered for >3 GHz" stehen und kommt real eher so auf ~2.4...2.5 GHz. Und in reinen Compute Workloads rennt RDNA3 auch mit >3 GHz und mit OC bei fast 3.5 GHz (siehe z.B. https://www.computerbase.de/2023-01/rx-7900-xtx-oc-rtx-4080-oc-benchmark/#abschnitt_rdna_3_klettert_mit_oc_auf_bis_zu_35_ghz)

AMD wäre selten dämlich, diesen Fehler bei RDNA4 nicht zu beheben. Deswegen wird der Takt mMn gut steigen. Zu einem grossen Teil nicht weil RDNA4 so unglaublich gut taktet sondern weil man die Fehler von RDNA3 behebt.

Mit fallen 2x Optionen ein

(1) Die 9070 XT ist ein jebait und es gibt eine XTX.
(2) Die GPU Taktraten sind doch nicht so optimistisch wie gedacht. (die Performanceleaks und der 64 MiB IF$ in Verbindung mit dem low spec GDDR5 sprechen nicht gerade für viel GPU Leistung relativ zu N32)

(1) ist möglich, aber wohl eher als Refresh
(2) Bandbreite sollte weniger ein Problem sein. Eine 4080 hat auch 256bit und 64MByte LLC. 22.4Gbps vs. 20Gbps werden da nicht viel ausmachen.

robbitop
2024-12-24, 16:17:56
(1) ist möglich, aber wohl eher als Refresh
(2) Bandbreite sollte weniger ein Problem sein. Eine 4080 hat auch 256bit und 64MByte LLC. 22.4Gbps vs. 20Gbps werden da nicht viel ausmachen.
(1) Warum? IIRC hat AMD das schonmal gemacht und keiner wusste es bis zum Launch. Entweder war es die 6900XT oder die 7900XTX - bin mir nicht mehr ganz sicher.
(2) Aber nur unter der Voraussetzung dass man mit RDNA4 auf Adas Bandbreiteneffizienz kommt. Das ist mit RDNA3 ja nicht der Fall gewesen. Eine Verbesserung ist nicht unmöglich aber ehrlich gesagt sind solche Präzedenzfälle bei der RTG in den letzten Jahren absolute Mangelware. Insofern würde ich persönlich da keine großen Wetten darauf abschließen ^^


Allerdings ist das Spektrum in Bezug auf TFLOPS/GB/s bei RDNA3 im SKU Stack relativ groß. Also ja da ist potenziell noch Luft - aber ob bis in die Sphären von Ada kommt? Ich bin da mehr als skeptisch. Würde mich aber liebend gern irren :)

basix
2024-12-24, 16:27:17
9070 XT vs. 9070 sind doch bereits genau das ;) 7600 vs. 7600XT oder 6600XT vs. 6650XT usw. Refreshes machen am Schluss mehr Sinn.
Ja, die Bandbreiteneffizienz müsste da sein. RDNA1 in Form der 5700XT zeigt mMn auf, dass RDNA ähnlich effizient mit Bandbreite umgeht wie Turing (2070...2080 als Gegner). Und ich wüsste nicht, dass Ampere und Ada so viel besser sind. Der LLC / Infinity Cache verzerrt das Bild etwas und macht eine Analyse etwas schwieriger. In 1440p hat man mit 64MByte ~2x Bandbreitenmultiplikator oder sogar noch etwas mehr. 20 vs. 14 Gbps sind nochmal 1.4x. Macht insgesamt 2.8x. Eine 9070 XT könnte also etwa 2.5...3.0x schneller als eine 5700XT sein, selbst wenn man seit RDNA1 nichts an der Bandbreiteneffizienz verbessert hat (z.B. keine verbesserte DCC usw.). Und wo landen wir mit dieser Performance? Bei RTX 4070 Ti Super bis RTX 4080 ;)

robbitop
2024-12-24, 16:32:13
(1) mag sein - aber ich meine einen jebait. Daran ist nichts logisch oder rational. Es kann einfach sein dass AMD eine SKU vertauscht oder verschweigt um leaker und den Wettbewerb zu foppen. Die Vergangenheit ist nicht immer ein Indiz für die Zukunft. Wert hat 2022 an eine XTX gedacht? ;)

(2) Es gibt keine AMD SKU die auch nur annähernd an eine 4080 herankommt bei nur 64 mib und 256 bit.
Weiterhin müsste man mal Skalierungstests machen - SKUs sind oft nicht im Bandbreitenlimit (bis auf die GRE vielleicht). Ich würde aber ehrlich gesagt einen Besen fressen wenn RDNA3 auf Augenhöhe von Ada ist.

basix
2024-12-24, 16:35:06
Ich behaupte nicht, dass RDNA3 auf Augenhöhe von Ada ist. Aber wenn man Nvidia mal komplett ausklammert und sich auf RDNA konzentriert sowie Angaben die AMD zum Infinity Cache gemacht hat anschaut gibt es halt schon Indizien, dass die Bandbreite für entsprechend hohe Performance ausreichen könnte.

reaperrr
2024-12-24, 16:35:45
(1) Die 9070 XT ist ein jebait und es gibt eine XTX (oder irgendeine andere schnellere sku).
Direkt zum Launch würde ich das ausschließen, dann wär's schon durchgesickert.

In 2-3 Monaten möglich, aber unwahrscheinlich, einfach weil AMD damit zum Launch mehr Geld verdienen kann als wenn Nvidia erstmal entsprechende Konter draußen hat.

(2) Die GPU Taktraten sind doch nicht so optimistisch wie gedacht. (die Performanceleaks und der 64 MiB IF$ in Verbindung mit dem low spec GDDR5 sprechen nicht gerade für viel GPU Leistung relativ zu N32)
Das wird's mMn (leider) sein.
Es wurde schon irgendwo genannt, dass der Turbotakt zwischen 2.9-3.2 GHz pendeln soll, also wird's im Mittel höchstens ~3.0-3.05 sein und gerade in anspruchsvollen Titeln eher nur 2.9-3.0.
Das sind zwar gute 20% mehr als die 7800XT, aber wenn die Bandbreite nur minimal steigt und auch die IPC und Bandbreitennutzung ggü. RDNA3 nicht wesentlich besser geworden ist, bleiben dadurch halt auch schnell nur noch 15-20% mehr Leistung übrig.

Man muss berücksichtigen, dass RDNA3 ca. 20% unterhalb von seinem geplanten Taktpotential rauskam. AMD hatte auf den Folien "Engineered for >3 GHz" stehen und kommt real eher so auf ~2.4...2.5 GHz.
(...)
AMD wäre selten dämlich, diesen Fehler bei RDNA4 nicht zu beheben. Deswegen wird der Takt mMn gut steigen. Zu einem grossen Teil nicht weil RDNA4 so unglaublich gut taktet sondern weil man die Fehler von RDNA3 behebt.
Die große Preisfrage ist, welche Architektur-Aspekte dafür verantwortlich waren und wieviel davon man ohne gravierenden Zusatzaufwand in RDNA4 überhaupt noch beheben konnte.

Wenn bspw. wie aus der Gerüchteküche verlautet die TMUs und ROPs die Hauptschuld trugen, und für RDNA4 vielleicht keine größeren Änderungen an diesen geplant waren, weil man zu Entwicklungsbeginn von RDNA4 von den Taktproblemen von RDNA3 noch nicht wusste, ist nicht ausgeschlossen, dass man es in RDNA4 gar nicht mehr so vollumfänglich fixen konnte wie man sich das wünschen würde.

(2) Bandbreite sollte weniger ein Problem sein. Eine 4080 hat auch 256bit und 64MByte LLC. 22.4Gbps vs. 20Gbps werden da nicht viel ausmachen.
Wenn man sieht, wie stark die 7700XT ggü. der 7800XT einbricht, obwohl sie nur ~5% weniger Rohleistung hat und auch 51 MB an L2+IF$ vs. 36MB L2 bei der 4070, ist die Bandbreitennutzung bei RDNA3 klar schlechter als bei Ada.
Wenn es hier in RDNA4 keine großen Verbesserungen gab, kann das sehr wohl ein Problem sein.

basix
2024-12-24, 16:41:20
Die große Preisfrage ist, welche Architektur-Aspekte dafür verantwortlich waren und wieviel davon man ohne gravierenden Zusatzaufwand in RDNA4 überhaupt noch beheben konnte.

Wenn bspw. wie aus der Gerüchteküche verlautet die TMUs und ROPs die Hauptschuld trugen, und für RDNA4 vielleicht keine größeren Änderungen an diesen geplant waren, weil man zu Entwicklungsbeginn von RDNA4 von den Taktproblemen von RDNA3 noch nicht wusste, ist nicht ausgeschlossen, dass man es in RDNA4 gar nicht mehr so vollumfänglich fixen konnte wie man sich das wünschen würde.


Das kann dir wohl niemand beantworten, ausser AMD lässt bei RDNA4 Release was dazu verlauten. Aber AMD konnte 2 Jahre länger an RDNA4 basteln als an RDNA3, da wird man diesen Bug sicherlich gefixt haben. Alles andere wäre schlichtweg dumm oder inkompetent. Beides Sachen, die ich den HW-Ingenieuren bei AMD nicht vorwerfen würde.


Wenn man sieht, wie stark die 7700XT ggü. der 7800XT einbricht, obwohl sie nur ~5% weniger Rohleistung hat und auch 51 MB an L2+IF$ vs. 36MB L2 bei der 4070, ist die Bandbreitennutzung bei RDNA3 klar schlechter als bei Ada.
Wenn es hier in RDNA4 keine großen Verbesserungen gab, kann das sehr wohl ein Problem sein.
Weiss ich. Aber es macht irgendwie nicht so viel Sinn, dass RDNA3 deutlich schlechter mit Bandbreite umgeht wie RDNA1. RDNA3 hat sogar noch die Register/L0/L1 Caches vergrössert, was sich positiv hinsichtlich Bandbreite auswirken sollte. Allenfalls liegt da ebenfalls ein Bug vor, keine Ahnung.

prinz_valium_2
2024-12-24, 16:42:33
snip

robbitop
2024-12-24, 16:44:48
@reaperrr
Ich erinnere daran dass es bei AMD eine SKU gab die bis zum Launch geheim und umgelenkt blieb. Insofern gibt es dafür einen Präzedenfall.

reaperrr
2024-12-24, 17:54:26
Weiss ich. Aber es macht irgendwie nicht so viel Sinn, dass RDNA3 deutlich schlechter mit Bandbreite umgeht wie RDNA1. RDNA3 hat sogar noch die Register/L0/L1 Caches vergrössert, was sich positiv hinsichtlich Bandbreite auswirken sollte. Allenfalls liegt da ebenfalls ein Bug vor, keine Ahnung.
Du meinst vermutlich RDNA2 :wink:

Und N22+N21 hatten halt doppelt so viel IF$ je SI, das war der Unterschied.

RDNA3 hat die Bandbreitennutzung unter identischen Voraussetzungen sogar ggü. RDNA2 verbessert, nur die Halbierung der IF$-Menge hat das eben mehr als aufgefressen.
Bei 79XT und XTX haut es wegen dem im Vergleich zu den jeweiligen Vorgängern breiteren SIs und schnellerem Speicher nur nicht so rein, und die 7800XT hat schnelleren Speicher und weniger Rohleistung als die 6800XT, aber die 7700XT hat dieselbe Bandbreite und weniger Cache als ne 6750XT, und das merkt man gleich.

Und die 9070XT hat außer mickrigen 0.5 Gbps mehr Speichertakt wohl keine Vorteile zur 7800XT, die nicht rein in der Architektur bzw. Register/L0/L1/L2 liegen. Maximal taktet der IF$ vielleicht noch etwas höher oder hat etwas weniger Latenz (da On-Chip), das war's.
Bloß bei ~30% mehr TFLOPs sind 2,5% mehr VRAM-Bandbreite halt echt mickrig.

vinacis_vivids
2024-12-24, 20:47:32
Wenn man sieht, wie stark die 7700XT ggü. der 7800XT einbricht, obwohl sie nur ~5% weniger Rohleistung hat und auch 51 MB an L2+IF$ vs. 36MB L2 bei der 4070, ist die Bandbreitennutzung bei RDNA3 klar schlechter als bei Ada.
Wenn es hier in RDNA4 keine großen Verbesserungen gab, kann das sehr wohl ein Problem sein.


Zuviel Werbung für die RTX 4070 12GB würde ich nicht mehr freiwillig machen, sry:

https://i.ibb.co/2dCY1kT/Screenshot-2024-12-24-204652.png

Die Einbrüche und Aussetzer bei Nvidia sind katastrophal für den überteuerten Preis.

Langlay
2024-12-24, 21:15:02
Zuviel Werbung für die RTX 4070 12GB würde ich nicht mehr freiwillig machen, sry:

https://i.ibb.co/2dCY1kT/Screenshot-2024-12-24-204652.png

Die Einbrüche und Aussetzer bei Nvidia sind katastrophal für den überteuerten Preis.

Naja nach meiner Definition ist keine Karte da brauchbar. 60 FG FPS sind jetzt auch weit weg von geil.

Und wer sich ne Midrangekarte kauft um neue AAA Titel in in 4K mit max Settings zu spielen, dem ist aber glaub ich auch schwer zu helfen.

reaperrr
2024-12-24, 21:19:33
Zuviel Werbung für die RTX 4070 12GB würde ich nicht mehr freiwillig machen, sry:

Bezug?

Alles, was ich gesagt habe ist, dass Ada offensichtlich weniger Bandbreite als RDNA3 braucht, um die gleiche Rohleistung zu füttern, anhand des Beispiels wieviel weniger die 7700XT aus ihrer Rohleistung macht, verglichen mit 7800XT und 4070. Mehr nicht.

Die 7700XT und 9070-12GB werden in Stalker 2 in den Einstellungen genauso zusammenbrechen.

Sumpfmolch
2024-12-24, 22:22:02
Schön und gut, und worauf sollen jetzt RDNA 2 Besitzer einer 6800 XT - 6900 XT, die keine RDNA 3 Karte gekauft haben wechseln? Bleibt ja nur eine GeForce übrig. So eine RTX 5070 Ti käme wohl als erstes infrage.

Schaut so aus, dass ich Anfang 2025 meine 6900XT vom Februar 2021 mal ordentlich entstaube und blitzeblank putze.

Denn offenbar bleibt die Karte noch mindestens 2 weitere Jahre im Rechner bei dem Dreck den die Vögel bei AMD und NVIDIA da so abliefern. :rolleyes:

TheGood
2024-12-24, 23:07:35
ich habe von den top produkten geredet, die beide firmen im selben zeitrausreleasen. das amd top produkt ist 4x so billig und mehr als 2x langsamer. die differenz beider top produkte ist gigantisch. das war bei der rx 5700xt nicht so! viele hier spielen auf die alte zeit an anno 2019. doch die unterschiede sind gewaltig anders.



richtig, und scheinbar hilft geld für amd wohl nicht dabei das problem zu fixen. scheinbar will oder kann amd das problem nicht fixen.

Sorry dein Vergleichsansatz hier ist ja völlig aberwitzig. Danke für den Lacher am späten Abend :D

TheGood
2024-12-24, 23:12:40
Schaut so aus, dass ich Anfang 2025 meine 6900XT vom Februar 2021 mal ordentlich entstaube und blitzeblank putze.

Denn offenbar bleibt die Karte noch mindestens 2 weitere Jahre im Rechner bei dem Dreck den die Vögel bei AMD und NVIDIA da so abliefern. :rolleyes:
DAs ist wohl das beste oder auf der Resterampe einkaufen, dann wirds meistens deutlich günstiger, aber auch das steht noch in keinen Verhältnis zur Leistung die man so bekommt.