PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA5 (Navi 5X, Radeon RX 9000 Serie, MCM, 2025/26)


Leonidas
2023-10-01, 08:13:21
Eigentlich gibt es zu RDNA5 noch gar nicht viel zu berichten. Allerdings bringt die weitgehende Streichung der RDNA4-Chips jenes nachfolgende GPU-Projekt nunmehr stärker in den Blickwinkel. Wird AMD mittels RDNA5 wieder angreifen können?

3DCenter News-Index zu RDNA5:
https://www.3dcenter.org/news/amd-rdna5

Leonidas
2023-10-01, 08:26:47
Wichtigste Meldung zu RDNA5 derzeit kommt von RedGamingTech:
https://www.3dcenter.org/news/news-des-9-august-2023
RDNA 5 is now the multi compute die (originally it was RDNA 4, but issues scuppered things)
Earliest launch of RDNA 5 is Q4 2025, but that is optimistic. Min of 6 quarters after RDNA 4 debut.

horn 12
2023-10-01, 09:49:31
Dann müsste RDNA4 Bis spätestens Juni 2024 releast werden.

reaperrr
2023-10-01, 22:10:33
Dann müsste RDNA4 Bis spätestens Juni 2024 releast werden.
Ob jetzt ein Juli'24-Release von RDNA4-Midrange einen Dezember '25-Release von RDNA5-HighEnd kategorisch ausschließt, sei mal dahingestellt.

Aber grundsätzlich müsste das bedeuten, dass AMD den Release der beiden RDNA4-Midrange/Mainstream Chips für Mitte 2024 anpeilt, ja.

HOT
2023-10-02, 07:52:21
Die Dinger hatten vor Wochen Tape Out. Juni ist ein guter Termin.
Und RDNA5 wird jetzt eh eher RDNA 4.5 werden. Die Struktur wird gleich bleiben wie bei N4x, die Komponenten neuer.
Ich hatte ja eh den Verdacht, dass rt wieder zu kurz gekommen wäre, das wird sich jetzt sicherlich ändern.

AffenJack
2023-10-02, 09:25:35
Wichtigste Meldung zu RDNA5 derzeit kommt von RedGamingTech:
https://www.3dcenter.org/news/news-des-9-august-2023

Also, obwohl alle jetzt eine Fokussierung auf AI sehen, denkt sich AMD, ach nee, wir setzen unsere Ressourcen jetzt mit Fokus auf GPUs ein und lassen AI links liegen? Denn nur dann könnte man RDNA5 so vorverschieben, außer wenn RDNA5 praktisch nur RDNA4+ wird und man nur 2 Chips bringt. Das Canceln von den großen RDNA4 Chips hilft da nämlich nicht, da in einer völlig anderen Designstage.

Sind für mich die üblichen Meldungen, wie schon bei RDNA3, was auch viel früher releasen sollte gemäß "Leaks" der üblichen Verdächtigen. Am Ende sehen wir sowieso einen Mitte-Ende 2026 Release mit üblicher Kadenz.

reaperrr
2023-10-02, 14:31:36
Also, obwohl alle jetzt eine Fokussierung auf AI sehen, denkt sich AMD, ach nee, wir setzen unsere Ressourcen jetzt mit Fokus auf GPUs ein und lassen AI links liegen? Denn nur dann könnte man RDNA5 so vorverschieben, außer wenn RDNA5 praktisch nur RDNA4+ wird und man nur 2 Chips bringt. Das Canceln von den großen RDNA4 Chips hilft da nämlich nicht, da in einer völlig anderen Designstage.

Sind für mich die üblichen Meldungen, wie schon bei RDNA3, was auch viel früher releasen sollte gemäß "Leaks" der üblichen Verdächtigen. Am Ende sehen wir sowieso einen Mitte-Ende 2026 Release mit üblicher Kadenz.
Warum vorverschieben? Wer sagt, dass RDNA5 für später geplant war?

Und natürlich hilft das. Wenn du Ingenieure, die bisher noch verzweifelt versucht haben die großen RDNA4 zu retten, jetzt stattdessen auf die (noch lange) ToDo-Liste von RDNA5 ansetzt, dann bringt das schon was. Ist nicht so, dass jeder Ingenieur bei denen nur eine bestimmte Sache kann und in allen anderen Stages unbrauchbar ist.

RDNA4 - bzw. die gecancelten großen Chiplet-RDNA4 - waren wegen Problemen bereits spät dran, wie schon RDNA3.
Man arbeitet bei AMD mit mindestens 2 Teams parallel, während ein Team bereits mit der Fertigstellung von RDNA4 beschäftigt war, arbeitete das nächste schon längst an RDNA5.
Wenn sich RDNA4 verspätet, RDNA5 aber nicht, kommt es halt zu einer ähnlichen Situation wie bei RDNA1->RDNA2, wo zwischen zwei Gens nur 15-18 Monate liegen.
Versteh nicht, was daran so unglaubwürdig sein soll.

Und dass sie AI deswegen links liegen lassen ist auch nicht gesagt, bloß das ist kurzfristig eher Thema für die MI-Reihe, und wir wissen nicht, wieviele Mitarbeiter darauf angesetzt sind. Vielleicht sind auch ein paar der von RDNA4 abgezogenen Ingenieure zum MI-Team gewechselt, ist nicht ausgeschlossen. Wobei ich schon denke, dass zwischen den Teams bei Themen wie AI eh ein Austausch herrscht.

HOT
2023-10-02, 14:50:33
Das ist reine Spekulation. Bisher ist die einzige bisher belastbare Aussage, dass AMD N3 für andere Produkte benötigt und daher RDNA4 gecancelt wurde. Die brauchen sämltliche N3-Fertigung für MI und Zen5c. Alles weitere ist N4, sogar 2025er APUs wie Kracken Point..

basix
2023-10-02, 17:29:59
Sehe gar nicht so ein Problem mit N4. N3 gibt vor allem bessere Density.

Nvidia zeigt, was man mit N4 machen kann. AMD schafft vielleicht mehr als das ;)

ryan
2023-10-03, 01:59:43
Wichtigste Meldung zu RDNA5 derzeit kommt von RedGamingTech:
https://www.3dcenter.org/news/news-des-9-august-2023


Lag der eigentlich schonmal richtig? Ich kann mir nur an falsche Vorhersagen von ihm erinnern. Seine frühestens Q4 2025 Aussage ist auch wieder clever, dazu braucht es keine Insider Infos. Vor Q4 2025 kann man praktisch ausschließen und bei allem danach liegt er nicht falsch.


Seine bescheidenen Schlagwörter in den Video Überschriften sind auch köstlich.

HISTORIC Performance Gains
IS INSANE
Nvidia's MONSTER
A Budget Gaming MONSTER
ABSURDLY Powerful
Huge Leap
DESTROY Everything
KILLS Budget GPUs
Perf Are MONSTROUS
Will Absolutely DESTROY Everything
ABSOLUTE MONSTER
CRAZY FAST


MLID liegt wenigstens manchmal richtig oder shared manchmal wirklich Insider Folien wie zuletzt für Zen 5 und Zen 6. RedGamingTech dagegen sieht nach einem reinen Hype channel aus. Umso mehr Hype er generieren kann mit interessanten Vorhersagen und Hype Titeln, desto mehr clicks kann er generieren.

Linmoum
2023-10-03, 04:15:21
Clicks generiert hier vor allem MLID und spielt immer die beleidigte Leberwurst, wenn er falsch lag und Leute ihm das vorhalten. Ein Adored war genauso. Leaker, die sich angegriffen fühlen, weil sie falsche Infos verbreitet haben (wie es jeder bei gefühlten 25438 Gerüchten eben tut), sind dann irgendwann an einem Punkt, wo sie von vielen Leuten aufgrund ihrer Art nicht mehr ernst genommen werden.

RGT hat nachweislich seine Quellen und das definitiv auch in irgendeiner Form bei AMD. Die (finale) RDNA3-Config mit nur einem GCD kam zuerst von ihm, 2020 hat er als erstes exklusiv vom IF$ bei RDNA2 berichtet. Etwas, was damals niemand glauben wollte/konnte, bis sich dann immer mehr herausgestellt hat, dass das wahr ist.

Am Ende des Tages liegt kein Leaker immer richtig. Wie auch? Ein Kopite hat genauso genug Zeugs dabei, was dann am Ende nicht so kommt. Das sind trotzdem Leute, die zu den glaubwürdigen Quellen in der Gerüchteküche zählen, weil sie eben nachweislich welche haben.

reaperrr
2023-10-03, 04:21:19
Das ist reine Spekulation. Bisher ist die einzige bisher belastbare Aussage, dass AMD N3 für andere Produkte benötigt und daher RDNA4 gecancelt wurde. Die brauchen sämltliche N3-Fertigung für MI und Zen5c. Alles weitere ist N4, sogar 2025er APUs wie Kracken Point..
Äh, nein, eigentlich nicht, die Aussage wäre mir neu.
Es hieß eher, dass es um die zu knappen Packaging/CoWoS-Kapazitäten ging und man hier MI300+400 sowie CPUs wegen der hohen Nachfrage nach KI-Beschleunigung und Server-CPUs priorisiert.
Was nicht heißt, dass die N3-Kapazitäten keine Rolle gespielt haben, nur war das meines Wissens nicht die Aussage der entsprechenden Gerüchteküchen.

Dass die Mainstream-RDNA4 in N4(P) kommen, wird in erster Linie Time-to-Market, Kosten- und Yield-Gründe haben (wobei man natürlich gern mitnimmt, mehr N3E-Wafer für Epyc und die nächsten MI zu haben).

N3E macht wegen der höheren Wafer-Preise und nur mäßig besseren elektrischen Eigenschaften ohnehin hauptsächlich für Produkte Sinn, wo man zwingend den Flächen-Shrink braucht, um sie platzmäßig überhaupt umsetzen zu können (was hauptsächlich für die großen Epycs, MIx00 usw. gilt).

Die Mainstream-RDNA4 wären in N3E sowieso kaum schneller, weil der elektrische Vorteil von N3E ggü. N4P so gering ist, dass kaum höhere Taktraten möglich wären, da die Abwärme je mm² in N3E eher steigen würde (Logik-Transistordichte steigt viel deutlicher als deren Effizienz).
Die stagnierende SRAM-Dichte tut wegen IF$, L2, wachsenden L0 und L1 sowie Registern dann ihr übriges, dass sich 3nm für Desktop-GPUs erst ab N3P wieder halbwegs lohnen, wenn Performance und Packdichte sich ggü. N3E nochmal etwas verbessern.

Bei Nvidia mag der Fall wegen der HighEnd-GPUs anders gelagert sein, aber dann auch dort eher wegen Packdichte als elektrischen Vorteilen.

horn 12
2023-10-03, 06:20:25
Wie schnell werden die Midrange laut dir dann im Sommer 2024
Erreichen maximal 7900XT oder gar die XTX ?

HOT
2023-10-03, 09:17:23
Äh, nein, eigentlich nicht, die Aussage wäre mir neu.
Es hieß eher, dass es um die zu knappen Packaging/CoWoS-Kapazitäten ging und man hier MI300+400 sowie CPUs wegen der hohen Nachfrage nach KI-Beschleunigung und Server-CPUs priorisiert.
Was nicht heißt, dass die N3-Kapazitäten keine Rolle gespielt haben, nur war das meines Wissens nicht die Aussage der entsprechenden Gerüchteküchen.

Dass die Mainstream-RDNA4 in N4(P) kommen, wird in erster Linie Time-to-Market, Kosten- und Yield-Gründe haben (wobei man natürlich gern mitnimmt, mehr N3E-Wafer für Epyc und die nächsten MI zu haben).

N3E macht wegen der höheren Wafer-Preise und nur mäßig besseren elektrischen Eigenschaften ohnehin hauptsächlich für Produkte Sinn, wo man zwingend den Flächen-Shrink braucht, um sie platzmäßig überhaupt umsetzen zu können (was hauptsächlich für die großen Epycs, MIx00 usw. gilt).

Die Mainstream-RDNA4 wären in N3E sowieso kaum schneller, weil der elektrische Vorteil von N3E ggü. N4P so gering ist, dass kaum höhere Taktraten möglich wären, da die Abwärme je mm² in N3E eher steigen würde (Logik-Transistordichte steigt viel deutlicher als deren Effizienz).
Die stagnierende SRAM-Dichte tut wegen IF$, L2, wachsenden L0 und L1 sowie Registern dann ihr übriges, dass sich 3nm für Desktop-GPUs erst ab N3P wieder halbwegs lohnen, wenn Performance und Packdichte sich ggü. N3E nochmal etwas verbessern.

Bei Nvidia mag der Fall wegen der HighEnd-GPUs anders gelagert sein, aber dann auch dort eher wegen Packdichte als elektrischen Vorteilen.


NV wird GB2xx auch nicht in N3 bringen, aus dem gleichen Grund. Es ist immer die knappste Ressource die N3-Fertigung, das ist für AMD wie für NV so. Klar, das Packaging verzögert sich in der Masse auch für AMD entsprechend, wenn man viel MI braucht. Noch ein Grund mehr - Navi4x ist im Grunde nur verschoben, die Entwicklung der Chiplets und es wird einen neuen Namen geben.

ryan
2023-10-03, 13:23:46
RGT hat nachweislich seine Quellen und das definitiv auch in irgendeiner Form bei AMD. Die (finale) RDNA3-Config mit nur einem GCD kam zuerst von ihm, 2020 hat er als erstes exklusiv vom IF$ bei RDNA2 berichtet. Etwas, was damals niemand glauben wollte/konnte, bis sich dann immer mehr herausgestellt hat, dass das wahr ist.


Das macht ihn also zu einem zuverlässigen leaker, sehr gut. Müsste es nicht MLID dann nicht zu einem besonders zuverlässigen Leaker machen?



Am Ende des Tages liegt kein Leaker immer richtig. Wie auch? Ein Kopite hat genauso genug Zeugs dabei, was dann am Ende nicht so kommt. Das sind trotzdem Leute, die zu den glaubwürdigen Quellen in der Gerüchteküche zählen, weil sie eben nachweislich welche haben.


Das erwartet keiner. Es kommt darauf an, wie seriös jemand auftritt, wie oft jemand richtig oder falsch liegt. RGT ist mir sehr negativ aufgefallen, alleine die reißerischen Titel wirken unseriös. Ich habe mir jetzt mal den schon älteren Leak Tracker angesehen, in dem RGT mit am schlechtesten abschneidet, wobei es eine große Dunkelziffer an unverified claims bei ihm gibt und die nicht mitzählen, von 106 claims sind es letztlich nur 25 verifizierte Treffer. Bei so vielen claims kann auch mal ein Zufallstreffer dabei sein. Auch MLID hat ein weit besseres Verhältnis zwischen verifizierten Treffern und Gesamt claims, bei AMD etwa 50% und bei Intel eher 60-70%. RGT liegt mit 25% weit darunter.

w0mbat
2023-10-03, 15:48:12
Gibt einfach keine guten Tech Kanäle in der 3DC Nische.

reaperrr
2023-10-03, 16:01:47
Navi4x ist im Grunde nur verschoben, die Entwicklung der Chiplets und es wird einen neuen Namen geben.
Äh... nö, eher nicht.

RDNA5 wird so umgesetzt, wie es schon vor N4x geplant war, nur dass die von N4x abgezogenen Ingenieure dabei helfen sollen, dass wenigstens RDNA5 pünktlich kommt und man Probleme rechtzeitig bis zum geplanten Launch-Zeitraum lösen kann.

Da wurde nix verschoben, die Chiplet-RDNA4 werden schlicht ausgelassen, um sich auf die Chiplet-RDNA5 konzentrieren zu können und den Worst-Case zu vermeiden, dass das Fixen von N41/42 zu einem weiteren N31-artigen "zu wenig und zu spät" geführt und zusätzlich auch noch RDNA5 verzögert hätte.

HOT
2023-10-03, 16:44:02
RDNA5 ist jetzt mehr ein RDNA4.5.

reaperrr
2023-10-04, 19:55:06
RDNA5 ist jetzt mehr ein RDNA4.5.
XD

Davon, dass du es wiederholst, wird es nicht richtiger...

Nochmal, die einzige Änderung ist, dass man Chiplet-RDNA4 gecancelt hat, um die Ingenieure darauf ansetzen zu können, RDNA5 in geplanter Form schneller umsetzen zu können, damit wenigstens der mal gut und pünktlich wird.

horn 12
2023-10-04, 20:40:42
Nun, alle tun so als ob Projekt RDNA 3 so extrem schlecht ist.
Ist nicht Perfekt und die Effizienzbombe geworden aber trotzdem gut Genug um Paroli zu bieten mit der 4080 und auch mal mit RTX 4090

HOT
2023-10-04, 22:11:45
XD

Davon, dass du es wiederholst, wird es nicht richtiger...

Nochmal, die einzige Änderung ist, dass man Chiplet-RDNA4 gecancelt hat, um die Ingenieure darauf ansetzen zu können, RDNA5 in geplanter Form schneller umsetzen zu können, damit wenigstens der mal gut und pünktlich wird.

Ist halt ein Dilemma. Ich gehe davon aus, dass AMD Chiplet-RDNA4 nur um ein Jahr verschoben hat und die Chiplets um RDNA5-Technik einfach erweitern wird. Bisher gab es ja eh kein fertiges Silizium, die Entwicklung geht halt weiter ;). Warum sollte man die Entwicklungsarebeit, die man bisher da hineingesteckt hat, einfach wegschmeißen? Das ergibt keinen Sinn.

reaperrr
2023-10-05, 01:46:13
Ist halt ein Dilemma. Ich gehe davon aus, dass AMD Chiplet-RDNA4 nur um ein Jahr verschoben hat und die Chiplets um RDNA5-Technik einfach erweitern wird.
Was für einen Sinn soll das machen?

Wozu einen halbgaren Frankenstein erschaffen, wenn man die Ingenieure nutzen kann, um nur ein halbes Jahr später gleich was richtig neues, noch besseres rausbringen zu können?

Für RDNA5 wird man eh andere (höhere) Spezifikationen anpeilen, die RDNA4-Chiplet-Designs sind dann weitgehend wertlos, weil schon N52 wahrscheinlich ca. N41-Raster-Perf, aber mit besserem RT und weniger Verbrauch bieten wird.

Bisher gab es ja eh kein fertiges Silizium, die Entwicklung geht halt weiter ;).
Nein, tut sie eben nicht, jedenfalls nicht für konkrete RDNA4-Chiplet-Designs und auch keinen RDNA4.5-Hybrid, wie du ihn dir vorstellst.
Und bevor jetzt kommt, "gibt es dazu Beweise, Aussagen o.ä.", nö, genauso wenig wie für deine "Entwicklung geht weiter"-Theorie ;)
RDNA4 und RDNA5 sind/waren unterschiedliche Teams, auch wenn das Team, das an der nächsten Gen sitzt, die Verbesserungen der vorherigen natürlich übernimmt, soweit es Sinn macht.

Warum sollte man die Entwicklungsarebeit, die man bisher da hineingesteckt hat, einfach wegschmeißen? Das ergibt keinen Sinn.
Natürlich ergibt das Sinn, wenn das aktuelle Design noch so viele Probleme hat, dass noch nicht absehbar ist, wieviel Zeit und Geld man in das Ausmerzen aller ernsthaften Probleme stecken müsste, nur um dann wieder spät dran und noch dazu gegen Blackwell trotzdem chancenlos zu sein und die konkurrenzfähigere RDNA5-uArch dadurch auch noch verschieben musste.

Übrigens:
"Weggeschmissen" werden selbst fast fertige (oder gelegentlich sogar fertige) Designs in der GPU-Entwicklung immer mal wieder. Heißt nicht, dass das was man aus den Designs gelernt hat oder einzelne Baublöcke nicht weiter von Nutzen sind.
Aber "Wegschmeißen" von Designs, die nicht wie geplant funktionieren, oder die nicht in ein geändertes Marktumfeld passen, ist Gang und Gäbe.

HOT
2023-10-05, 08:50:42
Du gehst von völlig anderen Annahmen aus als ich, daher ist das auch so absurd, dass wir darüber diskutieren. Ich denke nämlich keineswegs, dass das Design Probleme hatte, sondern, dass man ein wenig mehr Zeit für die Optimierung gebraucht hätte. Wenn man diese Grundannahme mal weglässt, dass alles so furchtbar war mit dem Chiplet-RDNA, ergibt es keinerlei Sinn ein Design, das funktioniert, wegzuschmeißen. Vor allem, wie sich bereits andeutete, wenn man weiß, wo die Probleme lagen, da AMD ja offenbar erst jetzt RT wirklich ernst nimmt. Dann wäre auch Chiplet RDNA4 sehr sicher nicht konkurrenzfähig gewesen bei RT, das kann man jetzt verändern mit der Verschiebung.

Das Ding ist aus meiner Sicht sehr sicher nicht wegen Problemen sondern aus rein wirtschaftlichen Gründen gecancelt worden. Man wird das Projekt wieder aufnehmen, wenn man entsprechend RDNA weiterentwickelt hat, um RT vernünftig zu beherrschen. Das heißt natürlich nicht, dass das Ding dann 1:1 kommt, man wird die Erfahrungen aus MI300 und der Entwicklung von MI400 da schon einfließen lassen.
Und man darf das auch nicht mißverstehen, wenn ich RDNA4.5 schreibe, meine ich natürlich nicht wörtlich RDNA4.5, sondern, dass, um das Projekt zu beschleunigen, die Chiplet-Technik, die für die RDNA4-Generation entwickelt wurde, weiterverwendet wird. Nur die Compute-Chiplets an sich dürften sehr große Änderungen zu RDNA4 erfahren. Sieh es ein bisschen wie Zen5, der jetzt neue RDNA5 macht mehr intern, weniger an Topopogie und Infrastruktur. Die ist ja schon größtenteils für RDNA4 und MIxxx entwickelt worden. Ein RDNA5, der Ende 2025 erscheint, sieht natürlich anders aus, als ein RDNA5, der erst Ende 26 oder besser in 27 erschienen wäre, wenn es Chiplet-RDNA4 gegeben hätte.

basix
2023-10-05, 09:18:11
RDNA4 mit Chiplets hat den Nachteil, dass die Packaging Fabs einfach voll sind. Diese Kapazitäten verwendet man lieber für MI300/400. Und gerade dieser Sektor boomt enorm. Aus dieser Sicht also sicher ein marktwirtschaftlicher Entscheid. Und mMn der doppelt richtige, wenn damit zusätzlich RDNA4 "monolithisch" + RDNA5 in der Entwicklung beschleunigt werden können.

Beispiel:
- RDNA4 GPUs kommen in H1/2024 raus. Deutlich vor Blackwell (3-6 Monate)
- Die schnellere GPU ist in etwa so schnell wie eine 7900XTX/4080. Damit kann man >95% des GPU-Marktes adressieren
- Bei ca. 200W und 16/18 GByte VRAM wäre auch für 4K & RT genug Performance sowie Speicher da (~4080 Niveau?)
- Für ~600-650$ würde P/L schonmal gut steigen (vs. RDNA3 und Lovelace) und AMD würde gleichzeitig wohl mehr als bei N31 & N32 verdienen
- Diese Preisklasse wäre für viele noch erschwinglich

Kann AMD also früh, mit guter Effizienz & Performance sowie gutem P/L liefern, wäre das mMn mehr Wert als einen RDNA4 Top Dog zu liefern. Bringt AMD mehr, bringt mehr Spielern was.

Im Idealfall wäre RDNA4 mit N43 ein leichtes Stück schneller als die 4090 (für kurze Zeit die schnellste GPU am Markt), das ist aber wohl etwas zu viel des Guten ;)

HOT
2023-10-05, 09:47:52
Mit 60-64CUs denke ich wird man zwsichen 7900XT und XTX rauskommen mit N48. RT mehr Leistung, da Hardware bhv, aber trotzdem deutlich weniger als AD103; Raster in FHD und QHD konkurrenzfähig, in UHD fehlt Bandbreite. Wenn man das Ding 8700XT nennen würde passt das mMn gut zu BW.

amdfanuwe
2023-10-05, 09:55:29
Mit 60-64CUs denke ich wird man zwsichen 7900XT und XTX rauskommen mit N48.
7900XT hat 82CU. Ich denke nicht, dass N48 mit 64CU das erreicht.

HOT
2023-10-05, 09:58:09
Mit RDNA4-CUs >3GHz, doch das klappt.

amdfanuwe
2023-10-05, 12:22:01
Wieviel schneller sollte RDNA3 gegenüber RDNA2 damals sein? Und was ist dabei rausgekommen?
Ich schraub da die Erwartungen mal lieber nicht zu hoch.

maximus_hertus
2023-10-05, 12:45:24
- RDNA4 GPUs kommen in H1/2024 raus. Deutlich vor Blackwell (3-6 Monate)
- Die schnellere GPU ist in etwa so schnell wie eine 7900XTX/4080. Damit kann man >95% des GPU-Marktes adressieren
- Bei ca. 200W und 16/18 GByte VRAM wäre auch für 4K & RT genug Performance sowie Speicher da (~4080 Niveau?)
- Für ~600-650$ würde P/L schonmal gut steigen (vs. RDNA3 und Lovelace) und AMD würde gleichzeitig wohl mehr als bei N31 & N32 verdienen
- Diese Preisklasse wäre für viele noch erschwinglich


- Blackwell soll doch erst 2025 starten, ergo wären 3-6 Monate vor Blackwell dann Herbst - Frühwinter 2024. Was imo auch realistischer wäre. H1 wäre zu früh bzw. man will sicher erstmal N32 verkaufen / abverkaufen.
- Mit den kolportierten 64 CUs sehe ich nicht, wie man die 7900 XTX erreichen soll. Imo könnte man eher 20-30% auf die 7800XT drauf legen. Ergo wäre man dann knapp unterhalb der 7900 XT bzw. mit RT dann ggf. vorne.
- 200W halte ich für unwahrscheinlich, da man mit den 64 CUs sicher beim Takt recht weit nach oben muss, ergo nicht im Sweetspot laufen wird.
- 699 USD / aktuell rund 750-770 Euro als MSRP / UVP für eine 8800XT auf knapp 7900Xt Niveau würde ich für realistisch erachten
- N48 Salvage dann etwas schneller als die 7800XT bei dann 200W, deutliche RT Vorteile und entweder die gleichen 499 USD MSRP oder ggf. 549 USD. Also 550 - 600 Euro UVP (8700 XT).
- N44 Full dann Raster ca. 6700XT Performance bei 150-160W, RT sogar mehr. Raster dann knapp unter der 4060 Ti, RT auf Niveau der 4060. Preislich 299-349 USD, ergo 330-380 Euro UVP (8600 XT).
- N44 Salvage, etwas schneller als die 7600, max 130W, 249 USD bzw. 270-280 Euro UVP (8600)

Ergo: N48 Full konkurriert mit der 4070 Ti, Salvage mit der 4070. N44 mit der 4060 (Ti). Die RT Schwäche wird man wohl einigermaßen aufholen (nicht komplett) und einen Vorteil bei Raster haben.

Alles ganz nett, aber keine Revolution. nV würde dann ggf. einzelne Modelle im Preis (inoffiziell) senken und gut ist, wenn überhaupt.

HOT
2023-10-05, 13:13:30
Wieviel schneller sollte RDNA3 gegenüber RDNA2 damals sein? Und was ist dabei rausgekommen?
Ich schraub da die Erwartungen mal lieber nicht zu hoch.
Das hat nichts mit hochgeschraubten Erwartungen zu tun, sondern, was AMD plant. Es ist ja offensichtlich, dass man N31 mit N48 ersetzen möchte und N32 mit N44. Die Kosten müssen halt runter, dafür der ganze Stunt. Und N48 wird eben auch nicht als UHD-Produkt vermarktet sondern als Enthusiastenklasse nach AMDs Definition, was QHD-Spieler ist. XTX-Leistung wird man mMn nicht ganz knacken, eher XT-Raster und >XTX bei RT, aber irgendwo deutlich unter der 4080 bei heavyRT-Loads.

Statt
N31
N32
N22
N33
N24

wird das Lineup dann

N48
N44
N33
N24

sein. Alle anderen gehen EOL.

amdfanuwe
2023-10-05, 14:50:15
Das hat nichts mit hochgeschraubten Erwartungen zu tun, sondern, was AMD plant. Es ist ja offensichtlich, dass man N31 mit N48 ersetzen möchte und N32 mit N44.
Wenn hier einer wüsste was AMD plant, müssten wir uns nicht mit ein paar Gerüchten zufriedengeben.
Und offensichtlich scheint mir eher, dass N32 60CU mit N48 64CU und N33 16CU mit N44 20CU jeweils einen stärkeren Nachfolger bekommen, sofern dieses Gerücht sich nicht nur als Luftblase entpuppt.
https://www.3dcenter.org/news/news-des-28-september-2023

Edit:
Wobei ich mir eigentlich nicht vorstellen kann, dass AMD nur max.12 GB bei einer 8800 verbaut.

AffenJack
2023-10-05, 18:15:27
Warum vorverschieben? Wer sagt, dass RDNA5 für später geplant war?

Es ist ein typischer Zyklus volle Gens alle 2 Jahre zu bringen. Anderes lohnt sich wegen Entwicklungskosten einfach nicht, da man die nicht wieder rein kriegt. Es sind eigentlich nur weniger, wenn vorher nur teilweise Generationen releast wurden, wie zb bei RDNA1.

Von RDNA4 hat man aber schon gehört, dass es eine komplette Gen werden sollte, daher ist es äußerst unwahrscheinlich, dass es nicht mit 2 Jahren Abstand geplant war.


Und natürlich hilft das. Wenn du Ingenieure, die bisher noch verzweifelt versucht haben die großen RDNA4 zu retten, jetzt stattdessen auf die (noch lange) ToDo-Liste von RDNA5 ansetzt, dann bringt das schon was. Ist nicht so, dass jeder Ingenieur bei denen nur eine bestimmte Sache kann und in allen anderen Stages unbrauchbar ist.

Ein Ingenieur hat sein Aufgabengebiet und macht das in verschiedenen Projekten. Es hilft dir überhaupt nicht einen Ingenieur ne komplett andere Rolle zu geben, bei der er erstmal 6 Monate Einarbeitungszeit hat. Die Leute die die Architektur designen, sind andere als die, die die Implementierung und Verifikation übernehmen und so weiter. Die


RDNA4 - bzw. die gecancelten großen Chiplet-RDNA4 - waren wegen Problemen bereits spät dran, wie schon RDNA3.
Man arbeitet bei AMD mit mindestens 2 Teams parallel, während ein Team bereits mit der Fertigstellung von RDNA4 beschäftigt war, arbeitete das nächste schon längst an RDNA5.
Wenn sich RDNA4 verspätet, RDNA5 aber nicht, kommt es halt zu einer ähnlichen Situation wie bei RDNA1->RDNA2, wo zwischen zwei Gens nur 15-18 Monate liegen.
Versteh nicht, was daran so unglaubwürdig sein soll.


Woher kommt die Annahme, dass RDNA4 Probleme hatte? Es gibt keinerlei Anzeichen, dass irgendwelche Ingenieure von RDNA4 zu RDNA5 geschoben wurden wegen Problemen bei RDNA4. Packagingkapazitäten machen viel mehr Sinn. Das basiert alles komplett auf deinen Annahmen. Ich bin da bei Hot. Wenn RDNA5 früh kommen sollte, dann nur weil es ein abgespecktes RDNA5 Design, also RDNA4.5 wird.


- RDNA4 GPUs kommen in H1/2024 raus. Deutlich vor Blackwell (3-6 Monate)
- Die schnellere GPU ist in etwa so schnell wie eine 7900XTX/4080. Damit kann man >95% des GPU-Marktes adressieren
- Bei ca. 200W und 16/18 GByte VRAM wäre auch für 4K & RT genug Performance sowie Speicher da (~4080 Niveau?)
- Für ~600-650$ würde P/L schonmal gut steigen (vs. RDNA3 und Lovelace) und AMD würde gleichzeitig wohl mehr als bei N31 & N32 verdienen
- Diese Preisklasse wäre für viele noch erschwinglich

N48 wird nicht so früh kommen. Die einzige GPU die ne Chance hat früh zu kommen ist N44. Alleine aus der Historie, dass man sich für ein N48 Design wohl erst mit dem Canceln der großen Chips entschieden hat wird zu einer Verschiebung nach Hinten führen, selbst wenn N43 für N1/24 geplant gewesen wäre. Ich gehe von N4 aus bei den monolithischen RDNA4 GPUs, daher glaube ich nicht an 7900XTX Leistung, außer bei RT, da könnte man den durchaus schlagen.

- Blackwell soll doch erst 2025 starten, ergo wären 3-6 Monate vor Blackwell dann Herbst - Frühwinter 2024. Was imo auch realistischer wäre. H1 wäre zu früh bzw. man will sicher erstmal N32 verkaufen / abverkaufen.


Die Leaker, auf deren Infos im Moment alle Blackwellinfos basieren sagen beide es gab keine Verschiedung und Blackwell kommt 2024.

HOT
2023-10-06, 10:50:42
Beide sollen bereits auf dem Weg sein, die kommen offenbar gleichzeitig.

Man sollte sich davon verabschieden, dass man sich Mitte 2023 plötzlich dazu entschieden hat RDNA4 zu canceln, N48 beweist, dass das schon Anfang des Jahres oder gar Ende letztend Jahres entschieden wurde. Das ist aber erst vor ein paar Wochen durchgesickert.

reaperrr
2023-10-06, 12:08:44
Es ist ein typischer Zyklus volle Gens alle 2 Jahre zu bringen. Anderes lohnt sich wegen Entwicklungskosten einfach nicht, da man die nicht wieder rein kriegt. Es sind eigentlich nur weniger, wenn vorher nur teilweise Generationen releast wurden, wie zb bei RDNA1.

Von RDNA4 hat man aber schon gehört, dass es eine komplette Gen werden sollte, daher ist es äußerst unwahrscheinlich, dass es nicht mit 2 Jahren Abstand geplant war.
Die Planung ist grundsätzlich immer, die nächste Gen so schnell wie möglich marktreif zu kriegen.
Das hat auf Seiten AMDs in letzter Zeit halt nur bei RDNA2 so geklappt, wie man sich das im Idealfall wünscht.

Kürzere Entwicklungsdauer = niedrigere Entwicklungskosten und man kann sich früher auf die Gen danach fokussieren.


Woher kommt die Annahme, dass RDNA4 Probleme hatte? Es gibt keinerlei Anzeichen, dass irgendwelche Ingenieure von RDNA4 zu RDNA5 geschoben wurden wegen Problemen bei RDNA4.
Grundsätzlich sind sämtliche Aussagen und Spekulationen zu Chips, die noch nicht draußen sind, erstmal Annahmen. Das gilt für eure Aussagen aber genauso. Wie kommt ihr zu der Annahme, dass AMD Chiplet-RDNA4 einfach verschiebt oder streicht, obwohl es keine Probleme gab und es an und für sich besser wäre, N31 schleunigst durch was Besseres zu ersetzen?
Und wie sollten diese Anzeichen denn deiner Meinung nach sonst aussehen, außer eben, dass Gerüchteküchen, die schon häufiger Recht hatten, davon berichten, dass es so ist?
Und genau das hat MLID halt getan. Dass er auch schon bei Themen danebengelegen hat ändert nix dran, dass er bei solchen Gerüchten auch schon oft genug Recht behalten hat. Womit er sich teils in die Nesseln setzt ist eher, dass er sich auf Grundlage von richtigen Informationen zu weit aus dem Fenster lehnt, was zukünftige Konsequenzen angeht. Das ändert aber nix daran, dass seine Infos oft richtig oder dicht an der Realität sind.


Ein Ingenieur hat sein Aufgabengebiet und macht das in verschiedenen Projekten. Es hilft dir überhaupt nicht einen Ingenieur ne komplett andere Rolle zu geben, bei der er erstmal 6 Monate Einarbeitungszeit hat. Die Leute die die Architektur designen, sind andere als die, die die Implementierung und Verifikation übernehmen und so weiter.
Und wenn die Implementierung und Verifikation der kleinen RDNA4-Chips fertig und die der großen abgebrochen wird, sitzen die Implementations-Ingenieure erstmal ein Jahr rum und drehen Däumchen, bis es für RDNA5 wieder was zu tun gibt, schon klar;D

Entweder RDNA5 ist schon so weit fortgeschritten, dass die dort schon von Nutzen sind (man fängt mit der Implementation von Designs ja nicht erst ein Jahr vor Release an), oder sie erledigen Arbeiten, die vielleicht nicht ihrem Spezialgebiet entsprechen, wo sie aber zumindest genug Ahnung von haben, dass sie das Haupt-Team unterstützen können. Weiß jetzt nicht, was daran so abwegig ist.

N48 wird nicht so früh kommen. Die einzige GPU die ne Chance hat früh zu kommen ist N44. Alleine aus der Historie, dass man sich für ein N48 Design wohl erst mit dem Canceln der großen Chips entschieden hat wird zu einer Verschiebung nach Hinten führen, selbst wenn N43 für N1/24 geplant gewesen wäre.
Welche Historie?

Und nein, nur weil der Chip N48 heißt, bedeutet das noch lange nicht, dass sie mit dem erst vor einigen Wochen, als die Chiplet-RDNA4 endgültig gestrichen wurden, angefangen haben.

Ich denke, dass ursprünglich die Chiplets den Bereich N41-43 abdecken sollten und nur N44 von vornherein in N4(P) und monolithisch geplant war, man sich aber schon etwas früher in der Entwicklung entschieden hat, Chiplet-N43 zu streichen und stattdessen einen auf N44-Basis hochskalierten monolithischen Chip mit rund doppelten N44-Specs zu machen. Und weil 8 das Doppelte von 4 ist, hat man den N48 genannt. Und ja, reine Speku, aber in welchen Forum sind wir hier nochmal?;)

Wenn RDNA5 früh kommen sollte, dann nur weil es ein abgespecktes RDNA5 Design, also RDNA4.5 wird.
Es ist zum wahnsinnig werden mit euch ;D

Zum dritten Mal:
Wenn RDNA4 (im Idealfall) immer für H1/24 geplant war, dann war RDNA5 auch immer für spätestens H1/26, im Idealfall schon Q4/25 geplant.

Mit "früh kommen" ist nichts weiter gemeint, als dass die Implementations-Ingenieure von RDNA4 jetzt wegen der Streichung der Chiplet-RDNA4 schon früher bei RDNA5 helfen können, um den vielleicht 3-6 Monate früher in einen Release-tauglischen Zustand zu kriegen, als das sonst der Fall gewesen wäre.

Das hat doch alles überhaupt nix mit der Architektur als solcher zu tun, warum sollte man jetzt einen abgespeckten RDNA4.5 bringen? Wie kommt ihr auf sowas? Da müssten nur für eure Frankenstein-Hybrid-uArch eigene Treibereinträge gemacht werden usw.

HOT
2023-10-06, 12:10:41
Chiplet RDNA4 wird frühestens Q4 24 angepeilt gewesen sein, eher Anfang 25 - wie kommst du auf H1 24? Das ist total absurd. Daraus wird jetzt Ende 25, Anfang 26, also "RDNA4.5", gleiche Topologie, neuere Chips, ist doch eigentlich logisch. N44 und 48 wurden als Ersatzprodukte für diese Generation entwickelt und sind nicht vollständig RDNA4 - interne Topologie nach wie vor eher RDNA2, deshalb sind die auch so früh dran. Man erinnere sich an N33 - auch gleiche Topologie wie RDNA2, nur CUs sind RDNA3, dieser war auch vor den N31/2 fertig, obwohl er als letztes Tape Out hatte. AMD verzögerte nur den Launch so stark, weil noch so viel 7nm im Stock war und N7 scheisse billig war für AMD. AMD wäre sicherlich in der Lage gewesen, N33 im August/September spätestens zu starten.

reaperrr
2023-10-06, 12:29:24
7900XT hat 82CU. Ich denke nicht, dass N48 mit 64CU das erreicht.
Mit 20% mehr Takt - bei N4P, monolithischem Design (IF$ und SI in 4nm, kein zusätzlicher Verbrauch durch Chiplet-Kommunikation mehr), optimierter uArch und etwas höherer TDP als eine 7800 XT absolut denkbar - und ca. 10% mehr IPC je CU würde man exakt bei der nominellen Rohleistung einer 7900 XT landen, bloß dass Takt idR besser skaliert als zusätzliche CUs.

Der_Korken
2023-10-06, 12:44:02
Chiplet RDNA4 wird frühestens Q4 24 angepeilt gewesen sein, eher Anfang 25 - wie kommst du auf H1 24? Das ist total absurd.

Ist RDNA3 nicht bereits später schienen als geplant? AMD hat afaik nie gesagt, dass sie eine 2-Jahres-Kadenz anpeilen. 24H1 wären (bis zu) 42 Monate nach RDNA2, d.h. zeitlich wären da zwei Gens absolut im Rahmen.

reaperrr
2023-10-06, 12:58:44
Chiplet RDNA4 wird frühestens Q4 24 angepeilt gewesen sein, eher Anfang 25 - wie kommst du auf H1 24?
RDNA4 war sogar mal für Ende 23/Anfang 24 geplant. Hat nur zum Teil wegen der Verzögerungen bei RDNA3, zum Teil wegen Schwierigkeiten mit dem Chiplet-Ansatz der größeren RDNA4 selbst nicht im Ansatz geklappt.

Daraus wird jetzt Ende 25, Anfang 26, also "RDNA4.5", gleiche Topologie, neuere Chips, ist doch eigentlich logisch.
Da ist überhaupt nichts logisch, das ist total absurd. Die streichen jetzt RDNA5 in seiner ursprünglich geplanten Form, und bringen lieber auf Gedeih und Verderb einen RDNA4+ mit einigen RDNA5-Verbesserungen, sonst aber mit exakt dem Aufbau, den sie schon für RDNA4 nicht rechtzeitig in den Griff bekommen haben? Warum sollten sie das tun?
Ich hab's schonmal gesagt (wenn auch etwas anders formuliert), du interpretierst in die Aussage von RGT, dass der GCX-Ansatz jetzt erst mit RDNA5 kommt, zu viel rein.

Das bedeutet nicht, dass da jetzt ein RDNA4.5 kommt, sondern dass die Chiplet-RDNA4 gestrichen sind und übersprungen werden, und dadurch halt RDNA5, der ohnehin ebenfalls Chiplet gewesen wäre, jetzt halt die erste veröffentlichte Architektur wird*, die den GCD noch weiter aufsplittet. Das heißt nicht, dass sich an RDNA5 durch die N41-43-Streichung irgendwas geändert hätte, außer dass AMD hofft, dass es durch die zusätzlichen drauf angesetzten Ingenieure etwas schneller geht.

*Wenn die nicht auch wieder irgendwas zum Opfer fallen, natürlich.

horn 12
2023-10-06, 14:13:23
N43 wäre im Idealfall knapp an einer 7900XTX dran
und RDNA 5 kommt Frühestens Herbst September/ Oktober 2025,- kann man dies beides so Unterstreichen ?

Mangel76
2023-10-06, 16:32:41
"Die streichen jetzt RDNA5 in seiner ursprünglich geplanten Form, und bringen lieber auf Gedeih und Verderb einen RDNA4+ mit einigen RDNA5-Verbesserungen, sonst aber mit exakt dem Aufbau, den sie schon für RDNA4 nicht rechtzeitig in den Griff bekommen haben? Warum sollten sie das tun? "

Das ist genauso an eine reine Vermutung. Dennoch gibt es durchaus die Möglichkeit, den Featurestop etwas früher anzusetzen, weil ein Nachfolger für RDNA3 früher gebraucht wird als es der Fall gewesen wäre, wenn RDNA4 vollständig released worden wäre. So ist es dann doch so etwas wie RDNA4.5. Wir sind hier im Spekuforum und keiner von ums weiß, wie es wirklich ist.

AffenJack
2023-10-06, 16:53:02
Die Planung ist grundsätzlich immer, die nächste Gen so schnell wie möglich marktreif zu kriegen.
Das hat auf Seiten AMDs in letzter Zeit halt nur bei RDNA2 so geklappt, wie man sich das im Idealfall wünscht.

Kürzere Entwicklungsdauer = niedrigere Entwicklungskosten und man kann sich früher auf die Gen danach fokussieren.


Nein, die Planung ist so, dass man das maximale aus seinen Ressourcen macht und am meisten Geld verdient. Das haben Firmen so an sich. Entwicklungszyklen ergeben sich daraus nur sekundär. Durch immer schlechter skalierende Prozesse gibt es aber immer weniger Anreize oft neue Produkte zu bringen. Kürzere Entwicklungszyklen erhöhen die Entwicklungskosten und senken das ROI. Du musst mehr Ingenieure am gleichen Projekt beschäftigen und hast dazu noch weniger Zeit Gewinn einzufahren. Unternehmerisch macht das anders keinen Sinn. Deshalb hat sich die Industrie auch etwa auf 2 Jahreszyklen bei GPUs eingestellt in der gleichen Klasse, weil es unheimlich schwierig ist nennenswerte Architekturfortschritte ohne Prozessschritte in kurzer Zeit zu entwickeln. Die Zyklen sind nur kürzer, wenn unvollständige Generationen launchen, siehe RDNA1 zu RDNA2.

Grundsätzlich sind sämtliche Aussagen und Spekulationen zu Chips, die noch nicht draußen sind, erstmal Annahmen. Das gilt für eure Aussagen aber genauso. Wie kommt ihr zu der Annahme, dass AMD Chiplet-RDNA4 einfach verschiebt oder streicht, obwohl es keine Probleme gab und es an und für sich besser wäre, N31 schleunigst durch was Besseres zu ersetzen?
Und wie sollten diese Anzeichen denn deiner Meinung nach sonst aussehen, außer eben, dass Gerüchteküchen, die schon häufiger Recht hatten, davon berichten, dass es so ist?
Und genau das hat MLID halt getan. Dass er auch schon bei Themen danebengelegen hat ändert nix dran, dass er bei solchen Gerüchten auch schon oft genug Recht behalten hat. Womit er sich teils in die Nesseln setzt ist eher, dass er sich auf Grundlage von richtigen Informationen zu weit aus dem Fenster lehnt, was zukünftige Konsequenzen angeht. Das ändert aber nix daran, dass seine Infos oft richtig oder dicht an der Realität sind.

Am Ende eine Frage der Glaubwürdigkeit. Für mich ist MLID und RGT so oft daneben gelegen in letzter Zeit, dass ich eher Bitsandchips glaube, die rein wirtschaftliche Gründe sehen.


Und wenn die Implementierung und Verifikation der kleinen RDNA4-Chips fertig und die der großen abgebrochen wird, sitzen die Implementations-Ingenieure erstmal ein Jahr rum und drehen Däumchen, bis es für RDNA5 wieder was zu tun gibt, schon klar;D

Entweder RDNA5 ist schon so weit fortgeschritten, dass die dort schon von Nutzen sind (man fängt mit der Implementation von Designs ja nicht erst ein Jahr vor Release an), oder sie erledigen Arbeiten, die vielleicht nicht ihrem Spezialgebiet entsprechen, wo sie aber zumindest genug Ahnung von haben, dass sie das Haupt-Team unterstützen können. Weiß jetzt nicht, was daran so abwegig ist.

Oder sie machen das, was für ein Unternehmen das wirtschaftlich sinnvollste ist und gehen zu MI400 rüber, der gerade die Leute gebrauchen kann. Denn MI400 ist schon deutlich weiter als RDNA5 und hat Potential wesentlich mehr einzubringen. Aber wahrscheinlich hat AMD noch nichts davon mitbekommen, dass es sich vielleicht lohnen könnte seine AI Projekte zu beschleunigen.


Welche Historie?

Und nein, nur weil der Chip N48 heißt, bedeutet das noch lange nicht, dass sie mit dem erst vor einigen Wochen, als die Chiplet-RDNA4 endgültig gestrichen wurden, angefangen haben.

Ich denke, dass ursprünglich die Chiplets den Bereich N41-43 abdecken sollten und nur N44 von vornherein in N4(P) und monolithisch geplant war, man sich aber schon etwas früher in der Entwicklung entschieden hat, Chiplet-N43 zu streichen und stattdessen einen auf N44-Basis hochskalierten monolithischen Chip mit rund doppelten N44-Specs zu machen. Und weil 8 das Doppelte von 4 ist, hat man den N48 genannt. Und ja, reine Speku, aber in welchen Forum sind wir hier nochmal?;)

Das ist am Ende ne Frage der Grundannahme, wieso es das Canceln gab.

A: Canceln wegen Problemen bei RDNA4, spätestens Januar 2023, falls man in H1 24 mit nem neuen Projekt N48 launchen will in einer Phase, wo es noch keine Zeitverzögerung gibt.

B: Canceln aufgrund wirtschaftlicher Erwägungen mit Beginn KI Boom. Das wäre eher April und erzeugt definitiv 3-6 Monate Verzögerung bei N48 im Vergleich zum gestrichenen N43, weil zu kurz vorm Tapeout.

Wir werden ja sehen, wo wir dann am Ende landen. Falls es N48 gar nicht gibt, sondern nur N44,N43 ist der Zeitpunkt des Cancelns eh egal.


Es ist zum wahnsinnig werden mit euch ;D

Zum dritten Mal:
Wenn RDNA4 (im Idealfall) immer für H1/24 geplant war, dann war RDNA5 auch immer für spätestens H1/26, im Idealfall schon Q4/25 geplant.

Mit "früh kommen" ist nichts weiter gemeint, als dass die Implementations-Ingenieure von RDNA4 jetzt wegen der Streichung der Chiplet-RDNA4 schon früher bei RDNA5 helfen können, um den vielleicht 3-6 Monate früher in einen Release-tauglischen Zustand zu kriegen, als das sonst der Fall gewesen wäre.

Das hat doch alles überhaupt nix mit der Architektur als solcher zu tun, warum sollte man jetzt einen abgespeckten RDNA4.5 bringen? Wie kommt ihr auf sowas? Da müssten nur für eure Frankenstein-Hybrid-uArch eigene Treibereinträge gemacht werden usw.

Wir gehen einfach von völlig unterschiedlichen Annahmen aus. Ich gehe davon aus, dass AMD N41 bei 3nm bringen wollte. Das ist vor vornerein immer klar, dass das erst in H2 24 möglich sein wird. Ein N43 in 4nm ist davon unberührt. Dementsprechend ist ein Nachfolger in 2nm in H2 26 möglich. Die Entwicklung ergibt sich ganz einfach aus den Prozessen von TSMC heraus.

Ein 3nm Chip in H1 24 ist nicht realistisch, genausowenig wie ein 2nm Chip in H1 26. Also ist der von dir erwartete Prozess für RDNA5 3nm?
Tatsächlich halte ich dadurch dann ein nach vorne Schieben von RDNA5 für möglich. Durch das Canceln seiner 3nm Chips macht ein späterer 3nm RDNA5 wieder Sinn. Das wäre aber wie gesagt dann ein nach vorne schieben von RDNA5 für 3nm und würde eine andere Architektur als RNDA5 in 2nm für mich bedeuten.

Altehardware
2023-10-07, 20:30:50
Natürlich geht jede Firma vom Besten Kosten Nutzen Faktor aus. Und je teurer man ein Produkt verkaufen kann bei geringsten Kosten dessen desto besser.
Nur leider ist so eine Vorgehensweise nur Monopolisten gegeben allen anderen richten sich nach dem Markt.
Und bei gpu zählt Leistung pro euro und das vermehrt im profi Bereich.
Der aktuelle hype mit ai und die fehlende Konkurrenz ist es das was die preise so hoch werden ließ.
Amd hängt min eine gen an gpu hinterher und will einfach die priese nicht danach anpassen damit nvidia nachziehen muss.

Rdna4 wird lediglich rdna3 gefixt in n4x werden.
rdna5 nicht vor q4 2026 kommen da man auf n2 setzen wird.

Sicher ist nur das rdna5 etwa 16 Monate nach rdna4 kommt. wenn rdna4 q2 2024 kommt wäre man in q4 2026 soweit
Was dann rdna5 sein wird ist völlig offen da nicht klar ist was amd da plant das planare mcm ist Geschichte man wird vermutlich 3d stacking nutzen wollen. das wird aber tsmc erst in n1,8 realisieren bzw bis dahin nur mit tsv mit sram umsetzen können.

n2x bietet sich da an das man die chips quasi halbieren kann durch gaa und darüber die mcd setzt.
Das bedingt aber eine Taktstagnation aktuell wird durch den designfehler nur 2,4-2,6ghz erreicht gefixt in n4x sind es 3,55ghz
Dabei bleibt es auch mit n2x maxed 400mm² mit gestapelten mcm chips oben drauf
Das begrenzt aber die maxed alu pro chip auf 7680 alu 378mm² bei 3,5ghz
Ergibt als n51 min 62tf (derzeit ist das 37tf mit n31)
mit n2x reduziert sich die Fläche auf 189mm² also können theoretisch dreifache alu drin sein mit 360mmn aus 7680 wird 23040 mal 3,55ghz= 188tf


Darum sehe ich nicht das amd rdna5 vor n2x bringt eher wird es nen refresh als rdna4+ geben mit höherem Takt in n3 node +- 395mm² 7680alu 256bit wie n31 in planar mcm mit maxed 3,5ghz (62tf) in q4 2026
rnda 5 wird dann frühestens q1 2028 geben

Nur stellt sich dir frage was nvidia bis dahin hat.

blackwell wird ada refresh quasi mit geändertem gpc design der Nachfolger wird auch radikal anders werden. Da gibt es derzeit keine infos.
So nebenbei
gb202 soll 14gpc haben = 224sm zu je 64+64 (16+8) =88fp32 per sm =120tf (q2 2025)

Der Nachfolger kann dann entweder beibehalten werden und auf Takt gehen (3,9ghz) oder geändert werden in hopper ähnlichen design mit 128 +64 werden = 152 fp32 per sm oder 96+64 = 120fp32 (sehr wahrscheinlich)

Aus ego Sicht (bloß keine gen herausbringen die langsamer Taktet als die alte) wäre das ada design weiterzuführen und auf maxed Takt zu gehen sinnvoller.
Unklar ist nur wie man dxr verbessern will bisher skalieren die rt cores nur mit Anzahl und nicht mit Takt.

reaperrr
2023-10-08, 07:31:56
Durch immer schlechter skalierende Prozesse gibt es aber immer weniger Anreize oft neue Produkte zu bringen (...) weil es unheimlich schwierig ist nennenswerte Architekturfortschritte ohne Prozessschritte in kurzer Zeit zu entwickeln.
Grundsätzlich zwar richtig, aber dass RDNA3 nicht so der Burner wird, muss für AMD schon länger absehbar gewesen sein, und die großen RDNA4 hätten mit N3E für die GCx und vermutlich einem N5-Klasse-Prozess für die MCDs die jeweils für längere Zeit letzten größeren Prozessverbesserungen gebracht (nach N3E wird lange nix merklich schnelleres mehr kommen, nach N5 wird lange nix merklich kleineres für die Interface+SRAM-Kombi mehr kommen).

Das mit ROI usw. trifft zu, wenn du ne gute Marge hast und gleichzeitig das Produkt attraktiv genug ist, um über die Menge gute Gewinne einzufahren, das ist bei RDNA3 aber perspektivisch höchst fraglich.

AMD hat Glück, dass NV momentan andere Prioritäten als einen Preiskampf mit Consumer-Grakas hat, in dem wäre AMD mit RDNA3 nämlich völlig chancenlos, da sie viel mehr Silizium, Strom und teilweise auch Speicher für die jeweilige Performance brauchen.


Deshalb hat sich die Industrie auch etwa auf 2 Jahreszyklen bei GPUs eingestellt in der gleichen Klasse
Das war bei AMD jetzt gerade mal eine Generation, nachdem man aus dem Mining-Rausch noch haufenweise überproduzierte N2x übrig hatte und zumindest N31 wohl auch Kinderkrankheiten hatte.

Übrigens wäre auch Ada schon locker ein halbes Jahr früher rausgekommen, wenn NV nicht das gleiche Problem mit den Ampere-Restbeständen gehabt hätte. Fertig waren die nämlich schon länger.
Ohne den Doppelwhopper aus Ende des Mining-Booms + Kriegsauswirkungen auf die Nachfrage hätten zwischen den 2020er und 2022er Gens eben keine 2 Jahre gelegen, nicht bei Nvidia und zumindest bei N32 vs. N22 und N33 vs. N23 auch nicht bei AMD.


Am Ende eine Frage der Glaubwürdigkeit. Für mich ist MLID und RGT so oft daneben gelegen in letzter Zeit, dass ich eher Bitsandchips glaube, die rein wirtschaftliche Gründe sehen.
Also in dem einen Tweet, den ich auf die Schnelle gefunden habe, schreiben sie nur, dass AMD Next-Gen GPUs zugunsten von FPGAs und MIxxx opfern. Das widerspricht nicht meiner Aussage bzw. den Gerüchten, dass es primär um CoWoS-Kapazitäten geht und die eingesparten N3E-Wafer eher Bonus waren, denn diese Produkte setzen ja mittlerweile allesamt auf Chiplets.

Dass das Wirtschaftliche keine Rolle spielt, habe ich außerdem auch nie behauptet.


Oder sie machen das, was für ein Unternehmen das wirtschaftlich sinnvollste ist und gehen zu MI400 rüber, der gerade die Leute gebrauchen kann. Denn MI400 ist schon deutlich weiter als RDNA5 und hat Potential wesentlich mehr einzubringen.
MI400 ist meiner Einschätzung nach weitgehend durch und wartet hauptsächlich auf Validierungsergebnisse und die Massenproduktion der jeweiligen Chiplets, fraglich ob da so viel zusätzliche Ingenieure überhaupt noch von Nutzen wären.
Dass zumindest ein paar zu MI400 abgestellt wurden habe ich außerdem ebenfalls nicht ausgeschlossen.


Wir gehen einfach von völlig unterschiedlichen Annahmen aus. Ich gehe davon aus, dass AMD N41 bei 3nm bringen wollte.
Tun wir nicht, denn davon, dass die N4x-GCDs/-GCX in N3E produziert werden sollten, bin ich auch ausgegangen (von Anfang an sogar).

Das ist vor vornerein immer klar, dass das erst in H2 24 möglich sein wird.
Die Massenproduktion von N3E geht (ging?) in diesem Halbjahr los. Da wäre Ende Q2 2024 als Launchtermin absolut möglich gewesen, wenn AMD ihre N4x-Chiplets rechtzeitig fertig gehabt und der KI-Boom nicht gekommen wäre.

genausowenig wie ein 2nm Chip in H1 26. Also ist der von dir erwartete Prozess für RDNA5 3nm?
Ja, N3P, und m.E. von AMD auch immer so angedacht gewesen.

Navi4x Chiplets in N3E und mit verhältnismäßig moderaten Specs, um trotz relativ unerprobtem Prozess gute Yield zu erreichen, und dann takt-mäßig so weit hochgeprügelt, wie möglich oder nötig (je nach Konkurrenzsituation), Navi5x dann ~18-22 Monate später im etwas schnelleren und bis dahin wohl auch günstigeren und ausgereifteren N3P mit etwas ambitionierteren Chiplet-Specs und größeren Architekturverbesserungen, um trotz kleinem Fertigungssprung deutlich schneller zu sein.

Schon in 2026 mit irgendeinem 2nm-Prozess für ein Consumer-Produkt zu planen, wäre m.E. zu riskant gewesen und hat AMD deshalb meiner Ansicht für RDNA5 auch nicht getan.


rdna5 nicht vor q4 2026 kommen da man auf n2 setzen wird.

Sicher ist nur das rdna5 etwa 16 Monate nach rdna4 kommt. wenn rdna4 q2 2024 kommt wäre man in q4 2026 soweit
(...)
rnda 5 wird dann frühestens q1 2028 geben

16 Monate nach RDNA4 wäre Q4 2025, wenn RDNA4 in Q2 2024 kommt :wink:

Damit hast du für RDNA5 drei Termine verteilt auf einen Zeitraum von fast 3 Jahren genannt...^^'


Rdna4 wird lediglich rdna3 gefixt in n4x werden.
Äh, nein.
RDNA4 wird schon trotzdem noch ne neue Architektur. Soll sogar mehr Architektur-Verbesserungen gegenüber RDNA3 haben, als RDNA3 gegenüber RDNA2.

Und die kommen zu 99,9% in N4P, nicht N4X. N4X schafft nur ~5 Prozent mehr Maximaltakt, auf Kosten von deutlich höheren Leckströmen und damit Hitze/Verbrauch. Das mag für teure "Nur Geschwindigkeit zählt" Server-/KI-Produkte noch Sinn machen, aber nicht für Mainstream-GPUs die auch noch Laptop-tauglich sein sollen.


rdna5 nicht vor q4 2026 kommen da man auf n2 setzen wird.
Nein, wird man meines Erachtens nicht. N2 wird anfänglich - ähnlich wie N3 - in der ersten Version kaum bis garnicht mehr Takt am oberen Ende als N3P schaffen, die Wafer werden teurer und knapper sein und die Ausbeute schlechter.
N2 wird zu Anfang nur für Apple, Zen6c-Chiplets, MI500 oder MI600 und Nvidia's GH100-Nachfolger sein, weil man dort die Flächeneinsparungen und die Energieeinsparungen in niedrigen Taktbereichen braucht.

RDNA5 wird mit hoher Wahrscheinlichkeit in N3P kommen (nein, nicht N3X, aus den gleichen Gründen wie N4P für RDNA4), deshalb ist auch ein Zeitraum zwischen Ende 2025 und Mitte 2026 realistisch.

horn 12
2023-10-08, 11:03:31
Und da Soll Navi 31 7900XTX bis dahin durchhalten wenn N44 /48 nur 7900XT Leistung erzielen könnte.
Dies wären mindestens 3 komplette Jahre!

HOT
2023-10-08, 11:21:12
Genau wir AMD mit der 5700XT überlebt hat ;).

Altehardware
2023-10-08, 19:34:07
Nun wie kome ich auf drei unetrschiedliche zeiträume
Nun das ergibt asich aus den Schlussfolgerungen
n43 und n48 sind Monolithen also quasi n33 portiert auf n4x nix anderes macht sinn
n3e oder generell n3 wird durch die ai schiene (mi400) blockiert folglich gehe ich nicht davon aus das man vor q2 q3 2026 soweit ist
n43 dürfte frühestens q2 2024 soweit sein spätestens q4 2024 das hängt primär vom release der ps5 pro ab.
Wäre also dann frühestens n51 q4 2025 aber da dann keine Kapazitäten frei sind nehme ich an das man eher auf n2 setzen wird da dieser Prozess deutlich bessere Taktraten verspricht.
3d chips sind auch im Gespräch aber wie gesagt ist das ein Risiko das es fehlschlägt und tsmc kann aktuell nur tsv Verbindungen herstellen quasi wie bei cpu 3dcache oben drauf. Und das auch nur im gleichen node.
Man spart dadurch keinen cent ein. das geht erst mit n1,8 und n2x bietet gaa was die chipfläche halbiert
Der Takt indes steigt schon ab n2 node +25% oder 50% energieeffizienter als n3
Allerdings verliert man Fläche aus 830mm² aktuell gehen nur noch 430mm²
Es macht also durchaus sinn bis n2x noch monolithisch weitere gpu zu planen
Das mcm von amd hatte nur den Vorteil das man quasi high end günstiger fertigen kann das schlug fehl weil man einen Fehler im design hat das die zusätzlichen fp32 Ausführungen verhindert und sogar Fehler verursachen beim sram. Daten werden korrupt um das zu vermeiden haut man viel voltage rein damit die daten konsistent bleiben.
Eine folge vom versuch den sram zu verkleinern in 6nm und 5nm
Das wird mit n4x behoben darum meine Annahme von 3,55ghz und keiner Flächenreduktion.
Das dürfte das problem was rdna3 hat lösen ob das dann rdna4 heißt spielt keine rolle ich nehme auch an das man gddr7 nutzen wird und das Si kürzt womit dann 64bit (12gb) n43 und 96bit (18gb) n48 sein wird
n43 32cu 3,55ghz 12gb an 64bit 36gbps =288gb/s +109gb/s effektiv 397gb/s mit grob 18tf ab 300$
n48 54-64cu 3,55ghz an 96bit 36gbps =432+163 effektiv 595gb/s mit grob 31tf ab 549$

zum vergleich das entspricht der rx7900gre bis rx7900xt

Und das schon q2 2024 bis q4 2024 das hängt wie gesagt von den Konsolen ab.
Diese soll zwischen q2 und q4 2024 erscheinen mit dem n48 chip

horn 12
2023-10-08, 19:48:17
Nur 7900XT für N48 ;- dann würde bis Ende 2025 die 7900XTX ihren 3 Jährigen Tribut feiern
und man könnte eine 4080 TI immer schneller als die XTX promoten.

Altehardware
2023-10-09, 08:38:26
So sieht es aus nvidia hat quasi freie bahn bis q2 2027 amd Zukunft ist nicht so rosig wie es scheint aber danach also ab 2027 könnte amd in Führung gehen das bedingt aber das dass MCM design voll einschlägt und funktioniert.

Indizien gibt es bei den patenten amd Ansatz ist gewagt benötigt aber zwingend ein 3d chip mit aktiven interposer und den sehe ich frühestens 2029.
Also muss man über den Takt gehen
n51 ~3,55ghz maxed 1800cu 390mm² n3e 95,6tf 2026
n61 ~4,7ghz maxed 180cu 330mm² n2 2027 126tf

nvidia zu der zeit
gb202 ~3,10ghz maxed 180sm sku bis 160sm 87tf 2025 (quadro only)
gb203 ~3,1ghz maxed 142sm 77tf 2025
gx102 ~4,0ghz maxed 288sm 202tf sku ab 240sm 2028

Platos
2023-10-09, 08:57:05
MCM hilft genau null, in Führung zu gehen. Denn sie brauchen dafür nicht nur Rohpower, sondern auch den entsprechenden Preis, RT-Perfomance, besseres FSR und Framegen usw. Bisher haben sie recht gut bewiesen, dass sie nichts davon liefern können/wollen.

2027 sind 3-4 Jahre. Da wird RT vermutlich im Mainstream brauchbar werden bei nvidia. Und bei allen "Features" (Dlss und co.) sind sie Meilenweit hinterher.

Abgesehen davon könnte nvidia in der Generation nach Blackwell auch im Gaming Chiplets einsetzen. Von daher...

basix
2023-10-09, 09:32:22
Abgesehen davon könnte nvidia in der Generation nach Blackwell auch im Gaming Chiplets einsetzen. Von daher...

Sobald man auf N2P umsteigt, gibt es entweder max. 416mm2 Chips oder eine Mehrzahl davon (High-NA-EUV halbiert die Reticle Size). Chiplets und/oder 2.5D/3D-Stacking sind also zwingend, wenn man grosse Chips bauen will. Einzige Alternative: Sowas wie Cerebras, wo man theoretisch je nach Wafer-Dicing 1, 2, 3, 4x zusammenhängende Chips rausbekommt. Das hätte den Vorteil, dass die Chips bereits auf dem Wafer verbunden wären, hätte aber seine eigenen Limitationen (Yield-Nachteile, Chip-Binning & 3D-Stacking nur schwer möglich). Oder man baut halt nur noch kleine Chips für Consumer (monolithisch).

Mit ~400mm2 Nutzfläche für Shader Arrays / GPCs kann man aber bereits sehr schnelle Chips bauen, wenn man das auf ein Base-Die stacked. Die 12x GPCs von AD102 sind ~330mm2 gross. Etwas in dieser Grössenordnung oben drauf stacken und im Base Die L2$ (Nvidia) / L3$ (AMD), Memory Interfaces & Display/Multimedia, was in etwa gleich viel Fläche beanspruchen wird wie das oben drauf gestackte Die. Alles was kleiner ist (siehe AD103 mit 379mm2), könnte man prinzipiell monolithisch belassen.

Mir gefällt allerdings der Ansatz von einem der letztens aufgetauchten Patente von AMD nochmals besser: Wie oben beschrieben ein Die auf ein Base Die gestacked. Allerdings kleiner und man kann mehrere davon zusammenschalten.

MCM hilft genau null, in Führung zu gehen. Denn sie brauchen dafür nicht nur Rohpower, sondern auch den entsprechenden Preis, RT-Perfomance, besseres FSR und Framegen usw. Bisher haben sie recht gut bewiesen, dass sie nichts davon liefern können/wollen.

2027 sind 3-4 Jahre. Da wird RT vermutlich im Mainstream brauchbar werden bei nvidia. Und bei allen "Features" (Dlss und co.) sind sie Meilenweit hinterher.
Ja, AMD hinkt von den Features her hinterher. Dass AMD nicht liefern kann oder will, finde ich aber zu hart ins Gericht gegangen. DLSS ist ein starker Gegner und FSR war bei erscheinen das zweitbeste AA & Upsampling Verfahren, das es gab. Und nur knapp hinter DLSS, ausser bei Disocclusion. Mittlerweile ist TSR der UE5 vermutlich besser, kostet aber auch mehr Performance und ist UE5-only.

Und man muss auch sehen, dass RDNA verglichen mit Zen & APUs weniger Priorität hat. Auch wenn mittlwerweile mehr Budget da ist, wird es innerhalb der Firma vielleicht an 3. Stelle kommen und deutlich weniger sein als bei Nvidia. Dafür schlägt sich RTG eigentlich ganz gut.

Ich hoffe aber, dass AMD bei RDNA4 Release mit dem heutigen Featurestand von Nvidia gleichziehen kann (qualitativ wie quantitativ):
- FSR Upsampling
- FSR Frame Generation
- FSR Ray Reconstruction
- RT-Acceleration (BVH Traversal, Micromaps, ...)
- Video Encoder/Decoder
- ML/AI Acceleration (HW & SW Support)

HW designen kann AMD, da habe ich weniger Bedenken. Doch ob sie genug Budget für die ganzen SW-Themen haben, ist bei mir noch ein Fragezeichen.

HOT
2023-10-09, 09:34:24
N2P. N2 ist noch klassisch EUV.

basix
2023-10-09, 09:35:36
N2P. N2 ist noch klassisch EUV.
fixed ;)

basix
2024-04-29, 16:24:36
Neues Futter aus dem RDNA4 Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13532431#post13532431
-> https://twitter.com/All_The_Watts/status/1784561456694046744

Wenn man >144WGP und >384bit für N50 nimmt, landet man unweigerlich bei 512bit SI. Irgendwie unwahrscheinlich aber ich habe mir überlegt, ob das irgendwie klappen könnte. Unten ein Mockup von mir anhand einer 7900XT(X) und ja, es könnte gehen. Die grün markierten GDDR-Packages sind die, die neu dazugekommen sind und die GPU wurde etwas länger ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13532724#post13532724

Leonidas
2024-04-29, 17:01:54
Ich denke, AMD wird womöglich erst einmal die Technik von N40 beim N50 realisieren, nur eben bereits mit RDNA5-Architektur. Sprich, technisch spricht der Leaker von "größer als 144 WGP", aber es könnte auch exakt auf das hinauslaufen: 3 Chiplets, 144 WGP, 384-bit. Das würde immerhin diese Abstufungen ergeben:

N50: 288 CU, 384-bit
N51: 192 CU, 256-bit
N52: 96 CU, 128-bit
N48: 64 CU, 256-bit
N44: 32 CU, 128-bit

Entweder N52 oder N48 könnte man hier auf der Kippe betrachten, da zu nahe zusammenliegend. Da aber die Technik für N52 sowieso existiert, könnte N48 bei diesem Portfolio-Aufbau eventuell EOL gehen. Werden die GCDs von RDNA5 hingegen größer, könnten beide Chips nebeneinander bestehenbleiben. Mit mehr als 3 Chiplets braucht man aber bei Chiplets > als 96 CU kaum rechnen. Auch bei GCD = 96 CU sind die Chancen auf 4 Chiplets eher gering. Und nur das würde ein 512-Bit-Interface ermöglichen.

basix
2024-04-29, 17:55:17
Ich sehe das Portfolio wie du. Die 512bit Variante wäre nur was, was man theoretisch noch oben drauf packen könnte. So als Halo Produkt (Fury Label?) oder Blackwell-Next Konter. Aber auch mit "nur" 288 CU wäre das ein ziemlicher Brocken von einer GPU.

Neurosphere
2024-04-29, 18:25:12
Rage Fury Maxx Revival!!!!!

Bringt aber halt nur was wenn man dann auch wettbewerbsfähig ist.

robbitop
2024-04-30, 10:09:01
Ob die gestackten MCDs bei RDNA3 ggf für N36 waren? Mit der Verdopplung der LLC Menge brauchte man ggf. auch nicht mehr als 384 bit. Das kann ggf. auch für RDNA5 gelten. Dass man bei 384 bit aufhört und dann einfach nur mehr SRAM stackt. Gerade die SRAM chiplets (siehe VCache) sollten nicht so teuer sein (klein, kein bleeding edge node, sehr hoher yield).

mboeller
2024-04-30, 10:37:02
Wenn man >144WGP und >384bit für N50 nimmt, landet man unweigerlich bei 512bit SI. Irgendwie unwahrscheinlich aber ich habe mir überlegt, ob das irgendwie klappen könnte.

Sind die MCD wirklich notwendig?

RDNA4 sollte, wenn die 130mm2+32MB IF$ und 240mm2+64MB IF$ wirklich so kommen doch gut aufzeigen dass das Speicherinterface + MALL nicht wirklich viel Platz brauchen kann.

Bei einem hypothetischen RDNA5 würden 128bit + 32 od. 64MB IF$ per Base-DIE doch wahrscheinlich auch nicht so viel mm2 fressen kann.

AffenJack
2024-04-30, 11:25:40
Sind die MCD wirklich notwendig?

RDNA4 sollte, wenn die 130mm2+32MB IF$ und 240mm2+64MB IF$ wirklich so kommen doch gut aufzeigen dass das Speicherinterface + MALL nicht wirklich viel Platz brauchen kann.

Bei einem hypothetischen RDNA5 würden 128bit + 32 od. 64MB IF$ per Base-DIE doch wahrscheinlich auch nicht so viel mm2 fressen kann.

3nm shrinkt SRAM nicht und IO glaube auch nicht. Nur Logik skaliert. Bei den Waferkosten von N3 also ein deutlicher Produktionskostensprung. Gerade bei N3 machen MCD in 5nm Sinn.

nordic_pegasus
2024-04-30, 11:40:57
Sind die MCD wirklich notwendig?


ist die Chiplet-Architektur bei Zen wirklich notwendig? Viel mehr hat der Chiplet-Ansatz doch auch Nachteile z.B. beim Idle-Verbrauch, hohe Energiedichte oder Kommunikation zwischen den CCDs.

AMD setzt halt alles auf modulare Chiplets, damit man Produkte aus dem Baukasten erstellen kann. Gleichzeitig steigt der Yield durch Mini-Chips. Gleiches Spiel will AMD auch bei GPUs fahren.

Ich finde es nebensächlich, solange am Ende ein gutes Produkt entsteht. Navi31 hat nicht wie erhofft abgeliefert, Navi41 wurde eingestampft. Ich bin gespannt, ob AMD mit RDNA5 die Kurve bekommt. Die Euphorie, die hier im Thread schon wieder entsteht, kann ich nicht teilen.

basix
2024-04-30, 17:49:31
Zwingend notwendig sind MCDs natürlich nicht. Aber unter dem Strich wird die GPU mit MCDs vermutlich günstiger werden und man spart sich N3 Wafer-Kontingente für MI400 und Zen 5c. MCDs wären auch in N6 noch tip top. Und es wäre eine konsistente Weiterführung von RDNA1 -> 2 (Infinity Cache) -> 3 (MCDs) -> 4 (Chiplet GCD gecancelt) -> 5 (Chiplet GCD)

Zossel
2024-04-30, 18:55:50
ist die Chiplet-Architektur bei Zen wirklich notwendig? Viel mehr hat der Chiplet-Ansatz doch auch Nachteile z.B. beim Idle-Verbrauch, hohe Energiedichte oder Kommunikation zwischen den CCDs.

Das ist eher ein Entwicklungspfad aufgrund von Beschränkungen die sich schon länger in der Herstellung von Chips abzeichnen.

Wenn man auf ein Base-Die auch stromhungrige Chiplets vergleichbar dem 3D-Cache für Massenprodukte hinbekommt die auf dem gewöhnlichen Computerstrich verhökert werden können, werden sich einige Probleme der bisherigen Chiplet-Architekturen egalisieren.
Das HPC/KI Monsterteil von AMD zeigt da schon gut die Richtung an, für die 3D-Cache Teile taugt die Technik bzgl. der Kosten ja schon für Erika Mustermann.

DrFreaK666
2024-06-14, 23:33:14
Neues Patent aufgetaucht.
AMD ist gibt Chiplets nicht auf
https://www.tomshardware.com/pc-components/gpus/amd-patents-configurable-multi-chiplet-gpu-illustration-shows-three-dies

Der_Korken
2024-06-15, 00:29:48
Neues Patent aufgetaucht.
AMD ist gibt Chiplets nicht auf
https://www.tomshardware.com/pc-components/gpus/amd-patents-configurable-multi-chiplet-gpu-illustration-shows-three-dies

Ist das nicht das gleiche, was schon vor nem halben Jahr im RDNA4-Thread durchgekaut wurde? Aka, der gecancelte N41+Ableger?

reaperrr
2024-06-15, 06:39:01
Ist das nicht das gleiche, was schon vor nem halben Jahr im RDNA4-Thread durchgekaut wurde? Aka, der gecancelte N41+Ableger?
Ja, wobei RDNA5 nach bisheriger Info-Lage das gleiche Konzept, nur mit mehr Chiplets für HighEnd verwenden wird.

iamthebear
2024-06-15, 15:16:49
Man sollte in solche Patente nicht zu viel hinein interpretieren. Patentiert wird im Vorhinein alles was zumindest in der Theorie funktionieren könnte. Das bedeutet nicht, dass es auch sinnvoll ist.

RDNA5 sollte in ca. 2-3 Jahren kommen. Da wird AMD doch nicht erst jetzt Patente zu den verwendeten Technologien anmelden. Da ist das Risiko doch viel zu groß, dass in der frühen Planungsphase etwas leaked und dann irgendein Mittbewerber oder Patenttroll schneller ist.

Leonidas
2024-06-15, 18:24:52
Patent wurde Dez 2022 eingereicht, da könnte der alte Plan noch aktuell gewesen sein. So oder so müssen Patente raus, weil gerade damit verhindert man Patenttrolle. Nachbauen kann es sowieso keiner, auf Herstellungs-Seite muß man da weniger Angst haben vor Seiten-Einsteigern.

Nightspider
2024-06-15, 18:30:29
Ich würde sagen man bremst auch die Konkurrenz aus, wenn man die offensichtlichsten Lösungsansätze schon mal mit Patenten "blockiert".

Leonidas
2024-06-15, 18:59:02
AMD & NV blockieren sich (angeblich) eher weniger. Aber Herausforderer werden effektiv verhindert.

3DC-Senf zum Patent hier:
https://www.3dcenter.org/news/amd-patentantrag-zeigt-mcm-grafikchip-aus-13-einzel-chips
https://www.3dcenter.org/dateien/abbildungen/AMD-Grafikchip-MultiChip-Design-aus-13-Einzelchips.preview.png

iamthebear
2024-06-16, 23:41:26
Ich würde sagen man bremst auch die Konkurrenz aus, wenn man die offensichtlichsten Lösungsansätze schon mal mit Patenten "blockiert".

Ich denke es ist eher umgekehrt: Man patentiert schon einmal im Vorhinein alles was eventuell irgendwann einmal Sinn machen könnte dass einem niemand anderer zuvor kommt.
Mittbewerber sind hier weniger das Problem, sondern eher Patenttrolle, die versuchen damit lästig genug zu sein um etwas Geld abstauben zu können.

basix
2024-06-17, 08:02:27
Nicht nur zuvorkommen ist ein Thema. Patente werden auch als Verhandlungsmasse verwendet, z.B. für einen Patentaustausch. Mehr Patente sind da dann besser.

Patenttrolle sind da wirklich ätzend. Die liefern keinen Mehrwert für die Gesellschaft.

robbitop
2024-06-17, 09:28:35
Deshalb sind offene Patente so eine schöne Sache. Kann jeder nutzen aber weiteres Trolling wird blockiert. IIRC hatte Tesla das so gemacht (keine Ahnung ob sie da mittlerweile davon weg sind).

Es ist leider ein Zielkonflikt zwischen dem Schutz von Gedankengut und dem Voranbringen von Innovation (die ja auch Wettbewerb braucht). Und zusätzlich wird es dann noch von Patenttrolls ausgenutzt.

Neurosphere
2024-06-17, 10:09:48
Schönes Beispiel in die andere Richtung ist Rambus.

Deren Einkommen in der Vergangenheit basierte viel auf Lizenzgebühren für Patente die auch nur aus diesem Grund eingereicht wurden.

TheAntitheist
2024-06-17, 20:10:08
Ich denke es ist eher umgekehrt: Man patentiert schon einmal im Vorhinein alles was eventuell irgendwann einmal Sinn machen könnte dass einem niemand anderer zuvor kommt.
Mittbewerber sind hier weniger das Problem, sondern eher Patenttrolle, die versuchen damit lästig genug zu sein um etwas Geld abstauben zu können.
wenn man Patente in den USA aber gar nicht nutzt, dann verfallen diese aber auch ziemlich schnell, oder sagen wir eher, man kann dann dagegen klagen weil es nur ein Patenttroll ist.

Und das Patent zeigt ja nichts besonderes

Altehardware
2024-06-18, 02:29:18
Diese idee mit 13 chips kann irreführend sein da dies latenztechnisch ne Katastrophe ist
Was es sein kann ist das sich amd hier mehrere Optionen wie man den chip aufbaut absichert
zuerst die idee mit den chip auf chip Aufbau verbunden mit nenn passsiven interposer die dann in reihe geschaltet auf dem Si sitzt
quasi unterste ebene passiver interposer darüber Si und darauf die alu mit nenn LLc mit tsv oben drauf. Das ist ein 3d chip design auf maximum designt
Das geht schlicht nicht da mit jeden chip ne latenz zum anderen chip bekommt. und sich die ipc teilt
aus 25% von 2 +2 werden mit 2 chips 2,25 aus 4 2,125 6 nur noch 2,04, 8 2,02, 10 2,035, 12 2,029, 13 2,026

aber auch jeweils um ein cylce mehr zeit. faktisch frame.
GPu sind linear zeit ist essentiell ein frame lässt sich noch ausgleichen aber mehr als 3 wird es kritisch
Daher machen mehr als 3 chips kein Sinn mit 2 chips hat man ein frame Verlust
Um das zu vermeiden muss der chip quasi ne direkte Verbindung zum anderen chip haben ohne Latenz quasi druckt man die chips auf dem wafer komplett und teilt diese auf
Das aber würde sehr schlechte yields bedeuten ließe sich aber besser aufteilen da das Si nicht mehr beschädigt wird und somit die alu einfach per fiimware ein abschalten lassen.
Das dürfte die idee sein das maximum rein aus tdp dürfte das maxed aktuell bei 4 chips sein also 2,25 ein dual chip mit 80cu bisherige rdna Struktur
und somit rdna5 dann 160cu im voll Ausbau ohne abgeschalteten cu real sind es 144cu bei 3,9ghz =80tf quasi auf level der rtx5090
Dem folgt mit rdna6 ein Jahr später 216cu 6 chips in n2 node =121tf
darauf mit a16 node ne Verdoppelung der alu da man das design auf 80cu verdoppelt =432cu 242tf
Die Latenz Verkürzung dürfte dann sich egalisieren also aus 5 frames Verlust werden nur noch 1 frame da nur alle zwei chips getrennt wird. Später alle drei
Daher macht es Sinn das man rdna4 gecancelt hatte da mit n4 node nur 2 chips passen und die perf kaum größer wäre als mit nenn monolithischen rdna3 es gab.
Siehe n48

Das si wird in n6 komplett gebraucht als Auflage also ist man Flächen begrenzt da würde ich 450mm² ansetzen was in etwa 512bit entspräche
Darum wird man mit n3 bei rdna5 anfangen dann n2 mehr chips unterbringen können -40% oder +2 chips dafür muss nur das Si um 10% größer werden.
Um dann in a16 mit gaa auf -50% die alu zu verdoppeln.
Das klingt nach nenn plan

rdna5 erste gen 4 chips ein design 3 sku
Voll Ausbau 144cu rx9950xt 80tf (rtx5090 level)
teildeaktiviert 128cu rx9900xt 71tf (rtx5080ti level)
maximal deaktiviert 112cu rx9800xt 62tf (rtx4090 level)
keine sku darunter
das besondere das 512bit Si bei allen also mit mit 28gbps dann 1792gb/s

low/mid end ab rdna5 ist also nur noch apu die mit n3 node am desktop kommt mit dann 64cu =39tf (physisch 80cu)
Und bei n2 den Takt erhöht auf 4,5ghz =45tf und dann a16 128cu verdoppelt
90tf
Vorstellbar mit zen7 und 64cu zen8 mehr Takt zen9
kein wunder also das amd all in bei apu gehen wird.

Die Luft für nvidia wird Dünn ab 2026 und 2028

stinki
2024-06-19, 08:44:43
Interessant finde ich, dass im Single GPU Mode nur ein Command Processor für alle 9 Shader Dies zuständig ist (Figur 5, First Mode). Aber das geht wahrscheinlich anders technisch auch gar nicht.
[0026] beschreibt, dass das Multimedia Die nur mit einem Front-End Die verbunden ist und alle Kommunikation dann durch die Bridge Chips zwischen den Front-End Dies geht.
Das zeit-kritischste ist eigentlich die Kommunikation zwischen den Front-End Dies. Da müssen alle Commands und alle Speicherzugriffe durch, wenn Daten vom Hauptspeicher oder vom Grafik-RAM in anderen Front-End Dies gebraucht werden.
Die Shader Dies werden ja mit TSVs mit den Front-End Dies verbunden sein, da dürfte keine zusätzliche Latenz entstehen.

basix
2024-10-14, 14:28:17
Ich verlinke das hier auch mal: Review des Beelink SER9 Mini PC mit HX 370
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13630296#post13630296

Zusammen mit LPDDR6 bei den NextGen APUs könnte man im optimistischen Fall auf ~RTX4060 Niveau landen.

Der_Korken
2024-10-14, 18:39:49
Ich verlinke das hier auch mal: Review des Beelink SER9 Mini PC mit HX 370
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13630296#post13630296

Zusammen mit LPDDR6 bei den NextGen APUs könnte man im optimistischen Fall auf ~RTX4060 Niveau landen.

Müsste bei den APUs nicht erstmal RDNA4 statt RDNA5 kommen?

reaperrr
2024-10-14, 20:29:21
Müsste bei den APUs nicht erstmal RDNA4 statt RDNA5 kommen?
Aktuell ist der Gerüchtestand, dass man im Mobile-Bereich RDNA4 überspringt, RDNA3.5 quasi das nächste Vega2 ist, in Medusa weiterverwendet wird (natürlich mit mehr CUs, mehr Takt usw., wird ja mindestens in N3P gefertigt werden).

mksn7
2024-10-15, 16:27:48
Man sollte in solche Patente nicht zu viel hinein interpretieren. Patentiert wird im Vorhinein alles was zumindest in der Theorie funktionieren könnte. Das bedeutet nicht, dass es auch sinnvoll ist.


Viele Patente werden nie umgesetzt, aber man bekommt zumindest einen Eindruck in welche Richtung eine Firma denkt. Es würden ja keine Patente bei rauskommen, wenn nicht in die Richtung geforscht wird.

basix
2024-11-12, 06:38:04
Kepler_L2 behauptet, gfx13 = RDNA5 wird bereits UDNA sein:
https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-889#post-41337257

Grundsätzlich würde das Sinn machen, wenn man sich CDNA4/CDNA5 Features anschaut und was man für RDNA5 erwartet:
- Die Stacking
- Multi-Chiplet
- Matrix Cores

Wäre mMn aber früher als erwartet.

mksn7
2024-11-12, 10:50:57
Sind die gfx Level nicht vor allem eine ISA Version? Die dürfte am wenigsten vom packaging (die stacking, multi chiplet) betroffen sein.

HOT
2024-11-12, 11:28:14
Kepler_L2 behauptet, gfx13 = RDNA5 wird bereits UDNA sein:
https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-889#post-41337257

Grundsätzlich würde das Sinn machen, wenn man sich CDNA4/CDNA5 Features anschaut und was man für RDNA5 erwartet:
- Die Stacking
- Multi-Chiplet
- Matrix Cores

Wäre mMn aber früher als erwartet.

Dann kann man sich getrost 2025 auch aus dem Kopf schlagen. Das wird dann frühstens Ende 26 was mMn.

mboeller
2024-11-12, 12:06:28
Dann kann man sich getrost 2025 auch aus dem Kopf schlagen. Das wird dann frühstens Ende 26 was mMn.

wie kommst du auf 2025?

RDNA4 wird Anfang 2025 vorgestellt. + 20-24 Monate (mindestens) = Anfang 2027 für RDNA5 ... zusammen mit ZEN6 wie man inzwischen gerüchtemäßig hört

Nightspider
2024-11-12, 12:13:18
Nein, RDNA4 kommt später als geplant war und es hieß das RDNA5 schneller auf RDNA4 folgen soll, weil man alle schnellen RDNA4 Varianten gestrichen hat.

Das wäre dann vielleicht 4q25 geworden.

Altehardware
2024-11-12, 12:17:00
Das wäre Unsinnig da man rdna4 mcm chip cancelt hatte wegen rdna5 was mit cowos produziert wird.
Wenn rdna5 cancel ist dann ist udna erst 2027 da das wäre ein loch bis q3 2027 daran glaube ich nicht amd hat rdna5 im plan daher der release schon q3 q4 2025
rdna4 ist seit min 4 Monaten produktionsreif das wird im Januar ein hardlaunch

reaperrr
2024-11-12, 12:20:48
Dann kann man sich getrost 2025 auch aus dem Kopf schlagen. Das wird dann frühstens Ende 26 was mMn.
Dass RDNA5 eher ein 2026-Produkt ist, war auch vorher abzusehen.
Ende 25 war selbst laut MLID & Co. immer der absolute "alles exakt nach Plan oder noch besser"-Best-Case, und so gut ist es auch bei AMD außer vllt. bei RDNA2 eigentlich nie gelaufen.

Bloß was genau an diesen Punkten jetzt für dich den Ausschlag gibt bzw. der Grund für nen späteren Release sein sollte, würde mich interessieren.

wie kommst du auf 2025?

RDNA4 wird Anfang 2025 vorgestellt. + 20-24 Monate (mindestens) = Anfang 2027 für RDNA5 ...
So wie RDNA2 20 Monate nach den Mainstream-Only RDNA1 kam? :rolleyes:

Kann ja alles eintreten, bloß die Begründung ist Quark.
RDNA5 wird von nem anderen Team entwickelt als RDNA4, und AMD hat nach der Streichung der Chiplet-RDNA4 frühzeitig Ingenieure zu RDNA5 verschoben, um eben diese so früh und gut wie möglich fertigzukriegen.

Und dass RDNA4 erst Anfang 25 kommt, ist hauptsächlich den RDNA3-Restbeständen (v.a. von N31) geschuldet bzw. der Tatsache, dass das Weihnachtsgeschäft wohl die letzte Chance ist, die noch ohne fette Händler-Rabatte loszuwerden.
N48 und die RDNA4-Treiber wären für einen früheren Launch bereit gewesen, letztere sollen bereits in deutlich besserem Zustand sein, als es die RDNA3-Treiber zu diesem Zeitpunkt in 2022 waren.