PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - RDNA4 (Navi 4X, Radeon RX 9000 Serie, 4nm, 2025)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

KarlKastor
2023-07-09, 13:44:22
Naja aber AD103 ist nur 379 mm2 groß. Und nur 256 bit SI. Das ist eher unteres Performance Segment.

Keine Ahnung was du als unteres Segment verstehst, aber ich sage ja: Der N31 ist zu schwach für die Menge Silizium.

Aber die Größe von N31 geht schon klar. Die müssen nicht zwingend den Prozess voll asureizen wie Nvidia um ein vernünftiges Portfolio zu haben.


Und sooo fett ist AD102 auch nicht 609 mm2 und 384 bit gab es schon im high end. Wir hatten sogar schon 512 bit…
Gab es bisher im uralt Prozess, nicht im top aktuellen.

Windi
2023-07-09, 14:03:13
Allerdings hat AMD dieses Problem schon erkannt und Lisa setzt die richtigen Akzente, das RnD-Budget von AMD ist in den vergangenen Jahren regelrecht explodiert. 2020 war man bei 1.9Mrd $, 2021 bei 2.84Mrd $ und 2022 bei 5 Mrd $. Dieses Jahr liegt die Steigerung die ersten Monate wieder bei über 30% vs. 2022. Wird aber natürlich trotzdem Jahre dauern, bis sich das auf Produkte auswirkt.

Das ist für mich der wichtigste Punkt. AMD war vor Zen fast Pleite und hat im GPU Bereich unglaublich viele Mitarbeiter verloren. Die Abteilung lag voll am Boden und muss erst wieder aufgebaut werden. Und andere Geschäftsbereiche haben anscheinend Priorität, da man dort mehr Gewinn macht.

Man sollte von AMD keine Wunder erwarten.

Exxtreme
2023-07-09, 14:11:01
MLID meint viel, wenn der Tag lang ist. Wenn sie Nvidia nicht als Konkurrenten sehen, dann würden sie ihr eigenes Ding durchziehen. Was aber nicht der Fall ist, wie man permanent an den Produktlaunches erkennen kann. Nividia legt wiederholt vor (und sei es wie bei der 4060 erstmal nur mit der Ankündigung des Preises) und bei AMD setzen sich panische Abläufe in Bewegung die darin gipfeln, dass man (bis zu) 24 Stunden vor dem Release noch keinen finalen Preis hat (und den damit nicht einmal ggü. der Presse für Reviews kommunizieren kann...), obwohl man wochenlang Zeit hat und wochenlang schon längst weiß, wo Nvidia steht bzw. stehen wird.

Wenn hier wer einen weniger als Konkurrenten sieht, dann ist das Nvidia. Was man auch daran sieht, dass Jensen sich weigert, selbst bei Konkurrenz die Preise von (alten) GPUs zu senken. AMD braucht mal einen richtigen Paukenschlag, nachdem man mit RDNA3 leider wieder nur einen Schritt vor und zwei zurück gemacht hat. RDNA4 ist dann die nächste Chance, auch wenn ich bezweifle, dass man einen AD102 im Vollausbau deutlich übertreffen wird.

MLID meinte, AMD sieht ausschließlich Intel als Konkurrenten an. Und da fliessen quasi alle Ressourcen hinein um Intel zu schlagen. Andererseits impliziert das auch, dass nur Intel in der Lage ist AMD dazu zu bringen innovativer zu sein. Sprich, bringt Intel konkurrenzfähige GPUs auf den Markt dann wird sich auch AMD wohl bewegen. Solange Intel da aber nicht wirklich was reisst, macht AMD so weiter wie jetzt auch. Und wenn sie damit auch noch Gewinn machen dann gibt der Markt ihnen Recht. Damit muss man halt leben.

robbitop
2023-07-09, 14:16:33
Unteres Performance segment"? :freak: Würde ich bei 400mm2 und 16 GByte jetzt nicht behaupten. "Unteres Performance Segment" ist für mich eine 60er GPU. Was bei Ada AD106 mit 200mm2 oder anders gesagt die heutige 4060 Ti ;) (leider 8GB...). Bis und mit 4070 könnte man je nach dem auch noch dort einordnen, eine 4090 ist nur noch ~2x schneller in 1440p.

AD103 ist schon oberes Performance / High End Segment. Die 300mm2 Chips von Kepler (GK104) und Pascal (GP104) waren auch Performance / High End ;) Nicht die Top Notch GPU aber schon High End. Dass die nun >1000 Euro kostet ist eher das Problem. 700 Euro und es wäre OK.



Will damit sagen AD103 ist eigentlich nur ein 104. Und vor der Verarsche mit Kepler war 104 keine „80“ wert sondern maximal eine „70“. Aber die Lemminge haben sich an die erste Runde des upsellibgs schon gewöhnt und werden es jetzt wohl auch bei der zweiten. ;)
Und 16 GB sind das neue Minimum. 8 GB im Midrange gibt es bald seit 2015 (R390). Das sind 8 Jahre. Da sind 2023 16 GB nicht viel. Aber dank der ganzen Salamitaktik in den letzten Jahren denken wir dass 16 GB nennenswert sind und unter 400mm2 Silizium >1000€ kosten darf. X-D

robbitop
2023-07-09, 14:26:57
Keine Ahnung was du als unteres Segment verstehst, aber ich sage ja: Der N31 ist zu schwach für die Menge Silizium.

Aber die Größe von N31 geht schon klar. Die müssen nicht zwingend den Prozess voll asureizen wie Nvidia um ein vernünftiges Portfolio zu haben.


Gab es bisher im uralt Prozess, nicht im top aktuellen.

Jeder Prozess war mal top notch und ist es irgendwann nicht mehr. 5 nm sind auch mit dem rename zu N4 kein Top Notch Prozess mehr. 5nm gibts in Serienprodukten seit Ende 2020. 3nm sind top notch und erste Produkte kommen damit im September raus.
Klar ist der die teuer für ad102. Aber wahrscheinlich knapp eine Größenordnung unter dem Verkaufspreis der GPU. Klar muss man RnD usw abschreiben aber es wäre verwunderlich wenn da nicht gute 50-60% marge drauf sind. Das Ding muss keine 1500 usd netto kosten. Aber so rollt der Rubel.

Ich stimme zu: N31 ist für die Menge an Transistoren relativ zu RNDA2 viel zu langsam. Ich in bisschen so ist es aber auch bei Ada relativ zu Ampere. Bis dato hat man Transistoren nahezu linear in Performance umsetzen können. Dieses mal ist es unter linear und zwar deutlich

Lurtz
2023-07-09, 14:59:03
Einmal ganz kurz mit Mantle in den letzten 10 Jahren. Davor gabs bei R200 mal Truform. Viel mehr fällt mir dazu nicht ein.
Mantle zielte ja eher auf die Technologie dahinter ab, das kann man den Spielern schlecht in Trailern als was tolles verkaufen.
Ummm, Truform, DP2.0 etc?

Truform ist ewig her, das war weit vor dem AMD-Aufkauf. DP 2.0 siehe oben.

robbitop
2023-07-09, 15:18:21
DP2.0 ist auch nicht innovativ sondern man implementiert einfach nur die neuste displayport spec. Sicher ein Pluspunkt. Da RDNA3 aber leider nicht so dolle war hilft es nicht viel.
Mantle war schon cool - aber AMD hatte nicht die Marktmacht das durchzudrücken und so wurde Vulkan sein Erbe.
Wenn man immer mal wieder was vom Kaliber Mantle gebracht hätte und immer vorn dabei gewesen wäe un zwar konsistent wäre die Marke heute auch mehr wert.

Mangel76
2023-07-09, 15:23:46
Mantle war schon cool - aber AMD hatte nicht die Marktmacht das durchzudrücken und so wurde Vulkan sein Erbe.

Du gibst die Antwort doch selbst. Ich glaube kaum, dass AMD dadurch deutlich mehr GPUs verkaufen konnte. Also großer Aufwand, wenig Ertrag. Für einen so kleinen Player, wie AMD es zeitweise war, ist die Follower-Strategie die einzig mögliche Überlebensstrategie.

robbitop
2023-07-09, 15:29:36
Mantle war einfach zu groß für AMD. Der Scope muss viel machbarer sein. Sowas wie FSR2/DLSS ist simpel zu implementieren und gerade DLSS sieht sehr gut aus. Von solchen Dingen (wo man kein Marktführer sein muss) hätte mehr von kommen müssen.

HOT
2023-07-09, 15:50:18
AMD Sicht muss man glaube ich ganzheitlich sehen. Für AMD ist Grafik in vielen Bereichen wichtig: als APU, semi Custom, Professionelle Computebeschleuniger - normale diskrete 3D Grafik für PC-Spiele ist halt nur ein Teil davon.
Man wird zwar auch bei Desktop-Grafik schon immer sein Bestes versuchen, dass man die Krone holt, aber man wird nicht sonderlich aufgebracht sein, wenn das halt dann mit den zur Vergügung gestellten Ressourcen nicht klappt.
Dafür sind die Designs immer kostenoptimiert gestaltet, sodass es kein Beinbruch ist, wenn die Preise halt runter müssen und die Produktionsmengen sind nie wahnsinnig hoch.

Langlay
2023-07-09, 16:23:55
.
Dafür sind die Designs immer kostenoptimiert gestaltet, sodass es kein Beinbruch ist, wenn die Preise halt runter müssen und die Produktionsmengen sind nie wahnsinnig hoch.

Ich sage nur Vega10. Das dürfte so ziemlich das Gegenteil von kostengünstigem Design sein. Und auch Navi31 sieht mir jetzt nicht nach günstigem Design aus.

Und auch so wenn ich um die Krone mitkämpfe will. Und dann regelmäßig zu kämpfen habe um überhaupt als 2. ins Ziel zu laufen. Ist halt auch irgendwie Anspruch verfehlt, besonders wenns nur 2-3 Marktteilnehmer gibt.

aufkrawall
2023-07-09, 16:42:23
RDNA2 dürfte mit dem schmalen Interface und GDDR6 schon ordentlich Marge gemacht haben.

Langlay
2023-07-09, 16:58:49
RDNA2 dürfte mit dem schmalen Interface und GDDR6 schon ordentlich Marge gemacht haben.

Die Aussage war : die Designs waren immer kostenoptimiert. Eine Schwalbe und Sommer und so.

KarlKastor
2023-07-09, 17:33:44
Jeder Prozess war mal top notch und ist es irgendwann nicht mehr.

Ach was. Ist das jetzt die Diskussionsgrundlage?


5 nm sind auch mit dem rename zu N4 kein Top Notch Prozess mehr. 5nm gibts in Serienprodukten seit Ende 2020. 3nm sind top notch und erste Produkte kommen damit im September raus.
Es ist erst seit H2 2022 im Einsatz für HPC.
N3 ist erst dieses Jahr reif und erst Ende nächstes Jahr für HPC verfügbar. Ada ist ein Jahr früher erschienenen, was soll N3 für eine Relevanz haben.



Klar ist der die teuer für ad102. Aber wahrscheinlich knapp eine Größenordnung unter dem Verkaufspreis der GPU.

Was hat das für eine Relevanz hier? Es ging um den Materialeinsatz von AMD bei seinem top Chip im Vergleich zu Nvidia.

aufkrawall
2023-07-09, 17:47:36
Die Aussage war : die Designs waren immer kostenoptimiert. Eine Schwalbe und Sommer und so.
Stimmt. RDNA3 ist da leider wieder näher an GCN, wo es die fettere Hardware vs. Nvidia trotzdem nicht gebracht hatte.
Da fehlt einfach die Durchtrennung des magischen Knotens, dass man mit dem hohen Takt und Chiplets nicht den Verbrauch explodieren lässt bzw. ließe. Ggf. hängt dann bei RDNA4 alles davon ab, ob das endlich mal gelingt, oder wieder so wie mit RDNA3 läuft (seufz).

robbitop
2023-07-09, 18:14:04
Ach was. Ist das jetzt die Diskussionsgrundlage?
Für mich schon. Ich finde das irrelevant ob man das jetzt „top notch“ nennt oder nicht. Die Prozessfamilie hatte 3 Jahre Zeit zu reifen. Unter anderem mit großen Chip wie dem M1 Max. Da sind die Yields schon ordentlich gereift. Außerdem ist „HPC“ nur ein label. Wenn ordentlich Chips damit gemacht werden, reift er auch. Und dazu ist AD102 in der 4090 extremst stark deaktiviert (so viel wie noch nie bei einer „90“er - wahrscheinlich sogar inkl einer 80ti) was die yields sicherlich noch weiter hoch bringt.
High Volume ist der Prozess auch wenn man sich anschaut, dass jedes Wald und Wiesenprodukt wie zB APUs darauf laufen.




Was hat das für eine Relevanz hier? Es ging um den Materialeinsatz von AMD bei seinem top Chip im Vergleich zu Nvidia.
Hast du nirgends geschrieben, dass es darum geht. :|
Und selbst wenn bestimmst du ganz sicher nicht, in welche Richtung argumentiert wird.

KarlKastor
2023-07-09, 19:19:35
Für mich schon. Ich finde das irrelevant ob man das jetzt „top notch“ nennt oder nicht.
Ja. Der Satz den ich zitiert habe, war aber eher wie aus einem Glückskeks. 28nm war auch mal top notch. Richtig.

Und du argumentierst dann, dass 2022 4N nicht top notch ist weil ein Jahr später Apple einen N3 SoC auf den Markt bringt. Alles klar.

Die Prozessfamilie hatte 3 Jahre Zeit zu reifen.
Ja, und N7 hatte auch lange Zeit zu reifen und trotzdem hat Nvidia dann bei Ampere einen älteren Prozess genommen und dafür größere Die-size in Kauf genommen.


Hast du nirgends geschrieben, dass es darum geht. :|
Und selbst wenn bestimmst du ganz sicher nicht, in welche Richtung argumentiert wird.
Vielleicht einfach lesen was du zitierst.
Du kannst gerne hier über Nvidias Preise diskutieren wenn du magst. Habe ich dir nirgends verboten. Aber du verbietest mir ganz sicher nicht dich darauf hinzuweisen wenn das rein gar nichts mit meinem Post zu tun hat, welchen du zitierst.

robbitop
2023-07-09, 19:32:40
Ich habe den Post gelesen und da hast du das nicht geschrieben, worum es dir da genau geht. Ggf solltest du formulieren, was du meinst anstatt anderen aufzubürden deine Gedanken zu lesen (und sich dann noch zu beschweren wenn die Gedanken nicht richtig erraten worden sind). ;)

Zu dem Rest stehe ich. N4 sind IMO nicht top notch. Das war schon Jahrelang im Einsatz egal welches Label man da nimmt. Aber ja 8N ist bei Ampere natürlich noch weniger top notch bzw noch älter gewesen. In der Hinsicht hast du tatsächlich Recht. :up:

robbitop
2023-07-09, 19:46:06
Ich hab gerade mal die releasezeiträume von 8N mobile Chips geprüft und folgendes festgestellt:

8N kam erstmals im Exynos 980 zum Einsatz. Vorgestellt September 2019: https://www.tweaktown.com/news/67454/samsung-exynos-980-worlds-first-8nm-chip-5g-108mp-camera-sensor/index.html

Also ~1 Jahr nach der ersten Nutzung im mobile hat Ampere es dann genutzt. Eigentlich nicht besonders alt.

5nm wurde bereits im A14 im September 2020. Ada erschien 2 Jahre später mit einem Prozess aus der gleichen Prozessfamilie.

Samsung war halt einfach weiter hinterher und NV wollte Produktionskosten sparen. Zumindest vom Release her macht das nicht viel Unterschied. Von der Performance und dem Preis aber natürlich schon.

HOT
2023-07-09, 21:52:41
Ich sage nur Vega10. Das dürfte so ziemlich das Gegenteil von kostengünstigem Design sein. Und auch Navi31 sieht mir jetzt nicht nach günstigem Design aus.

Und auch so wenn ich um die Krone mitkämpfe will. Und dann regelmäßig zu kämpfen habe um überhaupt als 2. ins Ziel zu laufen. Ist halt auch irgendwie Anspruch verfehlt, besonders wenns nur 2-3 Marktteilnehmer gibt.
Da galt eine andere Politik. Das ist ja Greenland und Greenland sollte GPUs für Profianwendungen neu starten. Vega war im Grunde eine Zweckentfremdung dafür, da sich der Markt in eine andere Richtung entwickelte und Lisa der RTG quasi den Stecker zugunsten von Zen gezogen hatte. Das Greenland-Projekt ist im Grunde einfach gescheitert, wie soviele Dinge, die AMD in der Zeit versucht hat. Die Entwicklungen von RDNA für die Konsolen und Greenland liefen übrigens weite Strecken parallel ab, was das Ganze unterstreicht. Vielleicht kann man Greenland ein bisschen so sehen wie Intels 10nm-XE-Profi-GPUs die ja recht früh gecancelt wurden.

KarlKastor
2023-07-10, 01:48:50
Ich hab gerade mal die releasezeiträume von 8N mobile Chips geprüft und folgendes festgestellt:

8N kam erstmals im Exynos 980 zum Einsatz. Vorgestellt September 2019: https://www.tweaktown.com/news/67454/samsung-exynos-980-worlds-first-8nm-chip-5g-108mp-camera-sensor/index.html

Also ~1 Jahr nach der ersten Nutzung im mobile hat Ampere es dann genutzt. Eigentlich nicht besonders alt.

5nm wurde bereits im A14 im September 2020. Ada erschien 2 Jahre später mit einem Prozess aus der gleichen Prozessfamilie.

Das ist doch wieder ein Apfel-Birne Vergleich.
8LPP (es gibt keinen 8N) ist aus der
10 nm Familie und der kam Anfang 2017. 2018 gab es schon die ersten N7 SoC. Also ebenso zwei Jahre vor Ampere. Diesen, bzw N7P hätte man damals als high-end Prozess bezeichnet.

Ada ist ja auch 4N (basiert wahrscheinlich auf N4 oder N5P) und nicht N5.

vinacis_vivids
2023-07-10, 07:04:15
Ada ist N5.

TheAntitheist
2023-07-10, 07:21:01
Ada ist N5.
Nein Ada ist 4N, das ist eine optimierte Variante von N5, bitte unterlass deine Fehlinformationen zu verbreiten, das provoziert nur und das ist unnötig.

Zossel
2023-07-10, 08:05:12
das provoziert nur und das ist unnötig.

Wer lässt sich den von so einer Kinderkacke provozieren?

robbitop
2023-07-10, 08:52:59
Das ist doch wieder ein Apfel-Birne Vergleich.
8LPP (es gibt keinen 8N) ist aus der
10 nm Familie und der kam Anfang 2017. 2018 gab es schon die ersten N7 SoC. Also ebenso zwei Jahre vor Ampere. Diesen, bzw N7P hätte man damals als high-end Prozess bezeichnet.

Ada ist ja auch 4N (basiert wahrscheinlich auf N4 oder N5P) und nicht N5.
Dennoch war 8N noch sehr neu als er bei Ampere genutzt wurde. Das war schon eine signifikante Änderung zum 10 nm Prozess wenn man sich die Dichteerhöhubg anschaut. Dass es auch noch einen 7 nm Prozess bei Samsung gab ist unabhängig davon. Und dass 8N nicht gerade der modernste Prozess war hab ich ja schon geschrieben.


Es ist noch völlig unklar was 4N ist. Oder gibt es da von Nvidia oder TSMC eine offizielle Stellungnahme?

Zumal 4 nm nur eine cost down variante von 5 nm ist. Performance und Dichte sind zu N5P nahezu identisch.

Slipknot79
2023-07-10, 11:14:26
4N ist garantiert nicht 4nm, hätte man sonst schon als Erfolg vermarktet "neuester heißer Shice". Somit ist es offiziell bestätigt.

vinacis_vivids
2023-07-10, 11:18:50
Nein Ada ist 4N, das ist eine optimierte Variante von N5, bitte unterlass deine Fehlinformationen zu verbreiten, das provoziert nur und das ist unnötig.

Ada ist 5nm oder N5.

KarlKastor
2023-07-10, 16:29:23
Das war schon eine signifikante Änderung zum 10 nm Prozess wenn man sich die Dichteerhöhung anschaut.

Nein. Das gilt nur für UHD-Cell die hinzugekommen ist. Mehr als fraglich, dass die bei GPUs verwendet wurden.

Der Sprung von 10LPP zu 8LPP ist nicht größer als von N5 zu N5P oder N4.


Es ist noch völlig unklar was 4N ist. Oder gibt es da von Nvidia oder TSMC eine offizielle Stellungnahme?
Interessant, das war ja immer meine These, während du behauptet hast, es wäre definitiv nicht N4 sondern N5(P).
Nvidia hat zumindest auf der CES gesagt es wäre 4nm, aber was ist das schon Wert. Also ja, es ist unbekannt. Nur N5 Vanilla wird es nicht sein.

Ada ist 5nm oder N5.
Das ist kein Synonym. Es ist irgend ein optimierter 5nm Prozess. Mehr weiß man nicht, ansonsten eben Fakten vorlegen.

HOT
2023-07-10, 16:54:40
Quatsch, 4N ist ein Marketingname für TSMCs N5 mit eigenen Einstellungen. Also genau dasselbe, was AMD schon mit N7 gemacht hat und jetzt ebenfalls mit N5 macht, AMD gibt dem Ding nur keinen Marketingnamen, das ist alles. Das NV N5 nutzt und nicht N4 wurde ja bestätigt.

KarlKastor
2023-07-10, 17:55:50
Hatten wir doch alles schon diskutiert, mit dem Ergebnis, dass du rein gar nichts an Fakten präsentieren konntest.

HOT
2023-07-10, 18:27:55
Hatten wir doch alles schon diskutiert, mit dem Ergebnis, dass du rein gar nichts an Fakten präsentieren konntest.


Du bist der einzige, der noch auf dem Schwachsinn herumreitet. Ich find die Quelle schon irgendwann wieder. Das wurde bestätigt, dass es ein N5-Derivat ist. Letztendlich ist das aber auch total irrelevant, weil es die gleiche Prozessbasis ist.

Iscaran
2023-07-10, 18:43:39
. Ich find die Quelle schon irgendwann wieder.

Benutzt doch einfach google - gibt dutzende Quellen dazu. AFAIK WCCF, PCGames hatte dazu auch bereichtet glaube ich.

Das hier hab ich grad auf Anhieb gefunden und sieht stichhaltig aus:
https://www.techgoing.com/nvidia-clarifies-the-tsmc-4n-used-by-the-rtx-40-gpu-is-a-5nm-process/

KarlKastor
2023-07-11, 02:04:03
@HOT
Die Behauptung, dass wir dazu keine Informationen haben ist Schwachsinn?
Du hingegen behauptest es wäre klar, kannst es aber nicht belegen.
Es ist irgend ein Prozess der 5nm Familie. Punkt.

@Iscaran
Herzlichen Glückwunsch, du bist der Dritte der das postet und natürlich wieder ohne Verlinkung auf Originalquelle. Denn dann wäre herausgekommen, dass HKEPC sich korrigiert hat.
https://twitter.com/VideoCardz/status/1574235710294577152

Und das belegt auch nicht, dass es nun N4 ist. Da es auch nur eine Behauptung ohne Fakten ist. Taugt aber definitiv nicht als Quelle es ein N5.

robbitop
2023-07-11, 08:58:13
Nein. Das gilt nur für UHD-Cell die hinzugekommen ist. Mehr als fraglich, dass die bei GPUs verwendet wurden.

Der Sprung von 10LPP zu 8LPP ist nicht größer als von N5 zu N5P oder N4.
ich glaube nicht, dass du das beurteilen kannst oder irgendwer sonst hier.
Wenn es keine wesentliche Änderung wäre, hätte man ihn in mobile ja deutlich eher bringen können.

Die Dichte von N21 ist jedenfalls nur 13% höher als GA102. Ob das im Standard 10 nm Samsung Prozess möglich gewesen wäre? Dafür klingt der Abstand zu klein. Hier dürften ernste Zweifel an deiner obigen Aussage angemessen sein.

Ein paar Dinge zu high level Änderungen:



For their 8nm 8LPP, Samsung actually shrunk the gate pitch to 64nm (effectively the original pitch they kept presenting for their 10nm). They also scaled the Mx pitch to 44nm which means they had to resort to quad patterning.

https://fuse.wikichip.org/news/1443/vlsi-2018-samsungs-8nm-8lpp-a-10nm-extension/

Und tatsächlich gibt es auch echte Shrinks im 8N Prozess bei Samsung. Sie scheinen sogar sie Gate Geomery angepasst zu haben.



they made the fins slightly narrower and slightly taller. They are also straighter (note that no actual numbers were given as far as fin dimensions go) to better control the short-channel effects. This was done in order to control the sub-threshold leakage and reduce the parasitic capacitance. They also further refined the replacement metal gate stack in order to increase the drive current. Overall, 8LPP improved the capacitance suppression by a modest 4% over 10LPP


Alles keine wesentliche Änderungen… is klar… (und das ist nur high level Kram oftmals steckt im low level noch viel mehr dahinter)

Ich würde sagen, hier sind Zweifel legitim. Von der Neuheit her war 8N jedenfalls nicht alt. Von der Performance her war es nicht das beste vom besten. Man hat scheinbar alles was ging aus DUV herausgeholt (was zumindest einen gewissen Grad an Innovation erfordert hat). NV wollte so wenig wie möglich zahlen.

Also ja, es ist unbekannt. Nur N5 Vanilla wird es nicht sein. Na dann kann man ja völlig selbstbewusst verkünden, dass Ada mit einem top notch Prozess gebaut wurde. :up:

Iscaran
2023-07-11, 09:57:10
@Iscaran
https://twitter.com/VideoCardz/status/1574235710294577152


Ich kann den Twitterlink nicht öffnen/sehen. Dein Link sieht bei mir so aus.
Was genau steht da drin?

Im Originalbild (bei Techgoing.com) ist ein Screenshot mit Chinesischer Schrift. Ich verliess mich auf die Übersetzung.

KarlKastor
2023-07-11, 12:32:09
Ich würde sagen, hier sind Zweifel legitim. Von der Neuheit her war 8N jedenfalls nicht alt.
Es geht nicht um Neuheit, sondern um das Resultat. Samsung selber gibt -10% Power für 8LPP an. Das ist weniger als von N5 zu N5P.
Bei der zeitlichen Betrachtung wählst du aber N5.
Das gleiche bei der Density. Wenn du meinst es wird UHD für die GPUs benutzt, bitte.

Na dann kann man ja völlig selbstbewusst verkünden, dass Ada mit einem top notch Prozess gebaut wurde. :up:
Verstehe immer noch nicht was dein Problem ist. Solange N3 nicht verfügbar ist, ist 5nm high-end. Und das völlig egal ob N5 oder N4.
Aber wenn es dich glücklich macht, dann ist 4N eben alter Kaffe.

Ich kann den Twitterlink nicht öffnen/sehen. Dein Link sieht bei mir so aus.
Was genau steht da drin?

HOT
2023-07-11, 13:33:55
TSMC hat N4 sogar vorgezogen auf Mitte 21 sehe ich grad. Lief offenbar besonders gut und passt gut zum Ada N4-Design muss ich zugeben. Deswegen hat man auch kaum noch was von N5P gehört mMn.
AMD wird einen angepaßten N5 für Zen4 entwickelt haben, diesen dürfte auch Navi3x und MI300 nutzen.

Phoenix nutzt einen Custrom N4, den dürften auch Pheonix2, Strix Point, Strix Halo-IOD (, Strix Little?) und Granite Ridge nutzen. Einen angepassten N3B wird mMn der Bergamo-Nachfolger nutzen und RDNA4 eben, evtl. gibts noch nen Refresh von Granite Ridge in N3B oder schon E, auf jeden Fall aber wird es einen Nachfolger von Strix geben.

reaperrr
2023-07-11, 13:45:42
Die Dichte von N21 ist jedenfalls nur 13% höher als GA102. Ob das im Standard 10 nm Samsung Prozess möglich gewesen wäre? Dafür klingt der Abstand zu klein. Hier dürften ernste Zweifel an deiner obigen Aussage angemessen sein.
Dass 8LPP/8N von der Dichte her auch wirklich irgendwo zwischen 10LPP und N7 liegt, wird sicher so sein.

Nur weiß ich nicht, ob die Packdichte von N21 (bzw. RDNA2 generell) der beste Indikator für die maximal mögliche Packdichte in N7 und damit den Abstand zu 8LPP ist.

Bestes Beispiel ist hier N33:
- ~20% mehr Transistoren als N23
- verdoppelte L0- und Global L1 Caches (alles SRAM)
- zusätzliche SIMD(!) je CU
- Uncore (VCN usw.) sicher im Schnitt auch eher mehr Transistoren als N23
- TSMC's N6 offiziell nur bis zu 18% mehr Logik-Packdichte, keine SRAM-Verbesserungen
-> N33 trotzdem ~13% kleiner als N23, obwohl er wegen mehr SRAM und Transistoren selbst bei perfekter Logik-Transistor-Skalierung eher etwas größer als N23 hätte sein sollen

---> einzig logische Erklärung: N23 und RDNA2 insgesamt war in Sachen Packdichte - evtl. aus Takt/Effizienz-Gründen - beileibe nicht das N7-Maximum
-----> N21 kein guter Indikator für Best-Case-Differenz i.S. Packdichte zwischen 8LPP und N7.

NV wollte so wenig wie möglich zahlen.
Richtig, deshalb hat Nvidia TSMC wegen N7(P)-Bestellungen ewig hingehalten, weil sie sich für einen wichtigeren Kunden gehalten haben als sie waren, und als sie dann ihre Wafer bestellen wollten waren bei TSMC schon zu viele Kapazitäten vergeben und es hat nur noch für den HPC-Chip gereicht und Ampere musste zu Samsung :)

HOT
2023-07-11, 13:58:42
Soweit ich weiß hat AMD die Prozesse wie folgt verwendet:

vanilla N7
- V20
- Matisse

N7P
- N10
- N12
- N14

N7 angepasst
- Matisse XT
- Vermeer
- N21
- N22
- N23
- Renoir
- Cezanne
- van Gogh

N6
- N24
- Rembrandt
- Zen4 IOD
- MI200
- N33
- Navi3 MCDs
- Mendocino

N5 angepasst
- Raphael
- MI300
- N31 GCD
- N32 GCD
- Navi4 MCD/IOD?

N4 angepasst
- Pheonix Point
- Pheonix 2
- Strix Point
- (Strix 2?)
- Strix Halo
- Granite Ridge

N3B angepasst (vermutlich)
- Turin Dense
- Navi4X(treme?)
- Navi4M(edium?)
- Navi4C(ompact?)
- MI450?
- (Zen5 Refresh?)
- (Strix Nachfolger)

Man sieht, AMD nutzt immer ganze Kampagnen einzelner Prozesse aus.

Bei NV wird man nach 8LPP sich voll und ganz auf den vorgezogenen N4 konzentriert haben.

robbitop
2023-07-11, 18:59:53
dann ist 4N eben alter Kaffe.

Top notch ist jedenfalls was anderes. Dafür muss der Prozess neu sein (geringer Abschreibungsgrad der Maschinen und noch nicht ideale Yields). Dann kann man damit argumentieren. Apple hat mit der Prozessfamilie schon 3 Jahre viele 10 Millionen Chips genaut. Auch welche mit fast so großer Transistorzahl wie AD102. Da ist schon ein nicht unerheblicher Betrag an Maschinen und RnD abgeschrieben und die Yields sind hoch. Das ganze wurde günstiger und verfügbarer. 4/5nm wird von jedem Wald und Wiesenprodukt genutzt. Das ist für mich in der Hinsicht nicht mehr top notch. Im Sinne von sehr teuer und ggf zT riskant ggf sogar. Es ist state of the art. Nutzt fast jeder. Aber ja es ist kein veralteter Prozess. Das stimmt.

robbitop
2023-07-11, 19:09:45
Dass 8LPP/8N von der Dichte her auch wirklich irgendwo zwischen 10LPP und N7 liegt, wird sicher so sein.

Nur weiß ich nicht, ob die Packdichte von N21 (bzw. RDNA2 generell) der beste Indikator für die maximal mögliche Packdichte in N7 und damit den Abstand zu 8LPP ist.

Bestes Beispiel ist hier N33:
- ~20% mehr Transistoren als N23
- verdoppelte L0- und Global L1 Caches (alles SRAM)
- zusätzliche SIMD(!) je CU
- Uncore (VCN usw.) sicher im Schnitt auch eher mehr Transistoren als N23
- TSMC's N6 offiziell nur bis zu 18% mehr Logik-Packdichte, keine SRAM-Verbesserungen
-> N33 trotzdem ~13% kleiner als N23, obwohl er wegen mehr SRAM und Transistoren selbst bei perfekter Logik-Transistor-Skalierung eher etwas größer als N23 hätte sein sollen

---> einzig logische Erklärung: N23 und RDNA2 insgesamt war in Sachen Packdichte - evtl. aus Takt/Effizienz-Gründen - beileibe nicht das N7-Maximum
-----> N21 kein guter Indikator für Best-Case-Differenz i.S. Packdichte zwischen 8LPP und N7.


Gut aber das kann man dann potenziell von jedem Chip sagen. Man braucht nur eine noch bessere Referenz. Für 8N gibt es Referenzen mit bis zu 8x Mtr/mm2 IIRC. Allerdings im mobile Bereich. :)

Iscaran
2023-07-11, 21:09:34
Verstehe immer noch nicht was dein Problem ist. Solange N3 nicht verfügbar ist, ist 5nm high-end. Und das völlig egal ob N5 oder N4.
Aber wenn es dich glücklich macht, dann ist 4N eben alter Kaffe.

HKEPC postet aber auch seltsames Zeug.

Finde diese Erklärung bisher am Schlüssigsten zu "4N":
https://old.reddit.com/r/hardware/comments/yzpdup/nvidia_4n_is_a_custom_tsmc_4nm_node/ix1gdw3/?utm\_medium=web2x&utm\_source=share&context=3

Die Process nodes bei TSMC heissen eigentlich alle N-Zahl.

N5, N5P usw.

N4, N4P usw.

nur nVidias Prozess heisst plötzlich "4N".

TSMC selbst sagt dazu:
https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm


In addition, TSMC plans to launch 4nm (N4) technology, an enhanced version of N5 technology. N4 provides further enhancement in performance, power and density for the next wave of N5 products.


TSMC selbst kennt also einen N4 Process, der eine "verbesserte Version von N5" ist.

Dazu gibt es dann noch ein TSMC Statement vom 26.10.2021 in welchem N4P als verbesserter 5nm (N5) Prozess erklärt wird:
https://pr.tsmc.com/english/news/2874

Hsinchu, Taiwan, R.O.C., Oct. 26, 2021 -TSMC (TWSE: 2330, NYSE: TSM) today introduced its N4P process,a performance-focused enhancement of the 5-nanometer technology platform.


4N ist also nVidia-Marketing-FUD. Es ist die EINZIGE Quelle die einen Prozess mit Namen 4N kennt. Nicht mal der Fab-Besitzer kennt/nennt diesen.

Auf Wikipedia ist eine recht praktische Übersicht mit Quellenangaben (https://en.wikipedia.org/wiki/5_nm_process) der verschiedenen TSMC-Prozesse die es gibt.

N5, N5P N4, N4P, N4X und dann noch der ominöse 4N mit der einzigen Referenz des Marketing-auftritts von nVidia zur Vorstellung der Hopper-Architektur.

ALLE anderen Bezüge und links zu TSMC-Nodes heissen immer N-Zahl.

4N ist also einfach ein nVidia-Marketing-FUD.

Der Prozess ist von mir aus N4. Und N4 ist laut TSMC ein "enhanced 5nm Process".

Ich würde damit schon sagen dass N4 (und Derivate) allesamt 5nm Prozesse sind.

Dem Wiki-Artikel kann man ja entnehmen dass sich weder der Pitch ändert noch die Packdichte wesentlich ändert.
Dazu kommt noch dass rein zeitlich gesehen Ada/Hopper im Oktober 2022 released wurden. Risc-Production muss also schon vorher passiert sein.
https://fuse.wikichip.org/wp-content/uploads/2021/10/wikichip_tsmc_logic_node_q3_2021.png

Damit sind bestenfalls N5P oder mit Augen zu drücken N4 möglich.

Und ob man derart große Dies wirklich mit Risc-Production gefahren hat....hmmmm, lass ich offen. Könnte zumindest den Premium-Preis erklären.

Auf Wikichip wird Hopper (https://en.wikichip.org/wiki/5_nm_lithography_process) als 5nm gelistet zu 5nm gehören die TSMC-Prozesse N5, N5P, N4, N4P, N4X.

reaperrr
2023-07-12, 23:38:19
nur nVidias Prozess heisst plötzlich "4N".

Das ist bei Nvidia seit Turing in "12FFN" normal, dass NV da ihr N dranhängen und die Zahl davor vielleicht etwas kleiner machen, damit es sich nach ner supertollen Extrawurst anhört. Das ist weitgehend Marketing für die Aktienmärkte (was nicht heißt, dass keine Parameter nach Nvidia's Wünschen geändert wurden, bloß ist das bei anderen größeren Kunden auch so, die nutzen das bloß nicht so extrem fürs Eigenmarketing).

Übrigens, ob Ada & Co. nun auf N5(P) oder N4 basieren, ist eh ziemlich egal.

Wer sich nämlich das WikiChip-Schaubild genauer ansieht, wird feststellen, dass N5P in Sachen Perf/Effizienz sogar minimal besser als N4 ohne P ist, und erst N4P bessere elektrische Eigenschaften als N5P haben wird.
Dafür ist N4 bis zu 6% dichter gepackt, und evtl. weniger komplex (wobei letzteres evtl. erst für N4P gilt) und damit günstiger.

Was genau NV nun als Basis gewählt hat, ob 4N nun eher N5P oder eher N4(P)-basiert ist, hat weder von der Fläche noch Performance nennenswerte Auswirkungen, das wird sich vom Unterschied so oder so im einstelligen Prozentbereich bewegen (bei beidem).

Zossel
2023-07-13, 07:45:22
Das ist weitgehend Marketing für die Aktienmärkte

Du willst doch nicht etwa sagen das Aktionäre dumm sind?

TheAntitheist
2023-07-13, 08:02:42
Du willst doch nicht etwa sagen das Aktionäre dumm sind?
der beste Aktionär war doch ein Affe der Random Aktien auswählte, also spricht schon alles dafür ;D

Leonidas
2023-07-14, 06:22:03
"4N" war immer nur eine nVidia-Eigenbezeichnung eines angeblich speziell auf nVidia angepassten Fertigungsprozesseses - basierend auf TSMCs N5. Irgendwo hat nVidia auch diese Abstammung selber so zugegeben, ich finde die Quelle aber leider nicht mehr.

Die Frage ist nur, ob die technischen Eigenheiten dieser "4N" Abwandlung es eher in Richtung N5 oder N4 stellen. Da ich bislang gar nichts griffiges zur besseren Lösung lesen konnte, gilt für mich "4N" als 5nm-Prozeß. Dies könnte natürlich noch durch bessere Informationen korrigiert werden.

Pirx
2023-07-14, 09:15:21
wobei "5 nm" auch nur eine Marketingbezeichnung ist

Hübie
2023-07-15, 02:15:28
der beste Aktionär war doch ein Affe der Random Aktien auswählte, also spricht schon alles dafür ;D

;D True story.
N4 ist nix weiter als ein Derivat vom N5. Das sind einfach Namen wie bei allen möglichen Produkten. Wenn sich der Pitch konstant um mehrere Nanometer verschiebt bekommt das Kind einen neuen Namen, weil hier eben auch viele Optimierungen in der Prozesskette abbilden. Da lohnt es sich kaum drüber zu sprechen.

Wir werden bald andere Wege sehen bzw. gehen müssen. ;-)

mboeller
2023-07-19, 19:01:07
passt vielleicht hierher, würde aber natürlich auch in einen Nvidia-Thread passen:

Samsung unveils GDDR7: 40% faster and 20% more energy efficient than GDDR6 (https://www.gsmarena.com/samsung_unveils_gddr7__40_faster_and_20_more_energy_efficient_than_gddr6-news-59249.php)

Ich hoffe mal, dass das "UND" so stimmt, erwarte aber das es nicht stimmt. :)

Hübie
2023-07-19, 20:39:06
Na ja das ist ja nicht gleichbedeutend mit 20 weniger Energiebedarf. ;)

Interessant finde ich den letzten Teil:
To minimize heat generation, an epoxy molding compound (EMC) with high thermal conductivity is used for the packaging material in addition to IC architecture optimization. These improvements dramatically reduce thermal resistance by 70% in comparison to GDDR6, aiding in stable product performance even in conditions with high-speed operations.

Quelle - Samsung Newsroom (https://news.samsung.com/global/samsung-develops-industrys-first-gddr7-dram-to-unlock-the-next-generation-of-graphics-performance)

Da steht auch was von Einsatz in Konsolen (kann die üblich Floskel sein) und dass die jetzt zur Validierung freigegeben sind... :cool:

basix
2023-07-20, 00:12:56
passt vielleicht hierher, würde aber natürlich auch in einen Nvidia-Thread passen:

Samsung unveils GDDR7: 40% faster and 20% more energy efficient than GDDR6 (https://www.gsmarena.com/samsung_unveils_gddr7__40_faster_and_20_more_energy_efficient_than_gddr6-news-59249.php)

Ich hoffe mal, dass das "UND" so stimmt, erwarte aber das es nicht stimmt. :)

Das UND stimmt schon ;)

1.4x schneller und 1.2x effizienter. Macht ca. 1.17x Verbrauch.

mboeller
2023-07-22, 15:03:51
Das UND stimmt schon ;)

1.4x schneller und 1.2x effizienter. Macht ca. 1.17x Verbrauch.

so habe ich das auch gelesen. :)

Schön wäre es aber gewesen, wenn es ~20% weniger Verbrauch gewesen wären bei gleichzeitig 40% mehr Bandbreite.

So frisst der Speicher + Interface leider immer mehr vom Watt-Budget. Eine (kleine) Kehrtwende wäre nicht schlecht, bzw. wäre mal überfällig.

Nightspider
2023-07-22, 15:25:21
Durch den Infinity Cache kann AMD auch den langsamsten und damit effizienten GDDR7 Speicher verbauen.

robbitop
2023-07-22, 20:08:53
Amerkung: große Caches werden bei Nvidia (ab Ada) und Intel (Alchemist) auch verbaut. :)

BlacKi
2023-07-22, 20:50:46
Amerkung: große Caches werden bei Nvidia (ab Ada) und Intel (Alchemist) auch verbaut. :)wird man verbauen müssen. denn den steigenden bandbreitenbedarf kann vram nicht mehr effizient decken.

Exxtreme
2023-07-22, 20:54:22
wird man verbauen müssen. denn den steigenden bandbreitenbedarf kann vram nicht mehr effizient decken.

1024 Bit RAM-Interface FTW! X-D

Der Cache hilft aber eher nur in niedrigen Auflösungen.

Zossel
2023-07-22, 21:13:41
1024 Bit RAM-Interface FTW! X-D

Vega reloaded?

robbitop
2023-07-22, 21:59:00
1024 Bit RAM-Interface FTW! X-D

Der Cache hilft aber eher nur in niedrigen Auflösungen.

Die Auflösung und die Größe sind beides Variablen. Mit echtem 3D stacking wird man potenziell noch größere energieeffiziente Caches ermöglichen können in Zukunft. (siehe Adamantine Cache)

HOT
2023-07-23, 08:57:10
Lt. Red hat AMD das ursprünglich komplexe Design mit 144 CUs auf 3 GCDs weggeworfen und durch ein monolithischeres Design mit 120 CUs auf nur einem GCD ersetzt. AMD peilt jetzt offenbar auch mit Absicht nur noch die x080er-Karte der BW-Generation an und will nicht mehr mit dem Top-Chip konkurrieren.
Durch den Wechsel wird das RDNA4-Design offenbar um 1/2 Jahr zurückgeworfen und dürfte ebenfalls erst in 25 erscheinen.
https://youtu.be/Q3ptn_DI15k

Interessante Entwicklung mMn.

Neurosphere
2023-07-23, 12:17:27
Ich glaube Multi-GCDs sind ein reiner Nerd-Traum. Die Gerüchte bei RDNA 3 dahingehend klangen alle logisch weil man dadurch evtl. gleich N32 und N33 von N31 hätte ableiten können oder andersrum, N31 und N32 aus N33 GCDs hätte (auf)bauen können.

Wie man jetzt sieht gibt es aber eigentlich keinen Grund dazu. Es gibt (scheinbar) keine Bedarf daran die kleinen Karten schnellstmöglich auf den Markt zu werfen.

Ein GCD verursacht weniger Probleme und hat eine höhere Effizienz. Zur Performance würde ich erstmal ganz kleine Brötchen backen und garnichts vermuten. Ich denke auch das mit dem Vergleich zu xx80 von BW wird sich erstmal preislich gestalten da man auch bei AMD nicht weiß wo diese landen wird.

2025 ist neu, laut Kepler ist AMD noch bei 2024 auch wenn er es nur hat durchblicken lassen das AMD wohl weiterhin vor NV kommen wird dieses mal (stand jetzt).

HOT
2023-07-23, 12:43:15
Das geht schon. Man kann die Shadereinheiten auf die Shaderprozessoren stapeln per TSV, das ist aber ziemlich aufwendig im Packaging. Und du brauchst dann ja trotzdem ein 600mm² Base-Die, das dann eben nur in N6 gefertigt ist. Ich glaub wir sind einfach noch zu weit weg von so einer Lösung.
Das GCD einfach auf einen Träger oder Interposer aufzuteilen wird einfach ineffizient sein. Mit den MCDs geht das und das ist sicherlich obendrein noch optimierbar, aber den eigentlichen Grafikchip aufzuteilen erfordert schlichtweg komplexes stacking. Daher wird mittelfristig bei allen GPU-Herstellern das ganze analoge Geraffel und der LLC aus der eigentlichen GPU rausfliegen, mehr passiert aber erst mal nicht. Das verringert natürlich schon die GPU-Größe enorm, wie man an N31 sieht. An der Lösung kommt auch NV nicht vorbei.
Bei RDNA4 werden wir mMn wieder ein 200 und ein 300mm²-Die in N3P oder X dann sehen, zusätzlich ein günstigeres Produkt in N4 mit 150-200mm², so wie jetzt auch. Zudem gibts halt wieder MCDs, diesmal mit GDDR7-Support.

Ich stell mir das in etwa so vor:

N41 v2: 300mm² (N3X) + 4 MCD2 (N6) mit je 64Bit GDDR7 32Gbit-Module = 32GB VRAM + IOD (3 MCD2 + 24GB für salvage)
N42 200mm² (N3X) + 2 MCD2 = 16GB VRAM + IOD
N43 150-200mm² (N4) + 2 MCD2 = 16GB VRAM, I/O integriert (nur 1 MCD2 mit 8GB salvage)

DrFreaK666
2023-07-23, 12:53:55
...
2025 ist neu, laut Kepler ist AMD noch bei 2024 auch wenn er es nur hat durchblicken lassen das AMD wohl weiterhin vor NV kommen wird dieses mal (stand jetzt).

Und was soll das bringen, wenn viele dann trotzdem auf Nvidia warten?
Wenn AMD nur mit Performanceboost kommt, aber sonst kaum neue Goodies hat, dann wird das wenige überzeugen umzusteigen

robbitop
2023-07-23, 13:42:18
Ich glaube Multi-GCDs sind ein reiner Nerd-Traum.

M1 Ultra und M2 Ultra zeigen, dass es geht. Man braucht halt ein energieeffizientes Interface. Info-R ist da ggf noch nicht für geignet aber Info-LSI / emib (so macht Apple es) offenbar schon.

vinacis_vivids
2023-07-23, 16:16:25
RDNA4 uArch (update):
https://abload.de/thumb/rdna4leak07-2023ayere.png (https://abload.de/image.php?img=rdna4leak07-2023ayere.png)

Q3ptn_DI15k

N4X - GPU Aufbau:
60 WGP (=120 legacy CU)
7.680 (15.360) fp32
>3,0 Ghz
>92,16 Tflops fp32
>184.320 Tflops fp16
GDDR7 VRAM
BVH-Traversal in Hardware und nicht mehr über die Shader
Leistungssprung: < 2X ggü. N31, vermutlich Faktor (1,5 bis 1,6?)X
SALU - Änderung
350-450W Leistungsaufnahme

Nichts erwähnt über den Bau des Command-Prozessors und dessen Takt oder andere Taktdomains.

Bei BVH-Hardware kann davon ausgegangen werden, dass die CPU die Vorgabe für den Bau über die Shader-Struktur und (dynamische) Größe (idealerweise passend zum IF$) des BVH-Baums vorgibt.

Das entlastet die Shader bei der async-compute WMMA und erlaubt dabei einen höheren Shadertakt. Idealerweise können in fp16 konvertierte WMMA fp16 als Geometrie und Bewegung bei FSR3.X dienen um den Speicherbedarf zu senken und die Geschwindigkeit (theoretisch) zu verdoppeln.

Sieht aus wie die Konfiguration von 2 X N32GCD 30WGP.

Speichersystem:
32GB GDDR7 VRAM
256bit SI
?? MB IF$
Bandbreite IF$?

Nightspider
2023-07-23, 16:57:24
Lt. Red hat AMD das ursprünglich komplexe Design mit 144 CUs auf 3 GCDs weggeworfen und durch ein monolithischeres Design mit 120 CUs auf nur einem GCD ersetzt. AMD peilt jetzt offenbar auch mit Absicht nur noch die x080er-Karte der BW-Generation an und will nicht mehr mit dem Top-Chip konkurrieren.
Durch den Wechsel wird das RDNA4-Design offenbar um 1/2 Jahr zurückgeworfen und dürfte ebenfalls erst in 25 erscheinen.
https://youtu.be/Q3ptn_DI15k

Interessante Entwicklung mMn.

Wir sollten einfach mal abwarten.

AMD muss auf jeden Fall viel mehr liefern als mit RDNA3, sonst wird man wieder weit hinter Nvidia hinken.

Neurosphere
2023-07-23, 20:10:41
Das geht schon. Man kann die Shadereinheiten auf die Shaderprozessoren stapeln per TSV, das ist aber ziemlich aufwendig im Packaging. Und du brauchst dann ja trotzdem ein 600mm² Base-Die, das dann eben nur in N6 gefertigt ist. Ich glaub wir sind einfach noch zu weit weg von so einer Lösung.
Das GCD einfach auf einen Träger oder Interposer aufzuteilen wird einfach ineffizient sein. Mit den MCDs geht das und das ist sicherlich obendrein noch optimierbar, aber den eigentlichen Grafikchip aufzuteilen erfordert schlichtweg komplexes stacking. Daher wird mittelfristig bei allen GPU-Herstellern das ganze analoge Geraffel und der LLC aus der eigentlichen GPU rausfliegen, mehr passiert aber erst mal nicht. Das verringert natürlich schon die GPU-Größe enorm, wie man an N31 sieht. An der Lösung kommt auch NV nicht vorbei.


M1 Ultra und M2 Ultra zeigen, dass es geht. Man braucht halt ein energieeffizientes Interface. Info-R ist da ggf noch nicht für geignet aber Info-LSI / emib (so macht Apple es) offenbar schon.

Technisch möglich ja, aber nicht unbedingt sinnvoll. Ich denke AMD hat eine gute Lösung gefunden mit dem RDNA3 Aufbau den sie nun feintunen können.


Und was soll das bringen, wenn viele dann trotzdem auf Nvidia warten?
Wenn AMD nur mit Performanceboost kommt, aber sonst kaum neue Goodies hat, dann wird das wenige überzeugen umzusteigen

Och doch, wenn man eine geraume Zeit das schnellste Produkt hat/bringt dürfte das schon einen gewissen Effekt haben.

basix
2023-07-23, 20:16:04
1024 Bit RAM-Interface FTW! X-D

Wird kommen ;)

GDDR7+ skaliert vielleicht bis 48 Gbps (PAM4 anstatt 36Gbps mit PAM3). Das sind bei 384bit 2.3 TByte/s. Dazu grössere IF$ bis z.B. 192MByte. Dann sehe ich Ende Gelände.

Danach würde ich auf 3x MCDs und 3x HBM-Stacks gehen. Wir reden hier vom Zeitraum um 2030. Bis dann gibt es HBM-Module mit ~2 TByte/s pro Stack: https://www.heise.de/news/Groesser-und-schneller-HBM4-Speicher-knackt-ab-2026-die-TByte-s-Marke-6660216.html

Wenn z.B. AMD hier ihre Infinity Fanout Links (GCD <-> MCD // 768 Pins pro MCD) oder die nächste Generation davon für die HBMs verwenden können (MCD <-> HBM), kostet sie das nicht wirklich mehr beim Packaging. Mit 24 Gbit / Die reicht auch 4-hi für 36 GByte bei 3x Stacks, was relativ günstig sein sollte.

AffenJack
2023-07-23, 20:31:55
Wird kommen ;)

GDDR7+ skaliert vielleicht bis 48 Gbps (PAM4 anstatt 36Gbps mit PAM3). Das sind bei 384bit 2.3 TByte/s. Dazu grössere IF$ bis z.B. 192MByte. Dann sehe ich Ende Gelände.

Danach würde ich auf 3x MCDs und 3x HBM-Stacks gehen. Wir reden hier vom Zeitraum um 2030. Bis dann gibt es HBM-Module mit ~2 TByte/s pro Stack: https://www.heise.de/news/Groesser-und-schneller-HBM4-Speicher-knackt-ab-2026-die-TByte-s-Marke-6660216.html

Wenn z.B. AMD hier ihre Infinity Fanout Links (GCD <-> MCD // 768 Pins pro MCD) oder die nächste Generation davon für die HBMs verwenden können (MCD <-> HBM), kostet sie das nicht wirklich mehr beim Packaging. Mit 24 Gbit / Die reicht auch 4-hi für 36 GByte bei 3x Stacks, was relativ günstig sein sollte.

Gibt ja auch schon GDDR6W, vll geht man nach GDDR7 in die Richtung GDDR7W. Für die nächste Generation ist mit 32-36 Gbps GDDR7 bei gleichbleibenden Interfaces aber erstmal vorgesort. Mehr wird es da nicht geben in meinen Augen.

Altehardware
2023-07-24, 00:55:29
Zu den Gerüchten 7680 alu sind denkbar und auch das ursprüngliche design von rdna 3
Das multi gcx wurde verworfen die shader Auslastung könnte bei 2,5 sein womit mit nur 3,0ghz dann realistisch 57,8tf das wäre nahe der rtx4090
ich gehe aber eher von 3,6ghz aus was die gpu auf maxed 69tf bringt wäre nice
Eine höhere alu Auslastung erwarte ich nicht Allerdings nehme ich n3 an und nicht n4x das würde den Takt auf nur 3,2ghz beschränken.
Das hätte eher fürn rdna3+ gepasst und wie wir wissen wurde das gecancelt
Bliebe der release ich nehme q4 2024 an dann ein chip mit 96cu und 60cu als low end und das verteilt bis q4 2025

Dazu kommt das q4 2024 die ps5 pro kommt mit 60cu und knapp 22tf (2,5ghz) auf rdna3 basis
beim preis wird das interessant was sony verlangen wird ich nehme etwa 500$ an

basix
2023-07-24, 09:05:35
Gibt ja auch schon GDDR6W, vll geht man nach GDDR7 in die Richtung GDDR7W. Für die nächste Generation ist mit 32-36 Gbps GDDR7 bei gleichbleibenden Interfaces aber erstmal vorgesort. Mehr wird es da nicht geben in meinen Augen.

GDDR6W vereint zwei x32 Module zu einem x64 Modul. Also 64bit anstatt 32bit. Damit gewinnt man nichts an Bandbreite, wenn dein Host Chip nicht auf z.B. 512bit geht. Das PCB wird etwas einfacher, da man weniger DRAM-Packages verbauen muss.

Für mich sieht GDDR6W nach Mobile First aus, wo Platz sparen wichtig ist. Wenn irgendjemand 512bit Chips designed, OK, dann würde man leicht etwas an Bandbreite gewinnen. Ist mMn aber unwahrscheinlich.

HOT
2023-07-24, 09:12:37
Jo das ist für die, die platzsparenden Speicher brauchen aber nicht teuren HBM verbauen wollen. Mobil hört sich plausibel an.

basix
2023-07-24, 11:39:32
512bit könnten durch GDDR6W schon ermöglicht werden, da man nur 8x DRAM Packages verbauen muss. 16x Stück bei GDDR6/7 sind heute einfach unpraktikabel.

Aber eben, der Host-Chip muss das auch unterstützen. Und 512bit wird ziemlich Saft brauchen. Kann passieren, erscheint mir aber nicht als wahrscheinlich. Es ist wahrscheinlicher, dass man am Desktop bei 256bit 8x GDDR6 Packages verbaut und im Mobilsektor 4x GDDR6W.

vinacis_vivids
2023-07-24, 12:24:52
Von RDNA1/2 ist das SI von 256bit auf 384bit bei RDNA3 gestiegen. Dafür der IF$ von 128MB auf 96MB geschrumpft.

N21XTX - 80CU / 128MB IF$ (1:1,6)
N21XL - 60CU / 128MB IF$ (1:2,1)

N31XTX - 96CU / 96MB IF$ (1:1)
N31XT - 84CU / 84MB IF$ (1:1)

N4X - 120CU / 128MB IF$ ?

Frage mich wie viel Fläche die Gedamtlogik 7860SP (8192SP - 128CU physisch) bei N3E verbrauchen.
Scaling-Faktor ggü. TSMC 5N ist ja ~0,72X bei +23% Speed.

2,5Ghz X 1,23 ~ 3,075 Ghz unter Last.
(304,5qmm 5N 96CU) X 0,72 ~ 220qmm (96CU).

220qmm / 96CU * 120CU ~ 275qmm (120CU)
Für einen höheren Takt muss man mehr Transistoren aufwenden. 3,3Ghz Shader und 3,5Ghz CP sind erstmal erstrebenswert. Bei N31XTX sind 2,9-3,0Ghz schon eine harte Wand.

275qmm, vllt. auch 280-300qmm N3E sind vermutlich noch bezahlbar für ne Grafikkarte beim Comsumer/Gamer.

24GB GDDR-7 36Gbps
348SI
~ 1728 GByte/s

Das müsste als Bandbreite völlig ausreichen. Mit 32GB 512bit SI 32Gbps gingen schon 2048 GByte/s. Ob der Aufpreis für die +300 GByte/s was bringt, wird sich zeigen. Der Aufwand für 32GB wird etvl. gar nicht nötig sein.

mczak
2023-07-24, 19:22:45
Interessanterweise gibt es ja zur Zeit beim Speicher eher ein Kapazitäts- als ein Bandbreitenproblem (eben weil man dank der grossen Caches schmalere Interfaces verbaut aber die Chips nicht grösser geworden sind). Jedenfalls bei den Grafikkarten im unteren Segment.
Das wird sich natürlich mittelfristig wieder ändern, aber grössere gddr6 Chips kommen wohl nicht mehr (?), da gddr7 schon mehr oder weniger fertig ist. Die ersten gddr7 Chips sind aber anscheinend auch bloss 16gb gross. Damit drohen dann wohl Grafikkarten auf dem Leistungsniveau einer RTX 4070 mit bloss 8GB Speicher ausser die Hersteller haben doch noch ein Einsehen und verwenden den ungeliebten Clamshell-Modus...

Der_Korken
2023-07-24, 20:47:05
Interessanterweise gibt es ja zur Zeit beim Speicher eher ein Kapazitäts- als ein Bandbreitenproblem (eben weil man dank der grossen Caches schmalere Interfaces verbaut aber die Chips nicht grösser geworden sind). Jedenfalls bei den Grafikkarten im unteren Segment.
Das wird sich natürlich mittelfristig wieder ändern, aber grössere gddr6 Chips kommen wohl nicht mehr (?), da gddr7 schon mehr oder weniger fertig ist. Die ersten gddr7 Chips sind aber anscheinend auch bloss 16gb gross. Damit drohen dann wohl Grafikkarten auf dem Leistungsniveau einer RTX 4070 mit bloss 8GB Speicher ausser die Hersteller haben doch noch ein Einsehen und verwenden den ungeliebten Clamshell-Modus...

Der Gedanke kam mir auch, als ich letztens davon las, dass GDDR7 schon für die nächste Gen vor der Tür steht. Gefühlt hat sich GDDR5 doppelt so lang gehalten wie der 6er. Die Caches wieder abzuschaffen und stattdessen überall mehr Speicherchips zu benutzen, wäre aber auch albern, weil der Stromverbrauch der Datenverbindung dann all die Effizienzgewinne der neuen Gen auffrisst.

davidzo
2023-07-24, 21:17:03
Der Gedanke kam mir auch, als ich letztens davon las, dass GDDR7 schon für die nächste Gen vor der Tür steht. Gefühlt hat sich GDDR5 doppelt so lang gehalten wie der 6er. Die Caches wieder abzuschaffen und stattdessen überall mehr Speicherchips zu benutzen, wäre aber auch albern, weil der Stromverbrauch der Datenverbindung dann all die Effizienzgewinne der neuen Gen auffrisst.

Wie wäre es denn wenn man den Cache beibehält für die Bandbreite, z.B. 32MB für eine entry / 300$ Karte und dann statt flächenintensiven und energiefressenden GDDR6 SI lieber 256bit DDR5 oder LPDDR5 verbaut? Ich würde sogar 192bit nehmen, wenn die Karte dafür dann eben mit 12Gb kommt und nicht nur mit 8GB. 256bit ermöglichen 200gb/s, das sollte mit cache dann für wqhd reichen.

Dasselbe bei Entrylevel Chips. Statt 64bit GDDR6 verbaut man einfach 128 oder 96bit DDR5 oder gar DDR4. Dann sind auch endlich wieder die beliebten Krüppelkarten mit "Highend"-Speicherausbau aber schwacher bandbreite und Rohleistung möglich. Ich hätte nicht gedacht dass ich mich danach wieder sehnen würde, aber im Moment haben wir ja leider den umgekehrt absurden Fall.

Ich bin sicher dass entrylevel Karten mit 12 oder 16Gb sich sehr gut verkaufen würden, selbst wenn sie etwas langsamer wären als die aktuellen 4, 6 und 8Gb entrylevel karten (6500xt, 1660S, 3050).
Durch den billigeren Speicher und das viel kleinere DDR-SI im Chip welches zusätzlich auch weniger traces/Layer auf dem board einnimmt als GDDR sollten solche Karten auch sehr wirtschaftlich herstellbar sein. DDR hat auch nicht so große Ansprüche an die Leitungslänge und Signalqualität, daher kann man DDR5-Chips ganz einfach mit mehr Abstand zur GPU und nebeneinander auf der Vorderseite des PCB positionieren. Man verbaut dann die Kapazität an DDR5-Chips die auf dem spotmarkt gerade am billigsten sind und variiert einfach die Anzahl. Größere Platine, aber weniger Layer, somit billiger.

reaperrr
2023-07-25, 02:28:30
Ich denke, es wird erstmal verdammt viel Zeit ins Land ziehen, bis AMD einen geistigen Nachfolger von N33 mit 128bit SI bringt. Wenn überhaupt.

Bis es doppelt so große G7-Chips gibt, wird es mMn von AMD keine 128bit-RDNA4-Karte geben, weil die Nachfrage nach neuen 8GB-Karten in 1,5 Jahren töter als tot sein dürfte.

Generell sind die Verkäufe der Leistungsklasse 4060Ti-Abwärts - von RDNA2-Abverkäufen abgesehen - so mies, dass ich aktuell keine Wetten abschließen würde, ob sich für AMD ein N43 mit 128bit-SI überhaupt lohnt.
Der DIY-Desktop-Markt schrumpft, seit XSX und PS5 wandern langsam aber stetig immer mehr PCler zu den Konsolen, durch PS5Pro und später die nächste richtige Konsolengeneration wird sich das noch beschleunigen.
Und die, die am PC bleiben, tun das wegen der Leistung (von bestimmten PC-only-Spielen mal ab), so dass es Karten, die nicht merklich schneller als Konsolen sind, nicht nur von den Preisen, sondern auch vom Volumen immer schwerer haben werden.

Da AMD zunehmend auch Probleme mit den Marktanteilen bekommt (und in Mobile sowas wie Strix Halo den 7600ern bald das Wasser komplett abgraben dürfte), könnte N33 eventuell schon der letzte Nx3 gewesen sein.

Mein Launch-LineUp-Tipp für RDNA4 (Preise nur, wenn RDNA4 vor Blackwell rauskommt oder BW genauso überteuert wie Ada wird, sonst vielleicht etwas niedriger):

999$ - 8900 XTX - N41-120CU, 384bit, 24GB G7 @ 30Gbps -> 79XTX + ~55%
849$ - 8900 XT - N41-108CU, 320bit, 20GB G7 @ 30Gbps -> 79XT + ~60%
699$ - 8800 XT - N41-90CU, 256bit, 16GB G7 @ 30Gbps -> 79XT + ~30%
599$ - 8800 - N42-72CU (Vollausbau), 256bit, 16GB G7 @ 28Gbps -> 7800 + ~50%
499$ - 8700 - N42-60CU, 192bit, 12GB G7 @ 28Gbps -> 7700 + ~50%

Und die 7700 wird erstmal noch ne Weile weiterproduziert und läuft preislich (~349$) als faktische 8600 (XT).

Und das war's.
Vielleicht wird die 7700 dann, wenn 4GB-G7-Chips billig genug sind, durch

399-449$ - 8600 - N42-48CU, 128bit, 16GB G7 @ 28Gbps -> 7700 + ~20%

ersetzt, aber viel mehr würde ich unter der 8700 nicht erwarten (und wenn, dann definitiv nix, was für Gamer wirklich interessant wäre).

HOT
2023-07-25, 09:24:54
Da geh ich größtenteils mit, mit einer kleinen Modifikation bei Namen und Speicher, weil ich denke, die neuen MCDs werden den IF$ verdoppeln und im Jahre 25 werden 32Gbit-Module standard sein, der Fortschritt ist da glaube ich nicht aufzuhalten. 16Gbit-Chips sind vielleicht noch für einen Ada-Refresh interessant, das wars dann aber auch. Und ich denke, den XTX Fehler wird AMD auch nicht noch mal begehen, weil man hier schlichtweg kein >$1000-Produkt erwartet.

999$ - 8900 XT - N41-120CU, 128MB IF$, 256bit, 32GB G7 @ 30Gbps -> 79XTX + ~55%
849$ - 8800 XT - N41-108CU, 256bit, 32GB G7 @ 30Gbps -> 79XT + ~60%
699$ - 8800 - N41-90CU, 96MB IF$, 192bit, 24GB G7 @ 30Gbps -> 79XT + ~30%
599$ - 8700 XT - N42-72CU (Vollausbau), 64MB IF$, 128bit, 16GB G7 @ 28Gbps -> 7800 + ~50%
499$ - 8700 - N42-60CU, 128bit, 16GB G7 @ 28Gbps -> 7700 + ~50%

aceCrasher
2023-07-25, 10:24:44
Ich denke, es wird erstmal verdammt viel Zeit ins Land ziehen, bis AMD einen geistigen Nachfolger von N33 mit 128bit SI bringt. Wenn überhaupt.

Bis es doppelt so große G7-Chips gibt, wird es mMn von AMD keine 128bit-RDNA4-Karte geben, weil die Nachfrage nach neuen 8GB-Karten in 1,5 Jahren töter als tot sein dürfte.
Dank der höheren Bandbreite pro Speicherchip bei GDDR7 wäre allerdings auch 96bit Clamshell möglich für die 600er-Serie. 192bit kann ich mir bei einer (leider) RX 8600 kaum vorstellen...

reaperrr
2023-07-25, 15:10:24
Dank der höheren Bandbreite pro Speicherchip bei GDDR7 wäre allerdings auch 96bit Clamshell möglich für die 600er-Serie. 192bit kann ich mir bei einer (leider) RX 8600 kaum vorstellen...
Ich kann es natürlich nicht ausschließen.
Ich bin nur deshalb skeptisch, weil 96bit platzmäßig auf dem Chip wenig Vorteile gegenüber 128bit hätte (1. bei AMD ist ein MemController für bis zu 64bit zuständig, d.h. die Anzahl der MemController bliebe wohl gleich; 2. wenn N43 nicht mehr monolithisch ist und auch MCDs nutzt, wird AMD nicht extra einen 32bit-MCD für N43 entwickeln, d.h. Flächenvorteil gar Null), während Clamshell (oder 4GB-Chips) das ganze eher teurer machen und möglicherweise mehr Performance in <=8GB-Spielen kosten würde, als es in >8GB-Spielen bringen würde.

mboeller
2023-07-25, 15:57:59
Ich denke, es wird erstmal verdammt viel Zeit ins Land ziehen, bis AMD einen geistigen Nachfolger von N33 mit 128bit SI bringt. Wenn überhaupt.


Ist das nicht das zukünftige Revier von Strix-Halo?
Steht ja nirgendwo geschrieben, dass Strix-Halo nur für Notebooks kommt.

reaperrr
2023-07-25, 16:44:04
Ist das nicht das zukünftige Revier von Strix-Halo?
Steht ja nirgendwo geschrieben, dass Strix-Halo nur für Notebooks kommt.
256bit DDR5/LPDDR5X würde ne eigene Platine brauchen, also als separat verkaufte APU für AM5 wird's Halo nicht geben. Entweder Komplettpaket aus Platine + APU + Speicher (aber dann auch relativ teuer), oder halt garnicht.

Ich meine, wir reden hier effektiv fast von einem auf Sparsamkeit getrimmten 8950X/9950X + 7600-Klasse APU + 16GB RAM + Platine. Das würde als Paket wahrscheinlich an 1000€ kratzen. Gut, vielleicht nicht ganz und vielleicht hat ne Salvage-Variante mit 12 Kernen und 32 CUs ein besseres P/L-Verhältnis, nur dass dieses Kontrukt Mainstream wird, da habe ich meine Zweifel. Vielleicht in OEM-PCs, wer weiß.

HOT
2023-07-27, 08:26:42
Endliich ein Lebenszeichen von höheren GDDR-Kapazitäten: Leute es wird tatsächlich krumm! Micron bereitet 24Gbit-Chips für die GDDR7-Generation vor

https://www.tomshardware.com/news/micron-preps-32gb-ddr5-chips-opening-doors-to-1tb-modules

Damit wären 256Bit 24GB, 192Bit 18GB und 128Bit 12GB möglich.
Das werden mMn auch die Speichermengen sein, die verbaut werden für die RDNA4-Generation.

basix
2023-07-27, 12:05:12
Endliich ein Lebenszeichen von höheren GDDR-Kapazitäten: Leute es wird tatsächlich krumm! Micron bereitet 24Gbit-Chips für die GDDR7-Generation vor

https://www.tomshardware.com/news/micron-preps-32gb-ddr5-chips-opening-doors-to-1tb-modules

Damit wären 256Bit 24GB, 192Bit 18GB und 128Bit 12GB möglich.
Das werden mMn auch die Speichermengen sein, die verbaut werden für die RDNA4-Generation.

Nice!

mczak
2023-07-27, 14:34:06
Endliich ein Lebenszeichen von höheren GDDR-Kapazitäten: Leute es wird tatsächlich krumm! Micron bereitet 24Gbit-Chips für die GDDR7-Generation vor

https://www.tomshardware.com/news/micron-preps-32gb-ddr5-chips-opening-doors-to-1tb-modules

Damit wären 256Bit 24GB, 192Bit 18GB und 128Bit 12GB möglich.
Das werden mMn auch die Speichermengen sein, die verbaut werden für die RDNA4-Generation.
So wie das dargestellt ist könnte man meinen die 24gb Chips kommen gleichzeitig mit den 16gb Chips, ich bleibe aber skeptisch. Auch interessant, die Roadmap reicht bis Mitte 2026, und 32gb gddr7 Chips sind darauf nicht zu sehen.

basix
2023-07-27, 18:10:46
So wie das dargestellt ist könnte man meinen die 24gb Chips kommen gleichzeitig mit den 16gb Chips, ich bleibe aber skeptisch. Auch interessant, die Roadmap reicht bis Mitte 2026, und 32gb gddr7 Chips sind darauf nicht zu sehen.

Ja, die Timeline ist etwas schwammig. 24 Gbit könnte erst deutlich später kommen.

Der Bedarf und Druck nach grösseren Chips ist aber da, siehe die 8GByte Karten und entsprechende Review-Fazits.

Und für was 32Gbit? 12 GByte bei "Low End", 18 GByte bei Mainstream Performance, 24 GByte High End und 30-36 GByte Enthusiast hören sich vernünftig an ;)

- RX 8500 = 9 GByte // 229$
- RX 8600 = 12 GByte // 299$
- RX 8700 = 15...18 GByte // 349...499$
- RX 8800 = 20...24 GByte // 549...679$
- RX 8900 = 30...36 GByte // 799...999$

...und alle wären zufrieden ;)

Mandalore
2023-08-04, 11:20:18
https://twitter.com/kepler_l2/status/1687388515670056960?s=46&t=ULv8A87xV2JPh8aFdOsA5w

Welchen Sinn würde das denn machen?

Laut Kepler bestätigt von 3 Quellen von ihm.

Thema AMD/ATi ist er ja eigentlich durchgehend spot on…

Linmoum
2023-08-04, 11:37:15
Das ist womöglich einfach die Frage, wie man das definiert. "High-End-GPU" in Form eines großen GCD gibt es nicht oder generell keine "High-End-GPU", also auch keine mit mehreren, dafür aber kleineren GCDs.

Bei letzterem würde man in der Gerüchteküche bei einem N41 auch nie was von "High-End" erfahren, was beim Endprodukt aber anders aussehen würde. ;)

HOT
2023-08-04, 12:04:07
Also mehr als 5080 ist bei AMD bei RDNA4 nicht drin, eher noch weniger. Dann gibts auch keine 384Bit.
Damit wäre klar, dass AMD sein 3-Chiplet-Monster gecancelt hat und die Information über einen Ersatzchip relativ sicher stimmte.

Mit 256Bit und 128MB IF$ ist man ja wieder gut aufgestellt und mit 24Gbit-Modulen kommt man ja auf 24GB und hätte hier keine Schwäche ggü. der Vorgängergeneration.
MMn hat AMD akzeptiert, dass man hier nicht jede Generation voll mitgehen kann und will, das wird wohl erst wieder bei der PS6-Architektur-Generation der Fall sein.

Ich halte das ja für ne ganze Weile für sinnlos für AMD Produkte >$1000 auif dem Markt zu bringen, weil >$1000-Käufer eh niemals was anderes als NV akzeptieren werden. Das ist ein toter Markt für AMD.

Linmoum
2023-08-04, 12:38:36
Der Markt ist überhaupt nicht tot, vor allem bringt er Prestige, wenn man ein Halo-Produkt hat. Bei Ryzen hat es AMD in dem Zusammenhang auch geholfen, dass sie Intel ab Zen2 mit 12C/16C auf dem Desktop verdroschen haben. Ein starkes Produkt an der Spitze färbt auch auf das gesamte Lineup ab.

AMDs Problem ist hier aber aktuell tatsächlich eher, dass schon ein AD102 im Vollausbau irgendwo vermutlich 40%-50% schneller ist bzw. wäre und Nvidia nicht schläft. AMD müsste die Leistung an der Spitze vermutlich (mehr als) verdoppeln, was nüchtern betrachtet tatsächlich utopisch sein dürfte.

HOT
2023-08-04, 12:46:43
Nope. Das "Prestige" ist glaube ich eh immer nur ne Marktetingerfindung gewesen. Es bringt nichts Produkte in Marktbereiche zu bringen in denen es keine Käufer gibt. Wenn man sowieso nicht gewillt ist große Teile des Grafikkartenmarktes zu übernehmen lohnt sich kein "Halo"-Produkt.
Zudem wird es ja wieder was geben mMn nur eben nicht diese und nächste Generation sondern erst wieder bei RDNA5, weil das wieder ein sehr großer Sprung werden dürfte dank der PS6.

robbitop
2023-08-04, 13:11:55
Der Markt ist überhaupt nicht tot, vor allem bringt er Prestige, wenn man ein Halo-Produkt hat. Bei Ryzen hat es AMD in dem Zusammenhang auch geholfen, dass sie Intel ab Zen2 mit 12C/16C auf dem Desktop verdroschen haben. Ein starkes Produkt an der Spitze färbt auch auf das gesamte Lineup ab.
Das Problem ist aber, dass AMD bei den Halo Produkten praktisch nie klar siegt (Summe aus Features und Leistung). Und dann bringt auch ein recht solides High End Produkt keinen Halo Effekt mehr. Wenn es was bringen soll, muss es schon einigermaßen dominieren und zwar wie bei Ryzen mehrere Generationen hintereinander.

Ggf. hat AMD eingesehen, dass das entweder nicht drin ist (Nvidia scheint deutlich schwieriger zu schlagen sein als das damals eingeschlafene, träge Intel) und entsprechend passt man seine Strategie dann so an, dass ohne den Halo Effekt die profitabelsten Segmente nur noch angefahren werden.

Für uns Endkunden unschön, weil das einem IHV den high end Markt überlässt -> Monopol mit Monopolpreisen.

HOT
2023-08-04, 13:14:05
Wenn NV wirklich keine ernsthafte Konkurrenz in AMD mehr sieht werden die Entwicklungszyklen länger werden und die Sprünge kleiner. Das kommt wiederum AMD entgegen. Wie gesagt, doof für den Kunden.

Linmoum
2023-08-04, 13:17:20
Definitiv und ja, "Halo" impliziert dann halt sowas wie eine 4090 oder davor 1080Ti/2080Ti. Aber ich sehe auch nicht, dass AMD überhaupt die Ambitionen hat, sowas zu launchen. Obwohl es zu Sus Margen-Strategie eigentlich passen würde.

@HOT
Man weiß, dass es auch im Preisbereich einer 4090 genug potentieller Käufer gibt. Die Leute sind bereit zu zahlen, wenn das Produkt an der Spitze auch einen echten und deutlichen Mehrwert bei der Performance bietet. Natürlich würde das anders aussehen, wenn Nvidia jetzt eine 5090 bringt, die nur +20% drauflegt. Aber ansonsten? Der Markt ist definitiv vorhanden.

Exxtreme
2023-08-04, 13:17:55
MLID meinte mal, es sei andersrum: AMD sieht in Nvidia keine Konkurrenz weil sie schlicht ausschließlich Intel priorisieren. Und GPUs sind mehr ein nettes Zubrot und eine Art Testumgebung. Deshalb macht AMD auch keine Anstalten Halo-Radeons zu bauen.

robbitop
2023-08-04, 13:22:02
Hätte man mal wieder eine überlegene uArch wie damals R3xx, dann würde HighEnd auch Sinn machen. Damals hat man dank der 9700 pro (und Nvidias gleichzeit schlechter 5800 Ultra) und dessen Halo Effekt den dGPU Markt im Sturm erobert, der zuvor von Nvidia dominiert war. Wenn diese eine High End SKU ermöglichen würde, die die NV High End SKU dominieren könnte. Aber das ist extremst schwierig. Nvidia ist nicht mehr das Nvidia von 2002, mit den slipups wie CineFX (oder Fermi war ja erst auch nicht so toll). Mittlerweile liefern sie wirklich extrem konsistent gute uArchs (Perf/W + Features) ab.

robbitop
2023-08-04, 13:25:07
MLID meinte mal, es sei andersrum: AMD sieht in Nvidia keine Konkurrenz weil sie schlicht ausschließlich Intel priorisieren. Und GPUs sind mehr ein nettes Zubrot und eine Art Testumgebung. Deshalb macht AMD auch keine Anstalten Halo-Radeons zu bauen.
Das ist wahrscheinlich rein bezogen auf 3D GPU oder? Ansonsten ist Nvidia ein absolut dominanter Konkurrent in einem der wichtigsten Segmente für die nächsten Jahre: Machine Learning. Nvidia druckt damit mittlerweile richtig Geld.
(haben auch extrem moderne uArchs und entsprechende Softwareumgebungen die immer weiter wachsen. Omniverse, CUDA etc) Da investiert AMD aktuell ganz klar sichtbar ja auch (MI3xx, HIP-SDK) - aber IMO fehlt es da noch etwas...

aufkrawall
2023-08-04, 13:25:53
MLID meinte mal, es sei andersrum: AMD sieht in Nvidia keine Konkurrenz weil sie schlicht ausschließlich Intel priorisieren.
Machen sie halt auch nur, weil sie Nvidia nicht schlagen können. Der HW-Vorsprung von Nvidia wird immer größer. Wahrscheinlich könnten auch manche D3D12-Titel noch viel besser auf Nvidia laufen, würden sie sich beim Treiber nicht so dumm anstellen.

HOT
2023-08-04, 13:32:44
MLID meinte mal, es sei andersrum: AMD sieht in Nvidia keine Konkurrenz weil sie schlicht ausschließlich Intel priorisieren. Und GPUs sind mehr ein nettes Zubrot und eine Art Testumgebung. Deshalb macht AMD auch keine Anstalten Halo-Radeons zu bauen.
Genauso ist das auch. AMD braucht halt die Grafiksparte für APUs, Komplettangebote und Konsolen. GPUs für Desktop ist wirklich nicht mehr als Zubrot. Solange das Gewinn abwirft macht man das halt, aber man wird keinerlei Ambitionen mehr entwickeln um ernsthaft mit der Marke Geforce zu konkurrieren.
Man sieht es an RDNA3 sehr gut, die ganze Produktpalette ist pur auf Gewinnerzielung ausgerichtet. Kleine Dies mit extra hoher Packdichte, kein N5 für N33, Preisgestaltung streng an NVs viel zu hohen Geforce-Preisen orientiert und keinerlei Ambitionen auf Marktanteil zu gehen.

Machen sie halt auch nur, weil sie Nvidia nicht schlagen können. Der HW-Vorsprung von Nvidia wird immer größer. Wahrscheinlich könnten auch manche D3D12-Titel noch viel besser auf Nvidia laufen, würden sie sich beim Treiber nicht so dumm anstellen.
Das ist Unsinn.
Das würde Geld und Ressourcen in größerem Umfang benötigen als AMD bereit ist zu investieren, so einfach ist das.

robbitop
2023-08-04, 13:37:30
Machen sie halt auch nur, weil sie Nvidia nicht schlagen können. Der HW-Vorsprung von Nvidia wird immer größer. Wahrscheinlich könnten auch manche D3D12-Titel noch viel besser auf Nvidia laufen, würden sie sich beim Treiber nicht so dumm anstellen.
Vermute ich auch. Wobei man konstatieren muss, dass es ja hin und wieder auch gelungen ist mitzuhalten. Hawaii vs GK110 oder auch zuletzt N21 vs GA102 (zumindest in der Rasterperformance). Aber mithalten mit "Sternchen" (kein DLSS, kein gutes RT) reicht halt nicht. Schon gar nicht wenn es nur gelegentlich passiert.
AMD wird gesehen haben, dass es trotz high end Produkt auch nicht viel besser lief als zu den Zeiten wo sie keins hatten.

Exxtreme
2023-08-04, 13:47:50
Machen sie halt auch nur, weil sie Nvidia nicht schlagen können. Der HW-Vorsprung von Nvidia wird immer größer. Wahrscheinlich könnten auch manche D3D12-Titel noch viel besser auf Nvidia laufen, würden sie sich beim Treiber nicht so dumm anstellen.

So einfach ist das auch nicht. Es ist so, jede größere Organisation hat eine Art innere Mentalität. Und wenn AMDs Mentalität ist, Intel im CPU-Bereich zu schlagen dann wenden sie alle Ressourcen dafür auf um das Ziel zu erreichen. AMD ist immer noch eine CPU-Firma. Bei IBM ist das so ähnlich. Die tun sich extrem schwer im Cloud-Bereich dafür sind sie ziemlich führend was Quantencomputer angeht. Die sind mit Mainframes groß geworden und das ist deren Metier. Ein fetter Computer anstatt tausende kleine Minicomputer wie es bei Clouds so üblich ist. Aus sowas können sich Organisationen eher schwer lösen. Aber mal schauen ob sich Intel so halbwegs davon lösen kann und gute GPUs bringt.

Edgecrusher86
2023-08-04, 14:36:08
Das könnte dann ja bei N42 oder wie man das Ganze nennen wird auf 80CUs @ 3,5 GHz, 128MB IF, 256-bit SI, 24GB GDDR7 (24Gb) bei 250W TGP hinaus laufen - sprich, knapp vor N31, aber deutlich effizienter. Zum Beispiel für $649-799 MSRP.

Mal sehen, ob sie dann mit der 50er Generation wieder angreifen.

Der_Korken
2023-08-04, 14:45:28
Komisch, dass AMD ausgerechnet bei RDNA4 auf Highend verzichten will. Strategisch hätte das für mich bei RDNA3 mehr Sinn ergeben, da man mit Chiplets, N5 und neuer Arch so viel auf einmal umgeschmissen hat, dass ein kleinerer Schritt geholfen hätte. Zum Beispiel Chiplets auf RDNA4 verschieben und erstmal die Arch und N5 hinbekommen und wegen teurer Fertigung erstmal nur N32 bringen. Die Analogie zu RDNA1 wird im Tweet ja erwähnt. RDNA1 war keine Revolution aber dafür solide und ohne große Hiccups. Für RDNA4 klingt es so, als wäre das kein kleiner Arch-Sprung (wie RDNA2), sondern wieder nach vielen Änderungen.

mboeller
2023-08-04, 16:33:31
Komisch, dass AMD ausgerechnet bei RDNA4 auf Highend verzichten will. Strategisch hätte das für mich bei RDNA3 mehr Sinn ergeben

Vielleicht reagiert AMD einfach nur auf das geänderte wirtschaftliche Umfeld?
IMO; RDNA3 wurde ja noch vor 2020 angefangen; bei RDNA4 reagiert man einfach auf das geänderte wirtschaftliche Umfeld. Teure Highend-Experimente will man sich vielleicht nicht mehr leisten.

BlacKi
2023-08-04, 17:05:17
ist 6nm eigentlich wirklich fast genauso billig wie 7nm oder andere schlechtere prozesse? ich mein, da ist nur cache und SI drauf, das skaliert sowieso nichtmehr.

AffenJack
2023-08-04, 17:14:45
ist 6nm eigentlich wirklich fast genauso billig wie 7nm oder andere schlechtere prozesse? ich mein, da ist nur cache und SI drauf, das skaliert sowieso nichtmehr.

Ist der günstigste EUV Note und würde mich nicht wundern, wenn er mittlerweile sogar günstiger als 7nm ist, da man bei 7nm sehr viel mit Multipatterning arbeiten musste. Die schlechteren Prozesse 16nm usw sollen aber noch deutlich günstiger sein.

Langlay
2023-08-04, 17:42:08
Es bringt nichts Produkte in Marktbereiche zu bringen in denen es keine Käufer gibt.


https://i.imgur.com/WpFZ24x.png

Wenn die 4090 (die 1.5 Jahre später erschienen und mehr als 5x so teuer ist) höher im Steam Ranking steht als die 6700XT sollte AMD vielleicht einfach garkeine Grakas mehr verkaufen, nach der Logik.

Redneck
2023-08-04, 18:26:41
Raster Leistung alleine reicht heutzutage eben nicht mehr aus, um ganz vorne mitzuspielen. Die RTXen haben valide Argumente, weshalb sie mehr kosten dürfen als die AMDs.. Hier spürt man klar das kleinere Budget für die Software Sparte.
Und dann ist da noch RT....AMD hat hier schon vor langer Zeit die Weichen gestellt eben nicht all in zu gehen, sondern eher den Vernunfts Weg, der es ihnen erlaubt ein gewisses Power und Preis Budget im Konsolen Bereich nicht zu sprengen. Das war eine bewußt getroffene Design Entscheidung, die sich
Aber bei den diskreten Karten zum Nachteil auswirkt weil wir auf der anderen Seite des Spektrums einen Player haben, der sich im dGPU Bereich austobt und reichlich in R&D investiert hat.
Mit den Bedürfnissen der Konsolen im Kopf ist AMDs Strategie nachvollziehbar. Schade für uns PCLer.

aufkrawall
2023-08-04, 18:45:56
Das mit der Wirtschaftlichkeit überzeugt seit Ampere nicht mehr, vermutlich wäre ein SoC damit in den Konsolen kaum größer gewesen. Ein SoC mit Lovelace könnte sogar wesentlich wirtschaftlicher sein als mit RDNA3. :freak:

robbitop
2023-08-04, 18:47:06
ist 6nm eigentlich wirklich fast genauso billig wie 7nm oder andere schlechtere prozesse? ich mein, da ist nur cache und SI drauf, das skaliert sowieso nichtmehr.

Soweit ich weiß ist 6 nm der cost out Prozess der 7 nm Familie. Sollte also günstiger sein. So ist es wohl auch mit 4 nm ggü 5 nm.

Mandalore
2023-08-04, 19:26:07
https://youtu.be/7qifm8fhVrI


Entlarvung von RGT?

Plötzlich kommen seine sOuRcEs auch zu dem Schluss….😂

DozerDave
2023-08-04, 21:20:02
Ich finde sein T-Shirt mit dem langen Haar viel schlimmer. Der guckt nichtmal in den Spiegel bevor er ne Aufnahme macht.
Und Logik ist auch nicht sein Ding: Der ganze Chiplett-Ansatz dient doch dafür günstig mit hohen yields dicke GPUs bauen zu können. Siehe Zen.

Komischer Typ…

Linmoum
2023-08-04, 21:39:52
Günstiger mit hohen Yields sollte dann aber auch bedeuten, dass das bei den Kunden ankommt. Wenn man trotzdem die Preise anzieht, ist das einfach nur albern.

Was mit Blick auf RDNA4 aber auch sein könnte ist schlicht der Umstand, dass AMD es (noch) nicht hinbekommt, dass ganze Chiplet-Konzept bei Grafikkarten - zumindest für den Desktop und primär Spiele - derart umzusetzen, dass es mit mehreren GCDs auch zufriedenstellend funktioniert. iirc war es Wang, der sowas vor ein paar Jahren auch einmal in einem Interview angedeutet hatte.

Dann könnte ich mir tatsächlich vorstellen, dass es mit der nächsten Gen bei AMD kein "High-End" gibt. Womöglich peilt man dann am Ende eventuell irgendwo 4090-Performance an, was für sich genommen ja immer noch alles andere als schlecht wäre. Aber im Vergleich mit Nvidia landet man damit dann halt womöglich auch nur leicht oberhalb eines xx104. Und dann ist natürlich wieder die Frage, wie das tatsächlich mit Kosten/Nutzen aussieht. Aktuell kommt man mit Ach und Krach bei Raster-Performance mit einem 300mm²+222mm² N31 an einen 379mm²-AD103 heran bzw. kann sich marginal leicht davor platzieren. Das kann am Ende des Tages auch nicht Sinn und Zweck sein, denn so ein Mono-AD103 dürfte sicherlich ein gutes Stück günstiger zu fertigen sein.

OgrEGT
2023-08-04, 21:43:59
https://twitter.com/kepler_l2/status/1687388515670056960?s=46&t=ULv8A87xV2JPh8aFdOsA5w

Welchen Sinn würde das denn machen?

Laut Kepler bestätigt von 3 Quellen von ihm.

Thema AMD/ATi ist er ja eigentlich durchgehend spot on…

Navi4 lineup will not have any high-end GPUs

Think of it like RDNA1 or Polaris generation.

Wie passt das zu den vielen Codenamen von N4x? So viele verschiedene Low und Midrange GPUs?
GCD Chiplets sind in der Diskussion und möglich ggf. bereits mit 3nm...
Passt auch irgendwie nicht dazu... Es sei denn es bezieht sich darauf dass das GCD Chiplet für sich allein betrachtet keine Highend GPU wäre, ein Multi-Chiplet GCD möglicherweise schon...

HOT
2023-08-04, 21:49:14
https://i.imgur.com/WpFZ24x.png

Wenn die 4090 (die 1.5 Jahre später erschienen und mehr als 5x so teuer ist) höher im Steam Ranking steht als die 6700XT sollte AMD vielleicht einfach garkeine Grakas mehr verkaufen, nach der Logik.

Red ich chinesisch? Der Markt ist toll für NV aber scheiße für AMD, weil die Kundschaft nur Geforce kauft, wenn sie schon über $1000 ausgibt. Ist das so schwer zu verstehen? Da müßte AMD schon echt ne Top-Architektur mit 25% mehr Performance rausdrücken als NVs Top-Produkt, wie die 9700 damals, damit die in diesen Markt eindringen können. Da AMD aber keine Grafikkartencompany sondern eine CPU-Company ist, passiert das halt nicht. Das einzige, was man jetzt nur noch will, ist an dem Markt möglichst stark mitverdienen. Also läßt man NV das Top-Produkt und profitiert von den hohen Monopolpreisen, die NV abruft, genau wie jetzt eben. Die Kunst bei der Taktik ist die Kosten für Entwicklung und Chipfertigung so niedrig wie möglich zu halten.

Komisch, dass AMD ausgerechnet bei RDNA4 auf Highend verzichten will. Strategisch hätte das für mich bei RDNA3 mehr Sinn ergeben, da man mit Chiplets, N5 und neuer Arch so viel auf einmal umgeschmissen hat, dass ein kleinerer Schritt geholfen hätte. Zum Beispiel Chiplets auf RDNA4 verschieben und erstmal die Arch und N5 hinbekommen und wegen teurer Fertigung erstmal nur N32 bringen. Die Analogie zu RDNA1 wird im Tweet ja erwähnt. RDNA1 war keine Revolution aber dafür solide und ohne große Hiccups. Für RDNA4 klingt es so, als wäre das kein kleiner Arch-Sprung (wie RDNA2), sondern wieder nach vielen Änderungen.

Das ist wahrscheinlich aber genau der Punkt, das mit den Chiplets hat in dieser Generation nicht geklappt. Stattdessen fährt man jetzt die gleiche Chiplet-Strategie wie bei RDNA3. Die erweiterte Chiplet-Fertigung dürfte einfach auf RDNA5 verschoben sein - hier ist das auch wichtiger, weil die Konsolen in 2027 sehr sicher auch gestackt sein werden, schon aus Kostengründen, weil man auch hier wirtschaftlich auf top tier-Prozesse setzen wollen wird.

AMD wird die Entwicklungsstrategie für Grafik-IP wie folgt fahren:

- Superzyklus für Konsolen ca. 6-7 Jahre Entwicklung
- kleinere Grafikiterationen zwischendurch

Terascale -> Konsolenzyklus (ab Terascale-Entwicklung, erste Terascale Iteration war Xenon (2005), für PC gecancelt (R400 und R500), Terascale erreichte den PC erst 2007 als dritte Terascale Iteration, namentlich R600. Überbrückt wurde von 2004 mit R300-Refresh R420 und Weiterentwicklung R520. Auf R600 folgten noch 3(4) weitere Iterationen.)
GCN -> Konsolenzyklus (ab GCN-Entwicklung, das ist alles nicht vom Himmel gefallen, erste GCN-Iteration Ende 2011, Konsolen ab 2013, erstmalig auch Sony), GCN1, 2 (Hawaii), 3 (Tonga+Fiji) und 4 (Polaris) (Vega ist aussenvor, Greenland ist die Grundlage für den Split der CDNAs von der GrafikIP)
RDNA -> Konsolenzyklus (Entwicklung ab ca. 2014, erste RDNA-Iteration 2019, Konsolen Ende 2020), RDNA1, 2, 3 und 4
AMD GraphicsIP next -> Konsolenzyklus (Entwicklung ab ca. 2020, Release wahrscheinlich erste Iteration für PC 2027, Konsole 2027 oder 28)

OgrEGT
2023-08-04, 21:56:45
Red ich chinesisch? Der Markt ist toll für NV aber scheiße für AMD, weil die Kundschaft nur Geforce kauft, wenn sie schon über $1000 ausgibt. Ist das so schwer zu verstehen? Da müßte AMD schon echt ne Top-Architektur mit 25% mehr Performance rausdrücken als NVs Top-Produkt, wie die 9700 damals, damit die in diesen Markt eindringen können. Da AMD aber keine Grafikkartencompany sondern eine CPU-Company ist, passiert das halt nicht. Das einzige, was man jetzt nur noch will, ist an dem Markt möglichst stark mitverdienen. Also läßt man NV das Top-Produkt und profitiert von den hohen Monopolpreisen, die NV abruft, genau wie jetzt eben. Die Kunst bei der Taktik ist die Kosten für Entwicklung und Chipfertigung so niedrig wie möglich zu halten.

Wäre mal interessant wie hoch die Anteile der jeweiligen Graka Besitzer sind, welche zu den Gesamtanteilen beigetragen haben...
0,64% = 100% der 4090 Besitzer
0,63% = 0,1% der 970 Besitzer

...

HOT
2023-08-04, 22:35:24
ATI/AMD haben übrigens eine insteressante Geschichte von gecancelten oder gar nicht gestarteter Entwicklung von Top-Projekten, die für PC nicht erfolgversprechend waren.
- R400/500 (2004 und 2005) wurden gecancelt, stattdessen 2 R300-Refreshes (X-Serie, X8xx und X1xxx)
- R600 (ca. 1 Jahr zu spät) weit hinter den Erwartungen, mußte durch Refresh repariert werden
- R700 wurde als 2x RV770 ausgeführt, nicht als Enthusiasten-Chip
- 32nm-Varianten von Cayman wurden sehr früh (seitens TSMC) gecancelt, dadurch Chip in 40nm kleiner als geplant und verzögert
- Canceln von Bermuda und Ersatz durch den 3. Pitcain-Aufguß, Tonga stiefmütterlich released, Verspätungen
- Fiji zwar released, mit deutlicher Verspätung, nur 4GB war krasse Fehlplanung
- Greenland zwar released aber unpassendes Produkt, ist halt primär ein Compute-Chip, Verspätung und Teamausdünnung
- RDNA1 nur als Mainstreamlösung
- RDNA3 hinter den Erwartungen (MMn Zügel bei Entwicklungskosten zu straff angezogen und Planung zu sehr auf Kostenoptimierung bei Fertigung)
- RDNA4 nur als High-End-Lösung, keine Enthusiasten (zu ehrgeizige Ziele, zu stark auf Kostenoptimierung geplant, 3 GCDs mMn einfach dämliche Planung).

RDNA erinnert ein bisschen an Terascale und GCN. Auf jeden Fall geht das Elend wieder los.
- N41 und 42 werden ja auf dem GDC basiert haben, beide natürlich jetzt gecancelt
- N43 und 44 dürften eh N4 monolithisch sein, die dürfte Ende 2024, Anfang 25 auch erscheinen.
- Ersatzchip für N41 und 42 wird in Planung sein jetzt, frühester Release dann Mitte 25.

Die werden schon irgendwas als Ersatz machen für die gecancelten Chips, aber dadurch kommts mal wieder zu Verzögerungen und mehr als ne 8800XT würd ich diesmal nicht erwarten - und die kommt spät. Zu AMDs Glück ist auch NV spät dran dieses Mal. Mit RNDA4 ist man mal wieder sehenden Auges in die Katastrophe gelaufen.
Ich hielt schon die Konzentration auf Packdichte bei RDNA3 für dämlich, die paar mm² hätte man gehabt. Aber dieses auf Kosten getrimmte Chiplet-Gebammel konnte mMn so nicht funktionieren. Die Konsolengenerationen sind immer toll, aber abseits davon beginnt das rumgewurste von Neuem.

Langlay
2023-08-04, 23:54:03
Red ich chinesisch? Der Markt ist toll für NV aber scheiße für AMD, weil die Kundschaft nur Geforce kauft, wenn sie schon über $1000 ausgibt. Ist das so schwer zu verstehen? Da müßte AMD schon echt ne Top-Architektur mit 25% mehr Performance rausdrücken als NVs Top-Produkt, wie die 9700 damals, damit die in diesen Markt eindringen können. Da AMD aber keine Grafikkartencompany sondern eine CPU-Company ist, passiert das halt nicht. Das einzige, was man jetzt nur noch will, ist an dem Markt möglichst stark mitverdienen. Also läßt man NV das Top-Produkt und profitiert von den hohen Monopolpreisen, die NV abruft, genau wie jetzt eben. Die Kunst bei der Taktik ist die Kosten für Entwicklung und Chipfertigung so niedrig wie möglich zu halten.


Natürlich die blöden Kunden sind schuld die immer nur Nvidia kaufen. AMD ist an der Situation halt auch selber schuld. Immer nur suboptimal abliefern reicht halt nicht. Den Ruf den AMD bei Grafikkarten haben sie sich halt auch hart erarbeitet. Featuremässig ist man seit Jahren nur am hinterher laufen. Und die Punkte(z.b. SoftPowerPlayTables) wo AMD wirklich besser war als Nvidia die hat man im Laufe der Zeit auch zu Grabe getragen. Gefühlt ist AMD doch in letzter Zeit zu einem "Nvidia in schlecht" verkommen.

Wenn man halt auf dem Markt was reißen will muss man halt auch mal kontinuierlich abliefern und das hat AMD die letzten 10 Jahre halt nicht getan. Und der market share in Zukunft wird sicherlich nicht besser werden wenn man den gleichen Kurs wie seit 10 Jahren weiterfährt. Ist halt Tod auf Raten und der Graka Markt könnte ein starkes AMD Angebot brauchen.

Exxtreme
2023-08-05, 00:01:17
Gefühlt ist AMD doch in letzter Zeit zu einem "Nvidia in schlecht" verkommen.


Wobei man fairerweise sagen muss, wenn AMD was bringt dann will das niemand. Oder gab es irgendwo großartig Spiele mit Truform oder Mantle?

Langlay
2023-08-05, 00:07:06
Wobei man fairerweise sagen muss, wenn AMD was bringt dann will das niemand. Oder gab es irgendwo großartig Spiele mit Truform oder Mantle?

Mantle war tatsächlich ganz nice, ist ja dann in Vulkan aufgegangen und hat den Stein für DX12 ins Rollen gebracht. Mantle würde ich tatsächlich als einen der Erfolge von AMD sehen. Auch wenn Mantle selbst kaum Verbreitung gefunden hat. Aber es war immerhin etwas was die Entwicklung auf dem Gesamtmarkt deutlich voran gebracht hat.

Truform ist ewig her und damals war AMD beim Marktanteil auch noch nicht so abgeschlagen wie heute.

https://i.imgur.com/A2WUozD.png

https://www.3dcenter.org/artikel/grafikkarten-marktanteile-2002-bis-2010

HOT
2023-08-05, 08:51:48
Natürlich die blöden Kunden sind schuld die immer nur Nvidia kaufen. AMD ist an der Situation halt auch selber schuld. Immer nur suboptimal abliefern reicht halt nicht. Den Ruf den AMD bei Grafikkarten haben sie sich halt auch hart erarbeitet. Featuremässig ist man seit Jahren nur am hinterher laufen. Und die Punkte(z.b. SoftPowerPlayTables) wo AMD wirklich besser war als Nvidia die hat man im Laufe der Zeit auch zu Grabe getragen. Gefühlt ist AMD doch in letzter Zeit zu einem "Nvidia in schlecht" verkommen.

Was hat das denn mit blöden Kunden zu tun? Die Kunden in dem Bereich sind eben Markenbewußt, willst du das abstreiten?
Dieser Kleinscheiss wie PPT hat nichts mit AMDs Ruf zu tun. Hier im Forum vielleicht, aber garanteirt nicht da draußen. Im Gegenteil, da ist der Ruf der Radeons eher besser geworden. Trotzdem halten sich die Leute im Hochpreisbereich eher an Marken - oder im Falle vielen asiatischen Völkern - kaufen erst gar keine Radeons. Das hat generell was mit Marketing und Markenmanagement zu tun, NV hat hier teilweise Monopolstellung und man kann sich nicht mal ne Alternative vorstellen. Das würd ich doch nicht den Menschen ankreiden, so ein Quiatsch. Das passiert halt, wenn man Jahrzehnte lang nur versucht mitzuspielen aber nicht die Initiative zu übernehmen.

Wenn man halt auf dem Markt was reißen will muss man halt auch mal kontinuierlich abliefern und das hat AMD die letzten 10 Jahre halt nicht getan. Und der market share in Zukunft wird sicherlich nicht besser werden wenn man den gleichen Kurs wie seit 10 Jahren weiterfährt. Ist halt Tod auf Raten und der Graka Markt könnte ein starkes AMD Angebot brauchen.
Das ist aber genau das, was AMD nicht will. Das würde sehr viel mehr Ressourcen kosten als AMD bereit ist dafür einzusetzen. AMD ist nunmal in erster Linie CPU-Hersteller (jetzt mit KI-Ambitionen, was auch gut so ist), der alle 6,7,8 Jahre mal ne konkurrenzfähige Grafikarchitektur raushaut - warum wohl.

robbitop
2023-08-05, 09:39:24
Eine Marke baut sich nicht allein durch Werbung auf. Wer sowas glaubt ist naiv. Tue gutes und rede darüber. PR tut letzteres. Aber die Produkte sind in Sachen Performance, Lautstärke, Features und Stabilität halt schon sehr lange besser (die besten am Markt) und konsistenter.
Das hat man sich halt erarbeitet durch konsistentes Abliefern über viele Generationen.
Für den Markt ist das doof weil es zu einem quasi Monopol führt.
Aber allein durch PR/Werbung wird niemand zum Marktführer.

HOT
2023-08-05, 09:57:50
Vollkommen richtig.

Tangletingle
2023-08-05, 10:10:53
Ach kommt. Im asiatischen Raum und USA steht GeForce synonym für spielfähige Grafikkarte. Schon seit ATI noch ATI war. Da kann AMD machen was sie wollen. Selbst 2-3 Generationen Haloprodukte wurden da nichts daran ändern. Mich wundert gar nicht, dass sich AMD jetzt auf Computer fokussiert.

HOT
2023-08-05, 10:16:44
Ja aber das kommt natürlich auch von Kontinuität, da stimme ich den Vorschreibern zu.

horn 12
2023-08-05, 10:17:03
@Hot

Die GPU Chips Generations-Jahre gut aufgeschlüsselt...
dennoch muss man festhalten:

So schlecht wie alle tun ist eine 7900XT und auch eine 7900XTX nicht
Habe selbst die AMD Referenz und könnte eine Retournierte XTX Gigabyte Gaming OC unter 900 Euro bekommen!
Red Redemption II ist so ein Game wo man das Untervolting extrem gut ausloten kann und ob sich AMD mit RDNA 4 nur noch auf die Zweitschnellste NV 5080 Grafikkkarte Fokusiert ist auch nicht weiter schlimm wenn man die Hausaufgaben die noch anstehen mal wirklich angeht oder Bereits angegangen ist/ und vor der Veröffentlichung stehen.

HOT
2023-08-05, 10:18:34
Die 7900XT(X) ist nicht vergleichbar mit Fiji oder anderen Katastrophen, das ist korrekt. Man wird mit den GPUs 0 Probleme in den neuen großen Engines haben wie UE5, die Ressourcen sind alle da. Bei N3x gehts ausschließlich um die verfehlten Ziele bei Perf/W.

gruntzmaker
2023-08-05, 10:42:53
www.finanzen.net/nachricht/aktien/ausblick-fuer-ki-chip-ueberstrahlt-schwache-zahlen-von-amd-12696006

Man muss in dem Zusammenhang einfach auch akzeptieren, dass Gaming für AMD verstärkt zu einer Nische wird. Die Instinct Beschleuniger sind aber auch eine gute Grundlage, um in Zukunft sicher auch GPUs herzustellen. Dann aber eben mit KI Features im Mittelklasse Bereich und Konsolenbereich.

Insofern verstehe ich die ganze Aufregung nicht so recht. AMD macht es aus wirtschaftlicher Sicht seit Jahren nun schon sehr ordentlich. Dass da Gaming hinten runter fällt, liegt auch ein wenig an Nvidia.
[AMD ist immer noch recht stark im Do it Yourself Bereich - daher ist diese meine Aussage nicht falsch zu verstehen, sondern eine Betrachtung mit spitzem Bleistift]

Deren Übermacht wird sich nun zu einem Quasi-Monopol im High-End Bereich aufwachsen. Die Tendenz dafür war aber schon davor zu sehen.

Meinen Nvidia Aktien gefällt das gut, meinen AMD Aktien aber auch und ich kann damit der Sache natürlich viel abgewinnen. Aber würde ich noch besonders viel spielen, würde ich im Strahl brechen. Zum Glück bin ich inzwischen ein alter Sack 😉.

Amd muss man nicht bemitleiden, nur die PC Spieler. Ich sehe schon eine Rtx 5090 für 3000 € am Horizont. Best in Slot-Adel verpflichtet eben.

Neurosphere
2023-08-05, 12:30:37
Die Strategie ist allerdings trotzdem merkwürdig.

Gerade weil man ja sieht das AMD nicht viel Wert auf Mid und Low End legt mit Navi 3x, sonst wären die Dinger schon draußen.

Mögliche weitere Erklärung, High-End bedeutet bei AMD nicht die Top-Chips. Selbst RX 7700 und 7800 fallen ja nach den letzten Aussagen von Lisa Su unter "Enthusiast". 7900 unter "Ultra-Enthusiast". Wir haben ja immer Infos von Leakern die scheinbau auch nur stille Post Quellen bei den Firmen haben.

gruntzmaker
2023-08-05, 12:40:44
Die Strategie ist allerdings trotzdem merkwürdig.

Gerade weil man ja sieht das AMD nicht viel Wert auf Mid und Low End legt mit Navi 3x, sonst wären die Dinger schon draußen.

Mögliche weitere Erklärung, High-End bedeutet bei AMD nicht die Top-Chips. Selbst RX 7700 und 7800 fallen ja nach den letzten Aussagen von Lisa Su unter "Enthusiast". 7900 unter "Ultra-Enthusiast". Wir haben ja immer Infos von Leakern die scheinbau auch nur stille Post Quellen bei den Firmen haben.

Ich denke "Tante Su" hält den Laden schon gut zusammen und bleibt AMD hoffentlich noch ein bisschen länger erhalten. Die Erklärung mit der "Ultra Enthusiast" Einteilung kann auch treffend sein. Vielleicht verfolgt AMD in Zukunft einfach nur eine Strategie mit weniger Modellen. Dann ist die Aufregung aber noch weniger zu verstehen imho.

Trotzdem KI frisst derzeit viel vom Gaming Bereich auf. Aber das gilt ja bei Nvidia genauso. Eine Steigerung des Umsatzes um das Siebenfache, da sieht die Gamingsparte immer schlecht aus und jeden Euro kann so eine Firma nunmal nur einmal ausgeben. Da sieht es für Spieler leider "düster" aus.

HOT
2023-08-05, 12:48:36
Ich könnt mir auch vorstellen, dass die Entwicklung der KI-Beschleuniger auch die GPU-Architekturen stark beeinflussen wird, das muss nicht mal nachteilhaft sein. Vielleicht ist die Konzentration auf weniger Chips pro Generation ebenfalls ne gute Sache, eigentlich niemand braucht 450W-Grafikkarten in der Zukunft, allerdings hätte man als Spieler auch gerne die Option...

BlacKi
2023-08-05, 13:14:53
die aussage von uzzi38 find ich echt schwierig.
https://videocardz.com/newz/amd-rumored-to-be-skipping-high-end-radeon-rx-8000-rdna4-gpu-series
erst reißt amd seine ziele zu rdna 3, dann preist amd seine produkte nicht tief genug, selbst gegen die last gen, dann reißen sie ihre software termine. aber hey, die kunden sind schuld. die kaufen nicht die "schlechten" produkte des zweitstärksten herstellers.

sicher sehe ich es auch so, das amd beim preisdumping nur geld verliert, aber deshalb wird noch lange nicht n41/n42 gecancelt.

eigentlich war das chiplet design dazu ausgelegt, günstiger hohe performance zu bringen. das nun ausgerechnet diese gecancelt werden liegt aber eher am chiplet design, das wohl doch nicht profitabel genug ist um es fortzuführen. das liegt aber nicht am kunden, der hätte gerne günstig viel leistung und damit hätte amd seine verkaufszahlen.

HOT
2023-08-05, 13:22:46
Ersteres hat mit letzterem nichts zu tun. Wenn die N41/2 canceln, dann weil die Projekte schief gelaufen sind oder die Produktstrategie stimmte nicht. Bei GPUs sind Chiplets problematisch, vor allem ohne stacking, wie RDNA4 ja offenbar geplant war. Ich schrieb ja, das war von Anfang an ne Schnapsidee. Wenn brauchst du TSVs um die Latenzen zu negieren und zusätzlichen Stromverbrauch zu vermeiden, aber um eine monolithische Basis kommt man nicht herum.

Die Softwareprobleme sind rein temporär, das wird sicherlich ab einem Zeitpunkt kein Problem mehr sein.

Janos
2023-08-05, 13:38:59
Ihr hört euch an, als wäre es schon offiziell von AMD bestätigt, dass es mit Navi41/42 nichts wird.
AMD hat mittlerweile genügend R&D Budget um mehrere Ansätze gleichzeitig zu verfolgen und "aufgeben" und Lisa Su passt auch nicht zusammen.
Sollte es doch stimmen, scheint mir AMD hier eher das für High-End DIY vorgesehene Wafer Kontingent im Data Center verkaufen zu wollen.

Es kann auch einfach nur eine Finte sein, um der Absatz von Navi31 zu fördern.
Das war zumindest mein erster Reflex gestern, als ich das Video von RGT gesehen hatte.

OgrEGT
2023-08-05, 14:00:23
Unbestritten kann man sagen dass NV bei dGPUs Marktführer mit der schnellsten Single GPU ist und das in der ersten Linie durch die Produkte über viele Generationen hinweg.

Wobei man aber auch sagen muss, dass man auch gute Grafikkarten anbeiten kann ohne Marktführer zu sein. 7900XT und XTX sind aktuell durchaus gute und konkurrenzfähige Karten im Vergleich zu 4070ti - 4080 wenn man nicht maximales RT benötigt.

Man darf gespannt sein ob das Gerücht AMD zu einer Stellungnahme bringt...

https://videocardz.com/newz/amd-rumored-to-be-skipping-high-end-radeon-rx-8000-rdna4-gpu-series
AMD did not comment on the matter, Scott Herkelman did not reply to our tweet asking for confirmation. We will update this post should that change.

aufkrawall
2023-08-05, 14:15:45
Die 7900XT(X) ist nicht vergleichbar mit Fiji oder anderen Katastrophen, das ist korrekt. Man wird mit den GPUs 0 Probleme in den neuen großen Engines haben wie UE5, die Ressourcen sind alle da.
Das liegt aber in erster Linie an der Engine-Optimierung und dann noch etwas an besseren Treibern als früher. Nicht, weil die Hardware so bestechen würde.

amdfanuwe
2023-08-05, 14:22:46
Sollte es doch stimmen, scheint mir AMD hier eher das für High-End DIY vorgesehene Wafer Kontingent im Data Center verkaufen zu wollen.

Seh ich auch so. MI300 braucht nächstes Jahr alle Ressourcen.

AffenJack
2023-08-05, 14:32:45
AMD hat mittlerweile genügend R&D Budget um mehrere Ansätze gleichzeitig zu verfolgen und "aufgeben" und Lisa Su passt auch nicht zusammen.
Sollte es doch stimmen, scheint mir AMD hier eher das für High-End DIY vorgesehene Wafer Kontingent im Data Center verkaufen zu wollen.


Was hilft es viele mittelmäßige R&D Ansätze gleichzeitig zu verfolgen, die man nicht verkaufen kann? R&D Ausgaben sind endlich und Nvidia und Intel haben ebenso eine Menge Ressourcen. Wenn ich als Firma nun vor der Entscheidung stehe meine Ressourcen dafür zu verwenden 200 Mio $ im Quartal zu machen im Gaming oder 2 Mrd$ im AI Bereich ist die Sache klar.

Mit den Waferressourcen seh ich da gar nicht das Problem. Ich denke man schmeißt einfach alle Entwicklungsressourcen die man opfern kann in AI und deshalb mussten die großen Gaming Chips dran glauben (wenn es denn stimmt). Kann mir das sogar als nen ziemlich kurzfristigen Strategieschwenk jetzt vorstellen, obwohl schon einiges entwickelt war. Prio hätte dann Mi400.

Edit: An Packaging hab ich gerade gar nicht gedacht. TSMC sagt ja erst in 18 Monaten werden die Packagingkapaziätten besser. Das könnte statt Wafern tatsächlich doch auch ein Problem sein, da es für Consumerchips keine Kapazitäten zu kaufen gibt.

BlacKi
2023-08-05, 15:13:47
aber liegt die marge bei den teuren karten nicht höher? wenn man also kein material oder kapazitäten hat, dann arbeitet man an den produkten mit der höchsten marge.

R&D kosten sind höher, aber ich frag mich was amd mit dem ganzen geld gemacht hat das es in der cryptophase gemacht hat. die gpu sparte hat sich dumm und dämlich verdient.

Zossel
2023-08-05, 15:49:37
R&D kosten sind höher, aber ich frag mich was amd mit dem ganzen geld gemacht hat das es in der cryptophase gemacht hat. die gpu sparte hat sich dumm und dämlich verdient.

Frag die Händler, nicht den Hersteller.

Zossel
2023-08-05, 15:51:09
Ich finde sein T-Shirt mit dem langen Haar viel schlimmer. Der guckt nichtmal in den Spiegel bevor er ne Aufnahme macht.

Vielleicht wäre Instagram eher was für dich.

TheAntitheist
2023-08-05, 16:18:42
AMD wird einfach für RDNA4 Geld sparen wollen weil erst RDNA5 wieder für die Konsolen genutzt wird und da muss man ordentlich nachlegen, sonst geht das Konsolengeschäft auch noch flöten. Das macht ja immerhin 20% von AMDs Umsatz aus

HOT
2023-08-05, 16:22:17
Das liegt aber in erster Linie an der Engine-Optimierung und dann noch etwas an besseren Treibern als früher. Nicht, weil die Hardware so bestechen würde.
Das ist nicht korrekt aus meiner Sicht. Die Hardware bringt alles mit, das ist nicht nur Software.
Es ist eben nicht sonderlich Energieeffizint ggü. der Konkurrenz, das ist alles. Wahrscheinlich wäre Ada auch nicht effizienter gewesen, wenn die in 4LPP gekommen wären.

Und es gibt natürlich Defizite bei Übertreibungen, wie CP77.

AMD wird einfach für RDNA4 Geld sparen wollen weil erst RDNA5 wieder für die Konsolen genutzt wird und da muss man ordentlich nachlegen, sonst geht das Konsolengeschäft auch noch flöten. Das macht ja immerhin 20% von AMDs Umsatz aus

So funktioniert das nicht. Der Konsolenzyklus ist sakrosankt von Einsparungen oder sowas, da wird gebuttert, was man Ressourcen zur Verfügung hat.

aufkrawall
2023-08-05, 16:30:19
Das ist nicht korrekt aus meiner Sicht. Die Hardware bringt alles mit, das ist nicht nur Software.

Kann auch sein, dass Lumen wie Müll auf RDNA3 liefe, falls es für eine etwaige Ampere-GPU in Konsolen entwickelt worden wäre. ;)
AMD hat das mit den Konsolen und expliziten APIs schon geschickt gemacht, bei einem Bruchteil des R&Ds nicht völlig von der Bildfläche zu verschwinden.

Die Hardware bringt eben nicht alles mit. Es dürfte mit Alan Wake 2 mit RT wieder einen drauf geben, und die fehlenden TCs bzw. fehlendes besseres TAAU, ob mit oder ohne DL, sind auch nicht entschuldbar. DLSS und XeSS glätten diverse Effekte zigfach besser, selbst die regulären Shadow Maps in Ratchet & Clank...

TheAntitheist
2023-08-05, 16:46:10
So funktioniert das nicht. Der Konsolenzyklus ist sakrosankt von Einsparungen oder sowas, da wird gebuttert, was man Ressourcen zur Verfügung hat.
das stimmt doch nicht... AMD hat X Leute die immer an den GPUs entwickeln. Man kann die auf RDNA4 ansetzen oder jetzt schon RDNA5 teilweise entwickeln lassen. Alle Firmen entwickeln mehrere Generationen überlappend, der Fokus verschiebt sich nur.

Du denkst dir doch einfach was aus und ich versteh nicht was das soll. Woher soll man denn dann die Leute nehmen für RDNA5? Wie soll denn da richtig "reingebuttert" werden? macht da die Putzfrau und die Buchhaltung dann mit? ;D

BlacKi
2023-08-05, 18:55:17
Frag die Händler, nicht den Hersteller.natürlich könnte man das auch umformulieren. das geld das amd hatte hat amd jetzt nichtmehr, weil der hype abgeebbt ist, deshalb wieder sparkurs. dennoch hat amd die gewinne scheinbar nicht so nutzen können wie erhofft.

DrFreaK666
2023-08-05, 21:59:30
AMD besteht nicht nur aus Radeon. Xilinx wurde nicht für die Gaming-Sparte übernommen

BlacKi
2023-08-05, 22:08:34
worauf willst du hinaus? du deutest etwas an. aber was?

Nightspider
2023-08-05, 22:23:37
Vielleicht bringt AMD dann Ende 2025 / Anfang 2026 ein BigGCD als Navi40 um Nvidia eben zur Halbzeit in den Arsch zu treten. ^^

Hoffen kann man ja :D

TheAntitheist
2023-08-06, 03:27:03
Vielleicht bringt AMD dann Ende 2025 / Anfang 2026 ein BigGCD als Navi40 um Nvidia eben zur Halbzeit in den Arsch zu treten. ^^

Hoffen kann man ja :D
wird 100% nicht passieren und wundere mich auch warum man darauf hofft das sie Nvidia in den Arsch treten. Nvidia pushed doch hart jede Technologie und AMD macht genau das Gegenteil...

Ich hoffe AMD ändert diesen Ansatz, wird wieder innovativ und geht auch mal Risiken ein. Dann könnte sich auch mal ein Erfolg einstellen, siehe Ryzen. Alles auf eine Karte gesetzt. Ohne Ryzen wäre AMD jetzt Pleite (AMDs Aussage)

ChaosTM
2023-08-06, 04:08:32
Mit der 7000er Serie hat AMD ihre Gesellenprüfung bezüglich GPU Chiplet Design abgeliefert.

Das fiel noch unter die Rubrik "Lernen" so wie die ersten Ryzen CPUs.

Wenn sich Lisas intelligente Führung fortsetzt, wird die nächste Chiplet Based GPU so richtig gut.
Zwar immer noch nicht vor NV, aber recht nah dran..

add.: NV muss früher oder später auch Chiplets einsetzten und dann könnte der Knackpunkt für AMD kommen..
Ich erwarte das aber noch nicht bei der nächste Gen. Da wird man noch auf altbewährtes, monolithisches Design setzen

DozerDave
2023-08-06, 06:07:32
Vielleicht wäre Instagram eher was für dich.

Der Kollege macht seine Aufnahmen wie seine Recherchen: „gründlich“.

Nightspider
2023-08-06, 06:19:31
Nvidia pushed doch hart jede Technologie und AMD macht genau das Gegenteil...

Ich hoffe AMD ändert diesen Ansatz, wird wieder innovativ und geht auch mal Risiken ein. Dann könnte sich auch mal ein Erfolg einstellen, siehe Ryzen. Alles auf eine Karte gesetzt. Ohne Ryzen wäre AMD jetzt Pleite (AMDs Aussage)


AMD pusht den Datacenter/HPC und Consumer Bereich enorm und investierte in den letzten Jahren extrem viel (Zeit und Geld) in die AMD Instinct Reihe.
MI300 ist extrem komplex.

Wenn du der Meinung bist AMD pushed keine Technologien dann ist das mindestens dumm formuliert.

Du musst halt sehen das die anderen Bereiche viel ertragsreicher und wichtiger für AMD sind als die Gamer.
Wenn AMD keine highend GPU pusht dann weil sie keine Zeit dafür haben.

Würden die Zen Designteams der Radeon Group mal wieder unter die Arme greifen würde dort die Architektur bestimmt einen riesigen Sprung machen können.

Aber AMD versucht gerade auf 10 Hochzeiten gleichzeitig zu tanzen

-Custom Konsolen Chips
-Handheld APUs
-Mobile APUs + demnächst BigAPUs
-Zen Architektur
-CDNA Architektur
-RDNA Architektur
-hybride Chiplet Architekturen
-AI
-Xilinx Neuentwicklungen (und wahrscheinlich auch das horizontale integrieren von KnowHow in beiden Richtungen)

Ihnen fehlt es vor allem an Personal bei den ganzen Projekten.
Dank der neuen Möglichkeiten des Stackings haben die Ingenieure wahrscheinlich hunderte Ideen für neue Architekturen aber sie müssen zeitlich immer an allen Fronten mit der Konkurrenz konkurrieren.

fondness
2023-08-06, 09:17:04
MI300 ist extrem komplex.


MI300 ist nicht nur extrem komplex, MI300 ist technologisch mindestens eine Stufe vor dem, was Nvidia & Intel zu liefern imstande sind.

Aber AMD versucht gerade auf 10 Hochzeiten gleichzeitig zu tanzen


Auch das ist richtig. AMD hat das größte Portfolio von allen, sie decken sowohl den CPU, als auch den GPU & FPGA-Bereich vollständig ab. Das schafft weder Intel und schon gar nicht Nvidia. Eine Fokussierung ist da nur logisch, zumal man nach wie vor die kleinsten RnD-Ausgaben von den dreien hat, wenn auch tendenziell stark steigend.

Linmoum
2023-08-06, 10:01:08
Sie haben auch schon auf etlichen Hochzeiten getanzt, als sie kaum in R&D investiert haben (weil es nicht möglich war). Das ist jetzt kein Umstand, der neu ist. Margen steigen, Umsatz steigt, Gewinne steigen, R&D steigt und AMD konnte auch wieder mehr Personal einstellen.

"Fortschrittliche Hardware" sollte davon ab am Ende auch einen Mehrwert bieten, was es zumindest bei RDNA3 nachweislich nicht tut. Man muss hier ~520mm^2 an gesamter Die Size aufwenden, um mit 379mm^2 der Konkurrenz konkurrieren zu können. Zusätzliche Kosten wie fürs Packaging mal außen vor. Da ist weder irgendwas mit Kostenvorteil und vor allem - was eigentlich noch viel schlimmer ist - hat AMD daraus überhaupt keinen TTM-Vorteil ziehen können. Wir haben August und N32 ist nicht nur noch nicht erhältlich, sondern noch nicht mal offiziell vorgestellt. Nvidia haut einen Mono-Die nach dem anderen raus und AMD hingegen schafft das nicht mal trotz reusing der MCDs.

Wofür dann überhaupt Chiplets? Bringt dem potentiellen Käufer und Gamer - also der Zielgruppe - überhaupt nichts. Dann sollte man sowas erst bringen, wenn es auch tatsächlich marktreif ist. Das war/ist bei CPUs nämlich anders.

Vermutlich ist das dann diesmal auch ein entscheidender Grund, warum es kein "High-End" bei RDNA4 gibt. AMD will keine größeren Mono-Dies mehr bauen, andererseits haben sie dann vermutlich aber zwischenzeitlich festgestellt, dass mehrere GCDs schlicht noch nicht funktionieren.

Allerdings hab ich jetzt auch schon hier und da gelesen (u.a. Bondrewd aka whatever er gerade für Usernamen hat), dass das ggf. in dem Fall auch ein Zeitproblem aka TTM bei RDNA4 ist (gewesen wäre?). Wenn das dann bedeutet hätte, dass N41/N42/N40/whatever ähnlich spät wie jetzt N32 auf den Markt kommen, dann könnte man das sogar verstehen, wenn AMD hier komplett den Rotstift ansetzt, solange es noch möglich ist. Das wäre vom Launchzeitraum her hintenraus dann vermutlich viel zu nah an RDNA5 dran.

Unabhängig von alledem bringt Fortschrittliche Hardware allein aber auch nichts, wenn man auf der anderen Seite die Software vernachlässigt. Wie AMD hier Nvidia gnadenlos hinterherhechelt - und mal ganz ehrlich und nüchtern, die Ankündigung von FSR3 war ein spontaner Schnellschuss, weil man auf FG regieren musste bzw. wollte - ist echt nicht mehr lustig. Reflex gibt's auch schon bald drei Jahre, da kommt von AMD ebenfalls immer noch gar nichts.

HOT
2023-08-06, 10:13:17
Wenn AMD in die MI-Serie soviel R&D steckt wird das letztendlich auch RDNA zugute kommen. Das Schöne bei all diesen Produkten ist ja, dass man ganz viele Synergien nutzen kann.

robbitop
2023-08-06, 10:19:13
Naja die Packagetechnologie kommt eigentlich von TSMC. Die uArch der GPU ist bei NV sicherlich nicht hinten dran. CPU lizensiert NV zwar nur aber die Neoverse ARM IP sollte man nicht unterschätzen.
Das Gesamtprodukt MI300 ist natürlich beeindruckend und komplex - das will ich nicht kleinreden. Aber NV hat bis auf den fpga ähnliche IP zur Verfügung wenn sie wollen.

OgrEGT
2023-08-06, 10:33:11
Meine Güte... bislang ist es ein unbestätigtes Gerücht von dem wir gar nicht wissen ob es überhaupt stimmt. Die Quelle des Gerüchts bzw. die Originalaussage ist ebenfalls nicht bekannt...

Linmoum
2023-08-06, 10:36:06
Deswegen sind wir hier ja auch im Spekuforum.

OgrEGT
2023-08-06, 10:38:45
Das ja... aber gleich den Weltuntergang zu beschwören muss ja auch nicht sein... Wir wissen zu RDNA4 noch so gut wie nichts...

horn 12
2023-08-06, 10:42:34
Somit wäre ein N43 wohl kaum schneller als eine 7900XTX und Letztere würde dann über Jahre das Top Produkt für AMD Bleiben, sprich mindestens bis Mitte/ oder gar Ende 2025.

Platos
2023-08-06, 10:43:44
Das ja... aber gleich den Weltuntergang zu beschwören muss ja auch nicht sein... Wir wissen zu RDNA4 noch so gut wie nichts...

Das ist hier Gang und Gäbe :D

Wird hier immer so gemacht. Aus einem Furz wird ne Lebensmittelvergiftung kreirt.

Andererseits muss man sagen: Bei welchem Gerücht der letzten Jahre wurde die Quelle offengelegt? Das passiert logischerweise nie, sonst wäre fie Quelle ja bald Geschichte...

Gerüchte muss man immer einschätzen können. Es gibt nie eine Angabe der Originalquelle, die über "Mitarbeiter von xyz" hinausgeht.

HOT
2023-08-06, 10:45:56
Genauso wie das Canceln der beiden großen Produkte gibts ja ein neues "mittleres" Produkt mit 120CUs. Man wird auf jeden Fall nicht leer ausgehen und sowas wie die RX5700XT wirds auch nicht, das war von anfang an blödes Gequatsche aus meiner Sicht. Also selbst wenn das stimmt mit dem canceln der großen Chips gibts ja nen neuen großen Chip als Ersatz, der nicht ganz so ambitioniert ist und ca 1/2 Jahr später erscheint. Das ist ja kein großartiger Nachteil, außer, dass man nicht mehr mit dem BW102 konkurrieren kann, was man aus meiner Sicht auch gar nicht muss.

Linmoum
2023-08-06, 10:46:28
Gang und Gäbe ist bei AMD eigentlich in 9/10 Fällen die Erwartung im Voraus, dass Nvidia vernichtet wird und AMD das nächste große Ding raushaut.

HOT
2023-08-06, 10:47:24
Gang und Gäbe ist bei AMD eigentlich in 9/10 Fällen die Erwartung im Voraus, dass Nvidia vernichtet wird und AMD das nächste große Ding raushaut.
Wo wir schon bei Gequatsche wären... Bei NV ist das jedes Mal so, dass die Erwartungen in den Himmel schießen und dann runtergeholt werden. Volta/Turing? Ampere? Alles vergessen? Aber komischer Weise vergessen das Leute wie du jedes Mal wieder. Bei nur AMD ist das dann schlimm.

The_Invisible
2023-08-06, 11:04:45
Marketing Blabla gibt's bei beiden nur das Nvidia deutlich öfter liefert... Dlss3 war zb vor Release gar nicht bekannt und man lieferte gleich Games, bei AMD wartet man noch immer auf fsr3.0...

BlacKi
2023-08-06, 11:15:21
Das ja... aber gleich den Weltuntergang zu beschwören muss ja auch nicht sein... Wir wissen zu RDNA4 noch so gut wie nichts...wenn du mit weltuntergang die zukunft des gpu chiplet design meinst, ja darüber spekulieren wir gerade. das es nur n43/44 geben wird, ist ansich kein weltuntergang. aber der angriff auf nv geht halt baden.

fondness
2023-08-06, 11:17:41
Naja die Packagetechnologie kommt eigentlich von TSMC.

Die Packagetechnologie ist aber nur ein Baustein, diese haben NV & Intel auch zur Verfügung, da sie ebenfalls bei TSMC fertigen. Es braucht allerdings auch CPU & GPU (& FPGA) Technologie, die tatsächlich den selben Speicher sharen können (und nicht nur Speicherbereiche aufteilt), es braucht zueinander kompatible CPU & GPU (& FPGA)-Designs, die auf verschiedensten Ebenen miteinander Interagieren können und es braucht ein Design dass wie MI300 13(!) Chiplets verbindet und alle diese Technologien zusammen fügt.


Die uArch der GPU ist bei NV sicherlich nicht hinten dran. CPU lizensiert NV zwar nur aber die Neoverse ARM IP sollte man nicht unterschätzen.
Das Gesamtprodukt MI300 ist natürlich beeindruckend und komplex - das will ich nicht kleinreden. Aber NV hat bis auf den fpga ähnliche IP zur Verfügung wenn sie wollen.

Alles was NV bislang liefert ist eine H100 GPU und bald eine lizensierte ARM-CPU dazu. Das ganze nichtmal auf dem selben Package, sondern völlig standalone. Und bzgl. FPGA: Ich gehe stark davon aus, dass bei MI300 bald auch ein FPGA-Chiplet dazu kommt.

Daredevil
2023-08-06, 11:44:03
Das ja... aber gleich den Weltuntergang zu beschwören muss ja auch nicht sein... Wir wissen zu RDNA4 noch so gut wie nichts...
Firmen wollen Profite und es ist wirklich kein 4D Schach, wenn man seine Produktionskapazitäten dorthin verlegt, wo man mehr Geld fürs gleiche Silizium verdienen kann. Der Markt ist extrem ungesättigt und Nvidia verdient sich dort eine goldene Nase. Die Fakten und die Marktlage hat sich verändert und demnach wäre es klug, wenn AMD ebenso ihre Strategie ändert und mehr auf Workstations setzt und halt nicht auf dem Gaming Markt, denn dort gibt es schlicht weniger zu verdienen.

Gamer haben Nvidia und AMD ebenso verurteilt, als der Mining Hype zugegen war und trotzdem hat AMD auf einmal eine RX570 mit 16GB vRAM aus dem Ärmel geschüttelt für eben diese Workloads. Die Moral der Gamer ist ihnen doch letzten Endes egal, auch nach dem Mining Hype wird noch wild gekauft und wenn die Leute her Konsolen kaufen, kaufen sie am Ende auch AMD oder NVIDIA.

Und der Fokus auf AI Beschleunigung ist übrigens auch für Gamer nicht verkehrt, wenn Spiele in Zukunft diese Technologie ebenso nutzen können, wie z.B. bei NPC Konversationen, zufällig generierte Level, interaktive Inhalte oder was auch immer.
Stell dir mal vor, Valve haut auf einmal AI generierte Statistiken raus, in welchen Maps bei CSGO du eher Probleme hast, wo du sehr gut bist, welche Trefferrate dir bei welchen Waffen in welchen Situationen gut liegt und du exakt bestimmen kannst, welches Training und welche Trainingserfolge du in den letzten Wochen erreicht hast.
Trainierte Modelle können das.

HOT
2023-08-06, 11:51:48
wenn du mit weltuntergang die zukunft des gpu chiplet design meinst, ja darüber spekulieren wir gerade. das es nur n43/44 geben wird, ist ansich kein weltuntergang. aber der angriff auf nv geht halt baden.
Das ist ja auch nicht der Fall, dass es nur N43/44 geben wird. Wer zu einem Gerücht a sagt muss zum anderen auch b sagen. Entweder man glaubt nicht an das canceln der N4x-Chips oder man glaubt an die 120CU-GPU, aber nichts wird AMD definitiv nicht machen. Ich weiß gar nicht, wie man darauf kommt. Wenn man sagt, AMD macht sowas wie 2019, dann geht das schlichtweg nicht mit N43/44. N43 ist der Nachfolger von N33, welcher kaum Mainstream ist und N44 der Nachfolger von N24. N43 dürfte kaum mehr als 40 CUs haben, das wäre maximal ein 8600 non-XT. Damit könnte man gar nichts anfangen, da muss was darüber kommen.



fondness
MI400 ist ja schon angeteasert, das geht jetzt Schlag auf Schlag. Jedes Jahr ein neues Produkt.

OgrEGT
2023-08-06, 11:53:55
wenn du mit weltuntergang die zukunft des gpu chiplet design meinst, ja darüber spekulieren wir gerade. das es nur n43/44 geben wird, ist ansich kein weltuntergang. aber der angriff auf nv geht halt baden.
Genau. Wir wissen nicht sicher ob und welche Chip(let)s gecancelled wurden. Wir wissen auch nicht wieviel Leistung die Chip(let)s (n)N4x haben...

OgrEGT
2023-08-06, 11:57:19
Das ist hier Gang und Gäbe :D

Wird hier immer so gemacht. Aus einem Furz wird ne Lebensmittelvergiftung kreirt.

Andererseits muss man sagen: Bei welchem Gerücht der letzten Jahre wurde die Quelle offengelegt? Das passiert logischerweise nie, sonst wäre fie Quelle ja bald Geschichte...

Gerüchte muss man immer einschätzen können. Es gibt nie eine Angabe der Originalquelle, die über "Mitarbeiter von xyz" hinausgeht.

Momentan weiß man noch nicht ob / von welchem Mitarbeiter aus welcher Abteilung wer / was gesagt hat... wenn es denn so gemeint und von wem wie verstanden wurde...

robbitop
2023-08-06, 12:13:32
Alles was NV bislang liefert ist eine H100 GPU und bald eine lizensierte ARM-CPU dazu. Das ganze nichtmal auf dem selben Package, sondern völlig standalone. Und bzgl. FPGA: Ich gehe stark davon aus, dass bei MI300 bald auch ein FPGA-Chiplet dazu kommt.
Ich sage nicht, dass sie es bislang liefern. Aber es gibt keinen Grund warum sie es nicht können sollten.

BlacKi
2023-08-06, 12:50:52
Wenn man sagt, AMD macht sowas wie 2019, dann geht das schlichtweg nicht mit N43/44. N43 ist der Nachfolger von N33, welcher kaum Mainstream ist und N44 der Nachfolger von N24. N43 dürfte kaum mehr als 40 CUs haben, das wäre maximal ein 8600 non-XT.


nehmen wir die 40cu, dann nehmen wir an, das rdna4 liefert das rdna3 nicht tat, dann haben wir eine performance der 7800xt. schau dir mal die performance zwischen der 6800xt und der 7800xt an, dann würde ich eher sagen, das n43 zur 8700xt wird.



wenn man bedenkt, das man die karten in 9 monaten bringen könnte, da die anderen chips wegfallen und NV nichts vor 2025 bringt, man also fast ein jahr früher als nv ist, dann könnte ich mir vorstellen, das rdna5 mit n51 schon mitte 2025 zu rechnen sein könnte. wenn man bis dahin das chiplet design perfektioniert hat, dann könnte man nv das halo produkt klauen.

Troyan
2023-08-06, 13:16:01
Alles was NV bislang liefert ist eine H100 GPU und bald eine lizensierte ARM-CPU dazu. Das ganze nichtmal auf dem selben Package, sondern völlig standalone. Und bzgl. FPGA: Ich gehe stark davon aus, dass bei MI300 bald auch ein FPGA-Chiplet dazu kommt.

Richtig. Alles was nVidia liefert ist etwas, was drei bis vier MI300 Karten ersetzt.

Das finde ich ziemlich beeindruckend. :eek:

fondness
2023-08-06, 13:25:16
Ich sage nicht, dass sie es bislang liefern. Aber es gibt keinen Grund warum sie es nicht können sollten.

Welchen Grund sollte es auch geben? Es gibt auch keinen Grund, warum AMD keine bessere gaming GPU als Nvidia liefert. Oder Intel. Nur weil es keinen Grund gibt, heißt es noch lange nicht, dass es einfach ist.

fondness
2023-08-06, 13:26:29
Richtig. Alles was nVidia liefert ist etwas, was drei bis vier MI300 Karten ersetzt.

Das finde ich ziemlich beeindruckend. :eek:

Zehn. Mindestens.

AffenJack
2023-08-06, 13:36:48
Die Packagetechnologie ist aber nur ein Baustein, diese haben NV & Intel auch zur Verfügung, da sie ebenfalls bei TSMC fertigen. Es braucht allerdings auch CPU & GPU (& FPGA) Technologie, die tatsächlich den selben Speicher sharen können (und nicht nur Speicherbereiche aufteilt), es braucht zueinander kompatible CPU & GPU (& FPGA)-Designs, die auf verschiedensten Ebenen miteinander Interagieren können und es braucht ein Design dass wie MI300 13(!) Chiplets verbindet und alle diese Technologien zusammen fügt.

Als wenn Intel ein Problem damit hätte bei Ponte Vecchio nen GPU Teil gegen einen CPU Teil auszutauschen. Ebenso hat jeder SoC Hersteller keine Probleme damit nen Chip zu bauen der CPU/GPU Memory shared. Mal abgesehen davon, dass die Nvidia dies bei Grace Hopper ebenso tut, obwohl nicht auf dem selben Package. Wenn sie wollten könnten sie die Memory Controller von Grace komplett abschaffen und nur auf den H100 Speicher zugreifen lassen. Das Ding hat volle Memory Coherency.

Jeder der drei hat gewisse Vorteile in bestimmten Bereichen. Z.B. MI300 ist immernoch weit hinter Nvidia in der GPU/GPU Kommunikation über Nodes hinweg und mit MI400 wird man sich hier etwas einfallen lassen müssen, denn mit Nvswitch ist Nvidia da konkurrenzlos.

amdfanuwe
2023-08-06, 13:40:36
Naja die Packagetechnologie kommt eigentlich von TSMC.
Die Packagetechnologie ist aber nur ein Baustein, diese haben NV & Intel auch zur Verfügung, da sie ebenfalls bei TSMC fertigen.
Was ich bisher mitbekommen habe, hat AMD aber kräftig an den Packagetechnologien mitgearbeitet und vorangetrieben.
Und AMD hat Erfahrungen in der Massenproduktion damit gesammelt:
Interposer - Fiji
EFoB - MI200
3D Metal on Metal - ZEN3 X3D
FanOut Package - RDNA3

Mal sehen, was bei MI300 kommt.

HOT
2023-08-06, 14:14:40
nehmen wir die 40cu, dann nehmen wir an, das rdna4 liefert das rdna3 nicht tat, dann haben wir eine performance der 7800xt. schau dir mal die performance zwischen der 6800xt und der 7800xt an, dann würde ich eher sagen, das n43 zur 8700xt wird.

;D:freak: Ja ne ist klar. Ein N43 packt vllt. 4060ti-Performance, wenn man viel Glück hat. Die Dinger sind eh N4, genau wie N33 N6 war. Da die aber 12GB brauchen werden und nur 128Bit haben ist ein Release auch der kleinen Chips noch in 24 pure Traumzänzerei, du brauchst 24Gbit-Speicher dafür.


wenn man bedenkt, das man die karten in 9 monaten bringen könnte, da die anderen chips wegfallen und NV nichts vor 2025 bringt, man also fast ein jahr früher als nv ist, dann könnte ich mir vorstellen, das rdna5 mit n51 schon mitte 2025 zu rechnen sein könnte. wenn man bis dahin das chiplet design perfektioniert hat, dann könnte man nv das halo produkt klauen.
Es kommt kein RDNA5 schon Mitte 25, was für ein Unsinn.

"N41v2" -> Mitte 25, N3E, (128-)256Bit, (2-)4 MCDs, (64-)128MB IF$, (4-)6SE -> (40-)60WGPs
N43 -> auch Mitte 25 (wahrscheinlich so lange verzögert), N4, 128Bit, monolithisch, 32MB IF$, 2SE -> 20WGP
N44 -> auch Mitte 25 oder gar noch später, N4, 64Bit, monolithisch, 16MB IF$, 1SE -> 10-12WGP

Würde ich mal spekulieren. Der Ersatzchip dürfte in N3E vllt. 250mm² haben, lässt sich hervorragend heruntersalvagen für die Produkte, die man braucht.

horn 12
2023-08-06, 14:30:07
Wie schnell schätzt du dann N41 V2 schlussendlich ein
und den Salvage Chip

7900XTX Plus 50% für Version 2 von N41
und Salvage 7900 XTX plus 30 bis 35% maximal.

Der_Korken
2023-08-06, 14:37:49
;D:freak: Ja ne ist klar. Ein N43 packt vllt. 4060ti-Performance, wenn man viel Glück hat. Die Dinger sind eh N4, genau wie N33 N6 war. Da die aber 12GB brauchen werden und nur 128Bit haben ist ein Release auch der kleinen Chips noch in 24 pure Traumzänzerei, du brauchst 24Gbit-Speicher dafür.


Wenn man davon ausgeht, dass RDNA4 die Zieltaktraten von >3Ghz erreicht (=15-20% Aufschlag auf die 7600), die neuen ALUs ein bisschen schneller sind (Dual-Issue hat bisher ja kaum was gebracht) und 20WGPs mal eben 25% mehr als 16 sind, wären 40-50% Performance-Boost auf N33 nicht unwahrscheinlich. Damit wäre man zwischen 4060Ti und 4070. Das wäre eine lukrative Position, um dort einen kleinen monolithischen N4-Chip zu platzieren. Wenn die Architektur fertig ist (das ist für 2024 nicht abwegig)
und N43 in 2024 launchen sollte, hätte AMD doch gar nicht GDDR7 fest eingeplant, sondern stattdessen ein 192Bit SI benutzt.

Nightspider
2023-08-06, 16:08:27
Sie haben auch schon auf etlichen Hochzeiten getanzt, als sie kaum in R&D investiert haben (weil es nicht möglich war). Das ist jetzt kein Umstand, der neu ist.

Ja aber die Projekte heutzutage benötigen auch ungleich mehr Personal als AMDs Projekte vor 8 Jahren.

Was hat AMD denn großartig geliefert in den 8 Jahren Vor Zen 1? Da lief alles auf Sparflamme und die Produktzyklen waren teilweise länger.

Jetzt liefert AMD jährlich einen neuen CDNA Beschleuniger, Zen5 kommt 15-18 Monate nach Zen4 *vorraussichtlich, jetzt gibt es jedes Jahr mindestens zwei neue APUs usw usw usw

Produkte wie CDNA >>müssen<< fehlerfrei sein! Wenn die Radeon nicht so hoch taktet wie geplant ist das viel weniger schlimm als wenn ein 10.000 Dollar CDNA Beschleuniger fehlerhaft ist, wovon der Kunde tausende Stück bestellt hat. Dann ist dein Ruf im Arsch.

Jetzt liegt AMD sogar VOR Intel, auch dank der Hilfe von TSMC.

Vielleicht versucht AMD die gebuchten Packaging Kapazitäten von Navi41 auf MI400 zu schieben.

Da ist weder irgendwas mit Kostenvorteil und vor allem - was eigentlich noch viel schlimmer ist - hat AMD daraus überhaupt keinen TTM-Vorteil ziehen können. Wir haben August und N32 ist nicht nur noch nicht erhältlich

Ich hätte N32 auch links liegen gelassen wenn das Geld mit MI250 und MI300 zu holen ist und die RDNA3 Rev1 eh noch eine Macke hatte.

Lieber ein paar Prozente vom temporären Marktanteil abgeben und mehr Gewinn machen als um ein paar Prozente zu kämpfen und 1-2 Milliarden am Ende des Jahres weniger zu haben.


Nvidia kann die Produktionszahlen von A100 und H100 nicht steigern, indem sie weniger Gaming Karten produzieren.
AMD hingegen dürfte schon mehr MI250 und MI300 produzieren können wenn sie die Packaging Kapazitäten von der Gaming Sparte verschoben haben.

Ob das AMD aber jemals bestätigen wird ist eher unwahrscheinlich.

HOT
2023-08-06, 16:09:57
Der_Korken
Nein, mMn ist N43 in N4 kaum mehr als ein Navi3.5. Wenn das Ding in N3 kommt und mehr als 2 SEs hat, können wir drüber reden, aber das glaub ich nicht. Der wird 2x10WGP haben, vielleicht packt er zusätzlich die 3GHz, das wäre dann aber kaum mehr als AD106. Alles andere ist aus meiner Sicht unter den Voraussetzungen einfach unrealistisch. MMn ist der Chip vor allem billig, genau wie N33, mit all seinen Nachteilen. ein Strategiewechsel ist ja erst jetzt zu erwarten, wo die "Katastrophe" eingetreten ist.
Der portenzielle Ersatzchip dürfte vom Featureset her schon weiter sein als N41 war, vielleicht sogar von der Fertigung (N3E statt N3B).

Nur mal so als Gedankenspiel um zu verdeutlichen, was ich meine:

N41 hatte offenbar 6x12WGPs (3 N41 GCDs), das sind 144CUs
N42 dürfte 4x10WGPs gehabt haben (2 N42 GCDs) -> 80CUs oder 3*12WGPs (3 N42 GCDs) = 72CUs
144CUs <> 80(72)CUs sind sehr plausibel, wenn man sich die vorherigen Generationen anschaut.
gesalvaged hätte N42 dann 60CUs bei 3 SEs. Wo soll denn da noch Platz für einen Chip > 40CUs sein? Es ist einfach unwahrscheinlich, wenn man sich auch den Abstand zwischen N33 und N32 anschaut. Die Produktstrategie wird ja bei N4x nicht anders sein als Bei N3x, also 144CUs N41, 80CUs N42 und 40CUs N43 (,24CUs N44)

Nightspider
2023-08-06, 16:21:15
Es kommt kein RDNA5 schon Mitte 25, was für ein Unsinn.

Vielleicht wird es auch eine RDNA 4.5 Generation geben für die APUs und vielleicht baut AMD daraus dann ein großes GCD um Nvida in den Arsch zu treten.

Träumen kann man ja noch. ^^

Wir können nur hoffen das AMD dann auch bald mal den Vorteil der Chiplets nutzt und zeitig auf neue Prozesse im GPU Bereich wechselt. Aber dafür muss AMD die Intervalle von 2-2,5 Jahren bei den GPU Architekturen senken, um auch mal schneller Produkte auf den Markt bringen zu können.

HOT
2023-08-06, 16:30:02
Also das Träumen hab ich mir längst abgewöhnt oder glaub irgendwer ernsthaft, dass N41 BW102 geschlagen hätte? Nein mir Sicherheit nicht.

Du hast aber recht, der Ersatzchip dürfte einiges weiter sein in der Entwicklung als N41, also tatsächlich nahe an RDNA 4.5.

Der_Korken
2023-08-06, 16:30:27
(Edit: Post bezieht sich auf HOTs Post von 16:09 vor dem Edit :D)

Du bist da etwas zu (zweck?-)pessimistisch. Eine 6750XT liegt schon gleichauf mit der 4060Ti und hat auch nur 20 WGPs. Zu sagen, dass N43 mit den Specs nicht an AD106 vorbeikommt, bedeutet, dass RDNA4 in 4nm sowohl takt- als auch IPC-technisch auf RDNA2-Level in 7nm wäre. Das ist Unsinn.

Außerdem muss ein Fehler in RDNA3 die Performance von RDNA4 nicht negativ beeinflussen. RDNA4 kann auch da rauskommen, wo es von Anfang geplant war, sodass man vom Sprung RDNA2 -> RDNA3 nicht auf den Sprung RDNA3 -> RDNA4 schließen kann. Hätte Zen 3 z.B. ein komischen Bug gehabt, durch den Features nachträglich deaktiviert werden mussten, die 10% Performance kosten, wäre es natürlich eine durchwachsene Gen geworden. Zen 4 wäre aber nicht langsamer geworden als jetzt, denn die Architektur von Zen 3 hat all die Entwicklungen schon intus gehabt und die Basis für den "richtigen" Zen 4 wäre nicht beeinträchtigt gewesen.

Ich will RDNA4 nicht schönreden oder hypen, aber man muss Fehltritte wie Vega nicht in die Zukunft extrapolieren. Ich denke bzw. hoffe dass die AMD-Devs ihre Lektion gelernt haben und wieder zu einer kleinschrittigeren Execution zurückkehren. Auch wenn man dadurch Nvidias Dickschiffe nicht angreifen kann.

Nightspider
2023-08-06, 16:40:53
Also das Träumen hab ich mir längst abgewöhnt oder glaub irgendwer ernsthaft, dass N41 BW102 geschlagen hätte? Nein mir Sicherheit nicht.

Du hast aber recht, der Ersatzchip dürfte einiges weiter sein in der Entwicklung als N41, also tatsächlich nahe an RDNA 4.5.

Wenn RDNA4 effizient genug geworden wäre um 3 GCDs zusammenzulegen damit man auf eine gesamte GCD Fläche von 600mm² kommt + 6 gestapelte MCDs, dann ja - warum nicht?

Das wäre dann insgesamt ein ~~800-900mm2 Monster. Dafür hätte ich auch 2 Scheine hingelegt. ;D


Navi31 ist irgendwie so als hättest du eine riesige Zuckertüte geschenkt bekommen die aber nur zu zwei Drittel gefüllt ist und wo die hälfte davon zuckerfreie Vollkornkekse sind.

AffenJack
2023-08-06, 16:57:15
Jetzt liefert AMD jährlich einen neuen CDNA Beschleuniger, Zen5 kommt 15-18 Monate nach Zen4 *vorraussichtlich, jetzt gibt es jedes Jahr mindestens zwei neue APUs usw usw usw

Vielleicht versucht AMD die gebuchten Packaging Kapazitäten von Navi41 auf MI400 zu schieben.

Welche jährliche Kadenz bei CDNA? MI300 ist ~20 Monate nach MI2xx. Es gibt keinerlei Infos zu MI400, die darauf deuten würden, dass es bei MI400 viel schneller gehen wird.

Aber auch 20 Monate sind ganz gut, damit man Stück für Stück in einen Zyklus kommt, der eine bessere Konkurenzfähigkeit garantiert.

MI2xx war generell 7 Monate vor Hopper verfügbar. MI300 immerhin 9-12 Monate vor Blackwell wahrscheinlich. MI400 sollte dann hoffentlich eher so kommen, dass Blackwell eher der Gegner ist und die Leute nicht auf die nächste Nvidia Gen warten.

Nightspider
2023-08-06, 17:31:17
MI210/250 wurden, soweit ich das sehe im März 22 vorgestellt und MI300 im Juni 23.

Sind eher 15 Monate zwischen den Vorstellungen.

Aber du hast natürlich Recht das da keine 12 Monate dazwischen liegen. Aber die Kadenz ist schon sehr hoch.

AffenJack
2023-08-06, 17:48:32
MI210/250 wurden, soweit ich das sehe im März 22 vorgestellt und MI300 im Juni 23.

Sind eher 15 Monate zwischen den Vorstellungen.

Aber du hast natürlich Recht das da keine 12 Monate dazwischen liegen. Aber die Kadenz ist schon sehr hoch.

November 21 wurde MI250 vorgestellt. Im März war der Zeitpunkt, wo man diese frei auf dem Markt kaufen konnte. Bei MI300 sind wir also schon bei 19 Monaten für die Vorstellung und im Moment ist es eher unklar, ob diese vor Q1 24 wirklich kaufbar sein werden, im bestfall wohl November, womit wir hier bei 20-22 Monaten wären.

amdfanuwe
2023-08-06, 17:53:35
Es gibt keinerlei Infos zu MI400, die darauf deuten würden, dass es bei MI400 viel schneller gehen wird.

Könnte schneller gehen, wenn die Plattform und Base Dies von MI300 übernommen werden können.
Bräuchte dann nur neue Compute Chiplets.

TheGood
2023-08-06, 19:19:53
Sie haben auch schon auf etlichen Hochzeiten getanzt, als sie kaum in R&D investiert haben (weil es nicht möglich war). Das ist jetzt kein Umstand, der neu ist. Margen steigen, Umsatz steigt, Gewinne steigen, R&D steigt und AMD konnte auch wieder mehr Personal einstellen.

"Fortschrittliche Hardware" sollte davon ab am Ende auch einen Mehrwert bieten, was es zumindest bei RDNA3 nachweislich nicht tut. Man muss hier ~520mm^2 an gesamter Die Size aufwenden, um mit 379mm^2 der Konkurrenz konkurrieren zu können. Zusätzliche Kosten wie fürs Packaging mal außen vor. Da ist weder irgendwas mit Kostenvorteil und vor allem - was eigentlich noch viel schlimmer ist - hat AMD daraus überhaupt keinen TTM-Vorteil ziehen können. Wir haben August und N32 ist nicht nur noch nicht erhältlich, sondern noch nicht mal offiziell vorgestellt. Nvidia haut einen Mono-Die nach dem anderen raus und AMD hingegen schafft das nicht mal trotz reusing der MCDs.

Wofür dann überhaupt Chiplets? Bringt dem potentiellen Käufer und Gamer - also der Zielgruppe - überhaupt nichts. Dann sollte man sowas erst bringen, wenn es auch tatsächlich marktreif ist. Das war/ist bei CPUs nämlich anders.

Vermutlich ist das dann diesmal auch ein entscheidender Grund, warum es kein "High-End" bei RDNA4 gibt. AMD will keine größeren Mono-Dies mehr bauen, andererseits haben sie dann vermutlich aber zwischenzeitlich festgestellt, dass mehrere GCDs schlicht noch nicht funktionieren.

Allerdings hab ich jetzt auch schon hier und da gelesen (u.a. Bondrewd aka whatever er gerade für Usernamen hat), dass das ggf. in dem Fall auch ein Zeitproblem aka TTM bei RDNA4 ist (gewesen wäre?). Wenn das dann bedeutet hätte, dass N41/N42/N40/whatever ähnlich spät wie jetzt N32 auf den Markt kommen, dann könnte man das sogar verstehen, wenn AMD hier komplett den Rotstift ansetzt, solange es noch möglich ist. Das wäre vom Launchzeitraum her hintenraus dann vermutlich viel zu nah an RDNA5 dran.

Unabhängig von alledem bringt Fortschrittliche Hardware allein aber auch nichts, wenn man auf der anderen Seite die Software vernachlässigt. Wie AMD hier Nvidia gnadenlos hinterherhechelt - und mal ganz ehrlich und nüchtern, die Ankündigung von FSR3 war ein spontaner Schnellschuss, weil man auf FG regieren musste bzw. wollte - ist echt nicht mehr lustig. Reflex gibt's auch schon bald drei Jahre, da kommt von AMD ebenfalls immer noch gar nichts.

Ja gut, dass wir im Spekuforum sind :)

Es ist ja ziemlich offensichtlich dass das problem der 7900 graka nicht am chiplet liegt.

N32 kommt so spaet da AMD schon seit einem halben JAhr die Chips produziert aber lieber noch die alten Karten abverkauft, vermutlich bessere GEwinnmarge...

N41 und N42 werden gecancelt, weil es mit den Chiplets vermutlich nicht klappt oder der N43 so schnell wird, da er die RDNA3 bremsen aufgelöst hat und nicht genügend Packaging kapazität da wäre für die vielen GDCs.

Es gibt halt so viele unbekannte in der Gleichung dass am Ende jede Spekulation richtig und falsch sein kann. Aber wenn man schon spekuliert sollte man das nicht als Faktum darstellen und gerne auch verschiedene optionen ansehen.

Bei FSR3 bin ich bei dir, das war ein schnellschuss, sonst hätten wir schon lange etwas gesehen. Eine andere Erklärung gibts ja nicht dafür. GGf. wirds mit im Augsut angekündigt, dann würde es vom ZEitrahmen gerade noch so passen. Wäre sogar ein guter ZEitpunkt mit dem launch der neuen mittelklasse. Vermutlich ist es erstmal nur RDNA 3 kompatibel.
Dann kann man den Nvidia Mehrwert auch bieten. AMD wird das sicher nicht auslassen.

iamthebear
2023-08-06, 19:56:24
Der primäre Grund für den Einsatz von Chiplets ist, dass man schlecht skalierende Teile auf einen billigeren Node auslagern kann. Hier mal als Vergleich:

Zen2/3/4: I/O skaliert nicht mehr gut => wird also auf 12nm von GF ausgelagert

Navi31/2: SRAM skaliert nicht mehr gut => wird also auf die MCDs ausgelagert

Meteor Lake: CCD im knappen Intel 4 Prozess, der Rest wird aus Kapazitätsgründen an TSMC oder billigere eigene Prozesse ausgelagert, bei der Gelegenheit wird der Chipsatz gleich mit integriert.

Ich bezweifle ernsthaft, dass AMD jemals vor hatte 2 GCDs im Gamingbereich zu bringen. Das macht relativ wenig Sinn.

Nightspider
2023-08-06, 20:16:44
nvm

Nightspider
2023-08-06, 20:21:39
Ich bezweifle ernsthaft, dass AMD jemals vor hatte 2 GCDs im Gamingbereich zu bringen. Das macht relativ wenig Sinn.

Naja, Gamer haben früher schon SLI und Crossfire Systeme gebaut.

Ein gewisser Bedarf ist definitiv vorhanden und die Leute haben sich ja sogar für 2400 Euro zum Release eine 4090 gekauft.

mboeller
2023-08-06, 20:46:29
N41 hatte offenbar 6x12WGPs (3 N41 GCDs), das sind 144CUs
N42 dürfte 4x10WGPs gehabt haben (2 N42 GCDs) -> 80CUs oder 3*12WGPs (3 N42 GCDs) = 72CUs


Wenn ich dich recht verstehe, dann gehst du davon aus, dass AMD für N41 und N42 unterschiedliche GCD's entwickelt hätte. Warum?

Altehardware
2023-08-06, 20:49:21
Die Idee das man 40 80 120cu geplant hatte würde die Annahme voraussetzen das man gcx umsetzen wollte also mehrere gpu chiplets
Das ist bekanntlich cancel womit ich eher von nen 60cu chip ausgehe als n43 und eine n44 monolithen in n4x mit maxed 32cu
Das würde passen mit dem fixed der rdna 3 von hohen Takt abhält gedacht waren 3,2ghz-3,6ghz mit n4x wäre man bei 3,55ghz und in n4 bei maxed 4ghz
Wäre dann maxed als rx8800xtx 60*64*4*2,34=35,9tf was dem rx7900xtx nahe käme
Und beim 32cu dann 32*64*2,34*3,55=17tf was langsamer wäre als ne rx6800 als rx8600xtx
Der n43 chip misst 128mm² (kombiniert 65$) bei n3 node und beim n44 n4x dann etwa 157mm² 40$
Dazu dann gddr7 24gfbit 32gs je 15$ einmal 6 chips =18gb einmal 5 chips 15gb
und beim n44 dann gddr6 24gbps von samsung (5-6$ per 16gbit)
Sku dann bei
rx8800xtx 60cu 18gb 4,0ghz =35,8tf ~ 500$ sku kosten retail +- 599€ real 749€
rx8800xt 54cu 15gb 4,0ghz =32tf retail vermutlich 699€
rx8600xtx 32cu 12gb 3,55ghz =17tf retail real 279€
rx8600xt 28cu 10gb 3,55ghz = 14,8tf retail vermutlich 249€

das könnte so kommen aber würde am markt nen Still.stand verusachen abseits dem entry das sich um +50% anleistung gewinnt ab 250€ aktuel ist man bei 9tf

mboeller
2023-08-07, 07:05:16
Das ist bekanntlich cancel womit ich eher von nen 60cu chip ausgehe als n43 und eine n44 monolithen in n4x mit maxed 32cu


steht wo? Sind ja nur Gerüchte

Meine (wie üblich wahrscheinlich falsche) Idee ist, das monolithisch meint, dass man ohne MCD's arbeitet.

Ich war von N31 sehr enttäuscht, weil eben das 3-GCD-Patent nicht umgesetzt worden ist und die Die-shots haben die Enttäuschung dann noch verstärkt, da, wenn man sich die Die-Shots von GCD+MCD genauer anschaut, der Area-Gewinn aufgrund des großen GCD-MCD Interfaces eher klein ist + mickrigem IF$.

Vielleicht wird deshalb RDNA4 mit monolithischen GPU's umgesetzt, also 1-3 GPU pro Typ. Dann braucht man nur 1 vollwertige GPU und kann von N43-N41 alles mit einer GPU umsetzen. Vielleicht incl. IF$ (64MB) auf bzw. unter der GPU. Nachteil: die Video-Sachen etc. schleppt man als Ballast über das Lineup mit. Der Flächennachteil sollte aber nicht groß sein.

Die Gerüchte, dass es nur "Midrange" GPU('s) geben wird machen dann wieder halbwegs Sinn.

Altehardware
2023-08-07, 10:34:22
Dagegen sprechen die kosten ein 128mm² chip ist deutlich billiger als ein 400mm² monolith
Selbst mit mcd kosten addiert maxed 20$ für 4 kommt man auf nur 65$ chipkosten eine high end amd Lösung wäre somit ab 500$ profitabel
Ein doppelter chip etwa 120cu wäre nur bei 85$ kosten und ne sku ab 600$ machbar. Und das mit dem teuren gddr7 24gbit chips
Darum macht das gerücht ja auch kein Sinn 40cu wäre viel zu klein oder man müsste den chip ans limit Takten von mehr als 4,0ghz wovon nicht auszugehen ist.
Rdna 4 kann nur in n3 und ion mcm Sinnvol umgesetzt werden wenn da was gestrichen wurde lag das an anderen gründen als am Geld.
Meine Vermutung ist das man keine markt sieht bis die rezession beendet ist und das sehe ich frühestens 2026.
rdna4 wird die defekte teile von rdna3 fixen und deutlich über 3,6bhz takten ich gehe von genau 4,0ghz aus Im idealfall hat man das latenzproblem gefixt dann wirds noch besser und kann sogar die rx790xtx schlagen mit 60cu statt 96cu.
ich gehe aber eher vom 2,34 operation per cu weiterhin aus aber deutlich höheren Takt ab 3,8ghz bis 4ghz
Wie das dann vermarktet wird steht noch offen. Siehe gamescom dieses Jahr ne sku die kaum schneller als der vorgänger ist zu veröffentlichen rx7800xt statt rx7800 bei nur +20% vs rx680xt und somit unter der rx6900xt
Der Grund dürfte klar sein höhere uvp ab 599$
Die sku lässt sich ab 400$ fertigen und wird schon seit Monaten gefertigt man sah bisher keine Grund beim Abverkauf zu früh damit zu kommen. Alles schön die preise hoch halten.
Nur drückt der schuh bei dem lagerkosten darum kommt der n32 noch
N43 wen den so sein sollte erwarte ich auf rx7900xtx level das wird nvidia nächste gen die rtx5070ti sein bei 800€
Wer Glaubt das nvidia ihren Vorsprung nicht ausnutzen wird träumt
blackwell wenn das neue design kommt sehe ich sogar nur als titan.

Und ada refresh kommen in n4x die chips werden kaum kleiner aber der waferpreis ist deutlich billiger mit dabei ist gddr7 24gbit bei allen sku. Und mehr davon
Der Anfang wird aber rtx4060 v2 sein mit 30sm 9gb ab 279€
rtx4065 12gb (34sm) sein ab 379€ und die erste sku mit potenzial vernünftig zu sein dann
die rtx4065ti 12gb vram 499€ (46sm
die rtx4075 mit 18gb 649€ (60sm)
die rtx4075ti 18gb 749€ (76sm)
die rtx4085 24gb 899€ (84sm)
und zuletzt die rtx4095 1299€ (142sm) aber das wird nvidia sicherlich bei 1949€ festlegen.

Diese preise wird aber amd forcieren müssen und das sehe ich nicht. amd läuft gerne hinter nvidia preise her.
Aber bis q2 2025 ist noch was hin
Und amd sku Planung ist noch völlig offen von 28cu bis 60cu sehe ich welche kommen bedingt aber das amd die arch gefixt hat. Ohne fix wird es bis q2 2026 stilstand geben.
Und nicht nur eine fehlende high end alternative.
Dennoch hoffe ich das es doch den 120cu chip geben könnte(~80tf) das wird nvidia zwingen ada komplett zu refreshen.
Ansonsten sehe ich nicht das nvidia vor 2027 irgendwas in high end abseits ner titan B zu bringen.
Ich kann komplett daneben liegen und nvidia überrascht mit ne neuen arch design etwa nen fp64 Ansatz das aber ist sehr unwahrscheinlich da das fp32 Ansatz seit 2006 besteht und bewährt ist mit ständig geändertem sm Struktur

amdfanuwe
2023-08-07, 12:04:23
Nachdem alle Astrologen ihre Weisheit kundgetan, les ich auch mal aus meinem Kaffeesatz:

AMD braucht für MI300 alle verfügbaren Packaging Kapazitäten an Cowos und Info.
Für N4x gibt es daher 2 monolithische GPUs mit 40/80 CUs.
High End lässt man aus, da das nur ein kleiner Desktop Markt ist, die kleineren Chips sind auch im Mobile Bereich einsetzbar.
Eventuell wird die kleine GPU auch bei Strix Halo verwendet.

BavarianRealist
2023-08-07, 12:26:16
Nachdem alle Astrologen ihre Weisheit kundgetan, les ich auch mal aus meinem Kaffeesatz:

AMD braucht für MI300 alle verfügbaren Packaging Kapazitäten an Cowos und Info.
Für N4x gibt es daher 2 monolithische GPUs mit 40/80 CUs.
High End lässt man aus, da das nur ein kleiner Desktop Markt ist, die kleineren Chips sind auch im Mobile Bereich einsetzbar.
Eventuell wird die kleine GPU auch bei Strix Halo verwendet.

Genau so sehe ich das auch: AMD setzt womöglich alles auf MI300/400: alle reservierten Kapazitäten und womöglich wurde auch ein Teil des RDNA-Teams auf CDNA geswitcht.

HOT
2023-08-09, 08:35:59
Und da ist nach Red jetzt das nächste Gerücht aufgetaucht: Auch der Ersatzchip wurde offenbar gecancelt, stattdessen soll es jetzt einen großen (400mm²+?) RDNA3.5-Chip geben, dafür gibt es sogar einen Codenamen: N36 :D.
Hätte natürlich 3 Vorteile:

1.) man kommt sich in der Fertigung überhaupt nicht mit den N3-KI-Kram in die Quere (MI400)
2.) man kann komplett auf bekannte Technologien und konkrete Implementationen setzen (RDNA3 Frontend, MCDs, PCBs, Packagetech, 4nm, RDNA3.5 SALUs)
3.) man braucht wenig Personal für das Projekt, viel weniger als für einen echten Navi4-Chip in N3 und auch viel weniger Zeit um das Ding zur Marktreife zu bringen

Das wird langsam zur Saga :D.

dargo
2023-08-09, 12:38:41
Da wir hier im Spekulationsthread sind packe ich das hier mal rein, auch wenn es kein schönes Thema ist.

Gestern in den Nachrichten mitbekommen, dass die USA und Taiwan die TSMC-Fertigungsfabriken selbst in die Luft sprengen werden sollte China Taiwan angreifen damit das ganze Knowhow nicht in die Hände der Chinesen fällt. Dann bricht die Welt vom 3DC zusammen, u.a. erstmal keine GPUs mehr. :freak: Spaß bei Seite... sollte dies zutreffen dürfte das die ganze Welt ganz schön zurück werfen. Fertigt TSMC eigentlich zusätzlich außerhalb Taiwan? Die Fabrik in Dresden soll ja erst bis 2027 fertig gestellt werden. Und diese wird wohl eh nur ein Tropfen auf den heißen Stein sein.

Altehardware
2023-08-09, 12:43:47
Also 40cu gefixte cache und 400mm² in n4x?

Das klingt nach maximal 60cu beim name gehe ich eher von n32b aus
Auch möglich das man dennoch mcm Setzen wird den 340mm² die der chip groß wird denke ich wird man erst ab 439€ verkaufen können
Da muss der Takt aber seine 3,2ghz erreichen und ein cu min bei 25% Auslastung kommen also dann 3840*2,5*3,2=30tf +- gleich wie rx7900xt 650$ als rx8800xtx
und den salvage dann bei 54cu und 550$ rx8800xt dann dürfte nochn chip geben mit 40cu ~251mm² sku ab 349€
Einmal 40cu ~20,4tf als rx8700xt 12gb 449€ entspricht der rx7700xt
Und einmal 32cu ~16,3tf als rx8600xt 12gb 349€

Das wäre sehr schwach und würde nen stillstand bedeuten in P/L

HOT
2023-08-09, 12:45:47
Da wir hier im Spekulationsthread sind packe ich das hier mal rein, auch wenn es kein schönes Thema ist.

Gestern in den Nachrichten mitbekommen, dass die USA und Taiwan die TSMC-Fertigungsfabriken selbst in die Luft sprengen werden sollte China Taiwan angreifen damit das ganze Knowhow nicht in die Hände der Chinesen fällt. Dann bricht die Welt vom 3DC zusammen, u.a. erstmal keine GPUs mehr. :freak: Spaß bei Seite... sollte dies zutreffen dürfte das die ganze Welt ganz schön zurück werfen. Fertigt TSMC eigentlich zusätzlich außerhalb Taiwan? Die Fabrik in Dresden soll ja erst bis 2027 fertig gestellt werden. Und diese wird wohl eh nur ein Tropfen auf den heißen Stein sein.

Das ist doch seit Monaten klar. Sowohl China als auch die USA haben ein Interesse daran die Fabs zu zerstören unter bestimmten Umständen. Nur Taiwan will das nicht und möchte sich sogar gegen ein US-Bombardement wehren. Da gibts einen großen Riss in der Allianz. Kann man echt nur hoffen, dass es dazu nicht kommen wird ;). Wenn der Krieg so ausbrechen würde ist TSMC Geschichte, so oder so.

Mangel76
2023-08-09, 15:37:13
Das ist doch seit Monaten klar. Sowohl China als auch die USA haben ein Interesse daran die Fabs zu zerstören unter bestimmten Umständen. Nur Taiwan will das nicht und möchte sich sogar gegen ein US-Bombardement wehren. Da gibts einen großen Riss in der Allianz. Kann man echt nur hoffen, dass es dazu nicht kommen wird ;). Wenn der Krieg so ausbrechen würde ist TSMC Geschichte, so oder so.

Welches Interesse sollte China haben, im Falle einer Eroberung Taiwans die Anlagen zu zerstören? Für China wären die doch ein lohnendes Kriegsziel. Und für Taiwan ist es klar Teil der Abschreckung, die Anlagen im Fall eines Angriffes selbst zu zerstören.

Langlay
2023-08-09, 15:44:19
Welches Interesse sollte China haben, im Falle einer Eroberung Taiwans die Anlagen zu zerstören? Für China wären die doch ein lohnendes Kriegsziel. Und für Taiwan ist es klar Teil der Abschreckung, die Anlagen im Fall eines Angriffes selbst zu zerstören.

Du hast es selbst erkannt. Wieso fragst du also? China kann die Anlagen nur dann intakt bekommen wenn sie Taiwan im Handstreich nimmt und es da keinen größeren Widerstand dagegen gibt. Wie Wahrscheinlich das ist kann jeder selbst entscheiden, aber Taiwan bereitet sich seit 70 Jahren darauf vor das Kommunisten ggf. kommen.

Also ich würde auch davon ausgehen wenn China Taiwan angreift sind die TSMC Fabriken zu 95% Gesichte.

Selbst wenn die TSMC Fabriken in unbeschädigt in die Hände der Chinesen fallen, würde ich schätzen stehen die Chancen ganz gut dass dort trotzdem quasi nie wieder irgendwas anderes als warme Luft produziert wird, weils hat für den Falle der Fälle einen Killswitch gab der die Anlagen unbrauchbar gemacht hat.

HOT
2023-08-09, 15:55:58
Welches Interesse sollte China haben, im Falle einer Eroberung Taiwans die Anlagen zu zerstören? Für China wären die doch ein lohnendes Kriegsziel. Und für Taiwan ist es klar Teil der Abschreckung, die Anlagen im Fall eines Angriffes selbst zu zerstören.
Wenn China keine Chance hat TSMC in die Finger zu bekommen z.B., oder wenn die USA die Hoheit über Taiwan behalten würden. Milirärische Doktrin halt, wer nicht in diesen Bahnen denken kann versteht nicht, wie das läuft. TSMC muss von beiden Seiten zerstört werden, wenn es zu einem längeren Konflikt kommen würde, egal zu welchen Gunsten der Konflikt läuft.

Langlay
Kein Killswtich nötig, nur ein Haufen Marschflugkörper von US-Schiffen.

Es bleibt nur diesen Konflikt zu verhindern. Und das wird nur dann gehen, wenn Kissingers und Nixons 1-China-Politik beibehalten wird.

Zossel
2023-08-09, 16:39:10
Du hast es selbst erkannt. Wieso fragst du also? China kann die Anlagen nur dann intakt bekommen wenn sie Taiwan im Handstreich nimmt und es da keinen größeren Widerstand dagegen gibt.
Wie viel Erfahrungen mit amphibischen Landungen inklusive einer nachfolgenden Logistik zur Versorgung eines Brückenkopfs unter realen Bedingungen eines Krieges hat China denn bisher gesammelt?
aber Taiwan bereitet sich seit 70 Jahren darauf vor das Kommunisten ggf. kommen

Welche Kommunisten sollen das den sein?
Selbst wenn die TSMC Fabriken in unbeschädigt in die Hände der Chinesen fallen, würde ich schätzen stehen die Chancen ganz gut dass dort trotzdem quasi nie wieder irgendwas anderes als warme Luft produziert wird, weils hat für den Falle der Fälle einen Killswitch gab der die Anlagen unbrauchbar gemacht hat.
Ohne qualifizierte Wartung sind die Fabs quasi sofort nur ein Haufen Müll.

Langlay
2023-08-09, 16:51:36
Wie viel Erfahrungen mit amphibischen Landungen inklusive einer nachfolgenden Logistik zur Versorgung eines Brückenkopfs unter realen Bedingungen eines Krieges hat China denn bisher gesammelt?


Spielt bei "Best Case" Betrachtung keine Rolle weil man eh davon ausgeht das eh alles glatt geht.


Welche Kommunisten sollen das den sein?


Diese da -> https://de.wikipedia.org/wiki/Kommunistische_Partei_Chinas

Kann ja schlecht schreiben die Chinesen kommen, sind ja beide Seiten chinesisch. Ergo die Kommunisten kommen, damit dürfte klar sein wer gemeint ist.


Ohne qualifizierte Wartung sind die Fabs quasi sofort nur ein Haufen Müll.


Das mag sein, ich glaube aber ein Killswitch lässt trotzdem einige Leute besser schlafen in der Nacht.

Gipsel
2023-08-09, 17:49:54
Mal eine dringende Warnung:

Das ist hier nicht das PoWi-Unterforum!

Das Thema wird hier nicht weiter diskutiert.

OgrEGT
2023-08-09, 18:50:31
Und da ist nach Red jetzt das nächste Gerücht aufgetaucht: Auch der Ersatzchip wurde offenbar gecancelt, stattdessen soll es jetzt einen großen (400mm²+?) RDNA3.5-Chip geben, dafür gibt es sogar einen Codenamen: N36 :D.
Hätte natürlich 3 Vorteile:

1.) man kommt sich in der Fertigung überhaupt nicht mit den N3-KI-Kram in die Quere (MI400)
2.) man kann komplett auf bekannte Technologien und konkrete Implementationen setzen (RDNA3 Frontend, MCDs, PCBs, Packagetech, 4nm, RDNA3.5 SALUs)
3.) man braucht wenig Personal für das Projekt, viel weniger als für einen echten Navi4-Chip in N3 und auch viel weniger Zeit um das Ding zur Marktreife zu bringen

Das wird langsam zur Saga :D.

Hast Du einen Link zu dem Gerücht?

HOT
2023-08-10, 13:57:34
Hast Du einen Link zu dem Gerücht?


https://youtu.be/sQuzgvJ-dPc

Ist aber nur ein theoretisches Projekt. Das wird so nicht kommen.

OgrEGT
2023-08-10, 18:53:04
https://youtu.be/sQuzgvJ-dPc

Ist aber nur ein theoretisches Projekt. Das wird so nicht kommen.

Danke :up:

Achill
2023-08-10, 22:46:53
Um auch mal mit zu spekulieren (mach ich selten weil ich nichts wirklich beizutragen habe), warum vielleicht es keine großen Radeon RX 8000er geben könnte.

Google News hat mir heute folgende Nachricht vorgeschlagen: Here We Go Again: AI Developers Are Buying Gaming GPUs in Bulk (https://www.extremetech.com/computing/here-we-go-again-ai-developers-are-buying-gaming-gpus-in-bulk)

In der News geht es im Kern um den Tweet von George Hotz (https://en.wikipedia.org/wiki/George_Hotz#Career), Gründer und President von comma.ai (https://www.comma.ai):

AMD (unlike Qualcomm) is a joy to buy chips from. 7.38 PFLOPS of compute was delivered today, with exaflops more to come.

Nice to see them more active on the ROCm GitHub, we are working on the layer above @__tinygrad__
[..]


Liest man sich Wikipedia (oben verlinkt) durch, dann weiß man das "tinygrad" sein nächstes Projekt / Firma ist und die erst finanzierungsrunde erfolgreich abgeschlossen wurde.

Meine Spekulation startet mit der fortgeführten Rechnung wie viele AMD GPUs auf der Palette zu sehen sind + noch geordert wurden und damit der Idee, dass es ein wachsendes Interesse an (den nächsten) großen AMD Consumer Karten gibt, weil HIP und Rocm ein Qualität erreicht haben, dass es ohne größere Hürden in Wissenschaft und Wirtschafft eingesetzt werden kann.

Wenn dies stimmt, dann könnte es für AMD sowohl lukrativer sein und/oder im strategischen Interesse liegen, ein Fuß in comma.ai + tinygrad und co zu bekommen.

Auf der sehr hackischen Seite: https://tinygrad.org kann man jetzt schon eine tinybox pre-ordern und es gibt die abgestimmt Software als Open-Source dazu: https://github.com/tinygrad/tinygrad ...


- 738 FP16 TFLOPS
- 144 GB GPU RAM (=> 6x RX 7900 TXT ???)
- 5.76 TB/s RAM bandwidth
- 30 GB/s model load bandwidth (big llama loads in around 4 seconds)
- AMD EPYC CPU
- 1600W (one 120V outlet)
- Runs 65B FP16 LLaMA out of the box (using tinygrad, subject to software development risks)
- $15,000


Das wird imho natürlich nicht den Mark leer saugen, aber es könnte ein Indiz sein warum es im Netzt das Gerücht um die nicht Verfügbarkeit (!= wird nicht Hergestellt) gibt ...

Von Nvidia's gibts die H100 AI Processors Are Selling for Over $40,000 on eBay (https://www.extremetech.com/computing/nvidias-h100-ai-processors-are-selling-for-over-40000-on-ebay) ... der Preis und ggf. die Nichtverfügbarkeit könnte schon eine Motivation sein sich wo anders umzuschauen bzw. eine Firma dafür zu gründen.

---
Was ist jetzt eigentlich der Name wenn man das X nimmt, Xweet?

dildo4u
2023-08-11, 04:12:52
Laut dem soll Navi 41 Probleme machen, er erwartet gefixte Navi 3.5 Produkte nicht vor Sommer 24.(Strix Hallo z.b)
Immerhin soll FSR3 endlich im September gezeigt werden.


siG6TJtLztc

robbitop
2023-08-11, 07:25:47
Um auch mal mit zu spekulieren (mach ich selten weil ich nichts wirklich beizutragen habe), warum vielleicht es keine großen Radeon RX 8000er geben könnte.

Google News hat mir heute folgende Nachricht vorgeschlagen: Here We Go Again: AI Developers Are Buying Gaming GPUs in Bulk (https://www.extremetech.com/computing/here-we-go-again-ai-developers-are-buying-gaming-gpus-in-bulk)

In der News geht es im Kern um den Tweet von George Hotz (https://en.wikipedia.org/wiki/George_Hotz#Career), Gründer und President von comma.ai (https://www.comma.ai):


Liest man sich Wikipedia (oben verlinkt) durch, dann weiß man das "tinygrad" sein nächstes Projekt / Firma ist und die erst finanzierungsrunde erfolgreich abgeschlossen wurde.

Meine Spekulation startet mit der fortgeführten Rechnung wie viele AMD GPUs auf der Palette zu sehen sind + noch geordert wurden und damit der Idee, dass es ein wachsendes Interesse an (den nächsten) großen AMD Consumer Karten gibt, weil HIP und Rocm ein Qualität erreicht haben, dass es ohne größere Hürden in Wissenschaft und Wirtschafft eingesetzt werden kann.

Wenn dies stimmt, dann könnte es für AMD sowohl lukrativer sein und/oder im strategischen Interesse liegen, ein Fuß in comma.ai + tinygrad und co zu bekommen.

Auf der sehr hackischen Seite: https://tinygrad.org kann man jetzt schon eine tinybox pre-ordern und es gibt die abgestimmt Software als Open-Source dazu: https://github.com/tinygrad/tinygrad ...



Das wird imho natürlich nicht den Mark leer saugen, aber es könnte ein Indiz sein warum es im Netzt das Gerücht um die nicht Verfügbarkeit (!= wird nicht Hergestellt) gibt ...

Von Nvidia's gibts die H100 AI Processors Are Selling for Over $40,000 on eBay (https://www.extremetech.com/computing/nvidias-h100-ai-processors-are-selling-for-over-40000-on-ebay) ... der Preis und ggf. die Nichtverfügbarkeit könnte schon eine Motivation sein sich wo anders umzuschauen bzw. eine Firma dafür zu gründen.

---
Was ist jetzt eigentlich der Name wenn man das X nimmt, Xweet?
Merkwürdig. Vor ein paar Monaten hat er noch über die Stabilität des Treiberkernels bei AMD geschimpft und über AMDs Einstellung das zu fixen. Was ist seit dem passiert?

w0mbat
2023-08-11, 09:54:37
Lisa Su hat sich direkt bei ihm gemeldet und AMD engineers auf die von ihm beschriebenen Probleme angesetzt.

HOT
2023-08-11, 10:02:41
Es gibt ja offenbar 3 Produkte, N4X, N4M und N4C. N4X dürfte gecancelt sein, der Rest nicht.
Dafür könnte RDNA5 (N5X) deutlich früher kommen, weil man ja die Entwicklung in diese Richtung schieben möchte offenbar. Das wird mMn vom Featureset natürlich kein RDNA5, der Ende 26 dann erscheinen würde, sondern eher ein RDNA4.5, weil da ein Jahr Basisentwicklung dann fehlt. Dennoch deutet sich hier ein Strategiewechsel an, die kleinen Chips kommen vor den Großen offenbar demnächst. Wäre diese Mal ja auch deutlich besser gewesen, erst N32 und N33 zu bringen und N31 dann eben mit RDNA3.5, dann wäre er zwar deutlich später gewesen als AD102, aber er wäre sicherlich konkurrenzfähig gworden. Eine Tod muss man halt sterben ;), wenn man viel weniger Entwicklungskosten da rein steckt als NV.

w0mbat
2023-08-11, 10:04:43
Ich denke das sind keine Produkte, sondern Produktreihen. N4X = N41, N42, N43, N44, etc. und hier wurde N41 gestrichen.

N4M sind die mobil Varianten und N4C könnte was ganz neues, ähnlich den Zen-C designs sein.

HOT
2023-08-11, 10:16:57
Da dürftest du recht haben. Das könnten einfach Packagevarianten sein.
Klar wird aber auf jeden Fall sein, dass es nur N41 nicht geben wird, wie es aussieht. N42 dürfte nur dann auch nicht das Licht der Welt erblicken, wenn er auf den gleichen Chiplets basiert.

DrFreaK666
2023-08-11, 11:20:15
Wenn kein 8900 erscheint, dann wirkt es sich bestimmt positiv auf die Preise der 5090/5080 aus. Das wird ein Spaß... :ugly:

Linmoum
2023-08-11, 11:50:40
AMD hat jetzt schon überhaupt keinen Gegenspieler für eine 4090 und der Preis ist im Vergleich mit GA102 (Dollar, jetzt bitte nicht mit Euro ankommen, den Kurs bestimmt weder NV, noch AMD oder Intel) kaum gestiegen, obwohl TSMC N4 um ein Vielfaches teurer sein wird als Samsungs 8nm.

Ich sehe in dem Fall auch kein Grund für Trauer. AMD zeigt mit ihren aktuellen Grafikkarten, dass sie die hohen Preise, die Nvidia verlangt, mitgehen, weil das die eigenen Margen hochhält. Da gibt es überhaupt kein Interesse an Preissenkungen oder mehr Marktanteilen. Man folgt dem Marktführer, bleibt den ein oder anderen Euro/Dollar drunter weil man das aufgrund von Ausstattung und Software schlicht muss und fertig.

Daran wird sich so schnell auch nichts ändern.

robbitop
2023-08-11, 12:20:04
Lisa Su hat sich direkt bei ihm gemeldet und AMD engineers auf die von ihm beschriebenen Probleme angesetzt.
Spekulation oder kann man das irgendwo nachvollziehen?

HOT
2023-08-11, 12:57:24
AMD hat jetzt schon überhaupt keinen Gegenspieler für eine 4090 und der Preis ist im Vergleich mit GA102 (Dollar, jetzt bitte nicht mit Euro ankommen, den Kurs bestimmt weder NV, noch AMD oder Intel) kaum gestiegen, obwohl TSMC N4 um ein Vielfaches teurer sein wird als Samsungs 8nm.

Ich sehe in dem Fall auch kein Grund für Trauer. AMD zeigt mit ihren aktuellen Grafikkarten, dass sie die hohen Preise, die Nvidia verlangt, mitgehen, weil das die eigenen Margen hochhält. Da gibt es überhaupt kein Interesse an Preissenkungen oder mehr Marktanteilen. Man folgt dem Marktführer, bleibt den ein oder anderen Euro/Dollar drunter weil man das aufgrund von Ausstattung und Software schlicht muss und fertig.

Daran wird sich so schnell auch nichts ändern.

Ich bin mal gespannt auf deine Trauer, wenn NV sich dazu entscheidet den Ultra-Enthusiasten-Markt nicht mehr zu bedienen ;), weil billiger und KI ist eh lukrativer und Konkurrenz ist ja eh nicht mehr zu erwarten. Warum dann nicht ne Stufe darunter ansetzen und nur 20-30% zur Vorgängergeneration bringen?

Exxtreme
2023-08-11, 13:41:58
Ich bin mal gespannt auf deine Trauer, wenn NV sich dazu entscheidet den Ultra-Enthusiasten-Markt nicht mehr zu bedienen ;), weil billiger und KI ist eh lukrativer und Konkurrenz ist ja eh nicht mehr zu erwarten. Warum dann nicht ne Stufe darunter ansetzen und nur 20-30% zur Vorgängergeneration bringen?

Bedienen werden sie es schon. Aber dann kostet eine RTX 5090 halt 2.300 EUR oder so.

HOT
2023-08-11, 13:49:53
Bedienen werden sie es schon. Aber dann kostet eine RTX 5090 halt 2.300 EUR oder so.
Wenn die entscheiden, dass man nicht mehr den neuesten Fertigungsprozess nutzen muss z.B., dann wird der Markt im Grunde nicht mehr so bedient, aber die 2300€ haste dann trotzdem ;).

Das ist eh nur theoretischer Natur, da AMD sich ja offenbar anschlickt mit einem N51 ernst zu machen. Aber jeder schadenfrohe NV-Junkie sollte sich im Klaren sein, dass NV die Entwicklungskraft zurücknehmen wird sobald AMD nicht mehr ganz oben mitmacht.

Dino-Fossil
2023-08-11, 13:50:09
Nachdem diese Generation abseits der Leistungsspitze eigentlich keine großen Vorteile bringt, Frage ich mich ein wenig, ob wir uns daran gewöhnen müssen/sollen, dass Fortschritte kleiner werden und Preise weiter steigen. Man bekommt pro Generation ein paar neue Features, minimal mehr Leistung und das wars. Wird aber nicht lange gut tun, denke ich.

HOT
2023-08-11, 13:54:56
Wenn der KI-Hype mal vorbeigezogen ist und man sich stark auf Chiplets fokussiert auch bei Consumer-GPUs wirds wieder ein paar große Sprünge gebem :). Es ist halt die Frage, wie wirtschaftlich lohnenswert das wirklich ist, da besteht schon eine Gefahr, dass das eintritt.

Exxtreme
2023-08-11, 13:58:10
Nachdem diese Generation abseits der Leistungsspitze eigentlich keine großen Vorteile bringt, Frage ich mich ein wenig, ob wir uns daran gewöhnen müssen/sollen, dass Fortschritte kleiner werden und Preise weiter steigen. Man bekommt pro Generation ein paar neue Features, minimal mehr Leistung und das wars. Wird aber nicht lange gut tun, denke ich.

Ich glaube, die Innovationen werden in so Sachen wie Frame Generation oder besseres FSR/DLSS gehen. Denn langsam nähert man sich der Siliziummauer. Und da wird es wohl besser/effizienter sein Dinge nicht zu berechnen denn die Ressourcen in noch mehr Rohleistung zu stecken.

HOT
2023-08-11, 14:02:52
FG ist mMn ne Sackgasse, weil das schlichtweg am Problem vorbeigeht. Du brauchst ja hohe Frames für niedrige Latenzen. Besseres DS und mehr andere KI-Maßnahmen wird hingegen eine sehr große Rolle spielen, schon wegen der Konsolen.

robbitop
2023-08-11, 14:43:36
Ehrlich gesagt ist es unwahrscheinlich, dass AI nur ein temporärer Hype sind, wie es das mit den Hochzeiten des Cryptominings war (lohnt sich bei hohen Kryptokursen und/oder niedrigen Stromkosten).
AI ist sehr wahrscheinlich ein großer Bestandteil der Zukunft und es wird eher weiter wachsen. Einfach weil das Potenzial echt hoch ist. Und wir sind da gerade noch relativ am Anfang.

HOT
2023-08-11, 16:31:54
Nicht mißverstehen:

AI-Hype ist eine Übertreibung. Natürlich verändert AI die Welt, darum gehts nicht. Aber der Hype wird wieder mal übertrieben und dann platzt wieder die Blase.

robbitop
2023-08-11, 18:22:15
Ich glaube nicht, dass das eine Blase ist. Das ist erst der Anfang. Für das Inferencing und Training braucht es halt brutal Matrixrechenleistung. Und des werden immer mehr NNs die trainiert und genutzt werden und die werden immer komplexer. Da ist Platz für exponentielles Wachstum an HW Verkäufen.

Hübie
2023-08-11, 18:23:32
Um das Thema noch mal aufzugreifen:
Sollte China Taiwan angreifen, gibt es bereits Pläne so viel Personal und Equipment wie man wegschaffen kann nach Arizona zu deportieren. Unbestätigte Quellen sagen, dass China bis 2025 ihre Vorbereitungen abgeschlossen haben werden und dann werden wir ja sehen was aus TSMC wird. Der Name ist dann natürlich eine Farce...
Hier noch was zum Nachlesen:
https://asia.nikkei.com/Business/Tech/Semiconductors/TSMC-delays-U.S.-chip-plant-start-to-2025-due-to-labor-shortages#:~:text=TAIPEI%20%2D%2D%20Taiwan%20Semiconductor%20Manufacturing,move% 20equipment%20into%20the%20facility

https://www.merkur.de/politik/boote-china-taiwan-konflikt-krieg-angriff-invasion-news-usa-pearl-harbor-u-92286049.html

B2T:
Ich wäre enttäuscht, wenn AMD wieder auf die Idee kommt, keine Highend Chips mehr zu entwickeln. RDNA hat immer noch Potenzial. Ich halte die Spekulationen für nicht einleuchtend, da man mittels Prestige Produkten auch die Aufmerksamkeit bekommt. Das sieht man an deren APUs mit RDNA3, welche auf weiter Flur den Boden mit Intel wischen. Ist aber nur meine Meinung, ohne Fakten dahinter.

HOT
2023-08-11, 18:33:44
Ich glaube nicht, dass das eine Blase ist. Das ist erst der Anfang. Für das Inferencing und Training braucht es halt brutal Matrixrechenleistung. Und des werden immer mehr NNs die trainiert und genutzt werden und die werden immer komplexer. Da ist Platz für exponentielles Wachstum an HW Verkäufen.
Das ist wie immer, es wird total übertrieben, dann platzt der Hype und dann gehts normal weiter und die Welt hat sich verändert. Siehe DotCom, Mining usw. Wir sind ja auch noch lange nicht so weit, aber irgendwann überschreiten wir den Punkt, an dem die Investitionen den Nutzen übersteigen. Ist halt Kapitalismus. Das muss passieren. AMD und NV haben immer noch mit den Folgen des Platzens der Mining-Blase zu kämpfen. Wenn der AI-Hype platzt, 25 oder 26 würd ich schätzen, hat man immer noch PC-Grafik und ist froh das zu haben :D.


Würd ich lassen das Thema Hübie. Dann wirst gleich wieder angemeckert ;).

Der_Korken
2023-08-11, 18:44:13
Ich wäre enttäuscht, wenn AMD wieder auf die Idee kommt, keine Highend Chips mehr zu entwickeln. RDNA hat immer noch Potenzial. Ich halte die Spekulationen für nicht einleuchtend, da man mittels Prestige Produkten auch die Aufmerksamkeit bekommt. Das sieht man an deren APUs mit RDNA3, welche auf weiter Flur den Boden mit Intel wischen. Ist aber nur meine Meinung, ohne Fakten dahinter.

Die Architektur wird AMD wohl eher nicht fallen lassen. Man scheint sich allerdings im Highend-Bereich etwas verhoben zu haben, weil Architektur und Chiplet-Ansatz vielleicht doch nicht so skaliert haben wie erhofft. Bei RDNA3 scheinen die Chiplets zwar nicht das Hauptproblem zu sein (abgesehen vielleicht von Engpässen bei den Packaging-Kapazitäten), aber vielleicht sollte RDNA4 direkt ein All-In mit nur einem GCD-Die sein (wie bei den CPUs), obwohl schon beim Vorgänger noch nicht alle Probleme behoben sind. Gemeint sich Architekturprobleme bezüglich Stromverbrauch, die sich nicht so leicht beheben lassen und das Gerücht, dass es bei der GCD-MCD-Kommunikation zu Fehlern kam und da irgendwo eine Bremse eingebaut werden musste. Die Strategie dann erstmal konservativer auszurichten erscheint für mich logisch.

Nightspider
2023-08-11, 20:02:22
Man könnte auch spekulieren das AMD einige Ingenieure aus den Zen Teams zur GPU Gruppe verschiebt.

Zen 5 ist kurz vor der Massenproduktion und selbst das Zen 6 Design sollte weitestgehend fertig sein.
Es sieht danach aus das AMD den CPU Markt dominieren wird die nächsten 1-2 Jahre, wegen des Fertigungsvorpsprungs durch TSMC.

Es wäre wohl nicht das erste Mal das ein paar helfende Hände aus der CPU Abteilung der GPU Abteilung unter die Arme greifen.


Das ist eh nur theoretischer Natur, da AMD sich ja offenbar anschlickt mit einem N51 ernst zu machen.

Das haben sie auch schon vor 2 Jahren zu N31 und N41 gesagt.

Wenn AI die nächsten Jahre weiterhin DAS Thema bleibt, dann werden die Kapazitäten eh bei CDNA bleiben.

Dann spart man sich lieber wieder einige Radeon Varianten und schiebt vielleicht lieber eine CDNA 3.5 oder 4.5 Generation ein mit den neusten HBM Würfeln usw usw usw

Kapitalismus FTW und so

HOT
2023-08-11, 20:21:55
Ne, die werden N51 schon bringen. Das ist ja jetzt ein andere Projekt offenbar, man bringt eben eine statt 2 Generationen und spart sich die Ressourcen. Ist eigentlich schlau, weil 3nm braucht AMD eh für MI400 und Turin Dense. Das reicht, wenn 3nm erst Ende 25 für Consumer zur Verfügung steht. Bei NV wirds ja ähnlich aussehen, die AI-Chips werden die 3nm bis Ende 25 voll in Beschlag nehmen. Die ganzen Consumerchips beider Hersteller bleiben mMn ne ganze Zeit auf 4nm. Nur Intel wird mit ARL und LNL Ende 24 auf N3 gehen, später dann auf 20A offenbar.

Zossel
2023-08-11, 20:22:30
Ich glaube nicht, dass das eine Blase ist. Das ist erst der Anfang. Für das Inferencing und Training braucht es halt brutal Matrixrechenleistung. Und des werden immer mehr NNs die trainiert und genutzt werden und die werden immer komplexer. Da ist Platz für exponentielles Wachstum an HW Verkäufen.

Um welchen Faktor wird das Ergebnis besser wenn man doppelt so viele Transistoren darauf wirft?

robbitop
2023-08-11, 21:58:00
Das ist wie immer, es wird total übertrieben, dann platzt der Hype und dann gehts normal weiter und die Welt hat sich verändert. Siehe DotCom, Mining usw. Wir sind ja auch noch lange nicht so weit, aber irgendwann überschreiten wir den Punkt, an dem die Investitionen den Nutzen übersteigen. Ist halt Kapitalismus. Das muss passieren. AMD und NV haben immer noch mit den Folgen des Platzens der Mining-Blase zu kämpfen. Wenn der AI-Hype platzt, 25 oder 26 würd ich schätzen, hat man immer noch PC-Grafik und ist froh das zu haben :D.


Würd ich lassen das Thema Hübie. Dann wirst gleich wieder angemeckert ;).
Das hat null Gemeinsamkeiten mit dem Mining Hype oder der dot com bubble. Wer jetzt das Potenzial von AI noch unterschätzt ist entweder schlecht informiert oder schlicht naiv.

HOT
2023-08-12, 00:21:14
Ja genau 0 Gemeinsamkeiten :freak:

ianm
2023-08-12, 00:31:56
Man kann nur hoffen, dass vom AI Boom etwas Positives zurück bleibt. Ansonsten sieht das erstmal sehr ähnlich aus.

Nvidia will mit Gaming scheinbar auch nicht mehr groß was zu tun haben - und AMD mit der kommenden Generation auch nicht wirklich. Hauptsache man verkauft überteuere Hardware an AI Startups und die üblichen Verdächtigen im IT Bereich. Alles für den Shareholder.

Zossel
2023-08-12, 07:52:33
Das hat null Gemeinsamkeiten mit dem Mining Hype oder der dot com bubble. Wer jetzt das Potenzial von AI noch unterschätzt ist entweder schlecht informiert oder schlicht naiv.

Der wievielte "KI"-Hype in den letzten 50 Jahren ist das jetzt?

robbitop
2023-08-12, 09:32:02
Also entweder bist du null informiert über das was bei AI herauskommt oder einfach borniert.
AI komponiert, AI macht Kunst, AI besteht die schwersten Klausuren der Welt, AI programmiert, AI schreibt bessere Formulierungen als sie meisten Menschen, AI recherchiert, AI hat sogar schon kleine erfolgreiche Firmen gebaut, AI übersetzt ganze Texte in alle möglichen Sprachen, AI hilft bei der Performance im 3D rendering (was für Ergebnisse mit 1/8 der berechneten Pixel möglich ist, ist krass), AI fährt autonom Auto, AI layouted Chipfloorplans uswusf … und da gibt es jeden Tag aktuell wieder neue Fortschritte und Anwendungen wo einem der Unterkiefer runterfällt.
Das ist kein Hype. Sowas gab es zuvor noch nicht. Die Anwendungsmöglichkeiten sind riesig und schaffen je nach Anwendungsfall richtig Mehrwert (verdienen Geld in dem sie Dinge automatisieren die vorher manuell gemacht werden mussten - und je besser diese wird, desto fähigere, teurere und seltenere Mitarbeiter werden dadurch abgelöst).
Der Fortschritt seit den letzten wenigen Jahren ist enorm und das Potenzial ist riesig. Und das war erst der Anfang.
Sorry wer das nicht sieht ist blind.

Und wer jetzt behauptet, dass es NNs und den Hype seit Jahrzehnten gibt, versteht nicht, dass es erst seit kurzem die motwendigen Möglichkeiten in der HW Rechenleistung und der SW (Transformer KI Modelle) gibt. Sowas gab es früher noch nicht und entsprechend waren die Ergebnisse/Anwendungen verglichen mit dem was seit kurzem abgeht vernachlässigbar und gerade zu lächerlich.

HOT
2023-08-12, 09:34:20
Du verstehst den Punkt nicht. Es geht hier um Finanzmarkmechanik. Alles zu AI bezweifelt keiner ;). Die Finanzanalysten erkennen, dass die Investitionen irgendwann die tatsächliche Entwicklung überholen werden, dann gibts ne Übertreibung und Blasenbildung. Das ist immer so. Dann gehen ein Haufen Startups pleite, die großen Spieler müssen sich konsolidieren und der Markt geht dann mit AI und allem was AI kann normal weiter.

robbitop
2023-08-12, 09:38:17
Wen interessiert der „Finanzmarkt“? Unternehmensgewinne (Fundamentalkennzahlen) sind relevant. (und stetige Fundamentalkennzahlen treiben den Aktienkurs)
Und das Potenzial an zukünftigen Unternehmensgewinnen durch den Wachstum der Applikation sind nahezu endlos.
Daran kann man sich dumm und dusselig verdienen. Entsprechend tut AMD gut daran ein Stück von dem wachsenden und extremst profitablen Kuchen abzubekommen.
Das ist keine Blase. Denn hier steckt Substanz (Unternehmensgewinne) dahinter. Das war bei dot com anders. Sämtliche dot com Unternehmen waren nicht/kaum profitabel. Deren Aktienkurs wurde nur von Visionen getrieben. Heutige Unternehmen mit diesem Schwerpunkt sind ultra profitabel. (google, nvidia, amazon und co)

HOT
2023-08-12, 09:39:56
Endlos, ja, hat niemand bezweifelt. Aber es ist nunmal Kapitalismus und Finanzmarktmechanik, die Blasenbildung erzeugen, daher ist die nicht irrelevant ;).

Ich machs mal ganz plakativ:
AI wird alles verändern, ist ein gigantischer Wachstumsmarkt, ist hinterher überall vorhanden und trotzdem wird es eine Übertreibung für die ausführenden Unternehmen geben. Das nennt man Hype und das ist eine Blasenbildung, die sich im Marktgeschehen korrigieren wird. DotCom ist sogar ziemlich gut vergleichbar finde ich, denn auch hier wird sich die ganz große Frage stellen: Wie mit AI Geld verdienen? Wie ist AI nicht kontraproduktiv bei der Gewinnerzielung? Abseits der ausführenden Unternehmen (AMD, NV, Tenstorrent etc) meine ich.

robbitop
2023-08-12, 09:44:03
Du verstehst nicht mal die grundlegenden Unterschiede zw dot com Blase (nur Vision aber keine Profitabilität) und KI (deren Kernunternehmen sind ultra profitabel und statt einer Vision gibt es krasse Resultate). Macht einfach keinen Sinn. Für mich ist hier EoD.