PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3, 7 nm, 2020 (Vermeer, Cezanne, Genesis Peak & Milan)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27

Unicous
2021-09-03, 17:25:54
Rembrandt is already in mass production.
https://twitter.com/greymon55/status/1433797143328800775

Sollte an sich nicht groß überraschen, auch wenn Infos zum Chip ja relativ rar gesät sind. Mal schauen ob es in den nächsten Wochen ein paar Leaks gibt.

Nightspider
2021-09-05, 20:09:51
TSMC N6 ermöglicht ja +7% Leistung oder -10% beim Verbrauch.

Bin mal gespannt ob Rembrandt noch leicht höhere Taktraten bekommen wird und/oder bei der Effizienz neue Rekorde aufstellen wird.

Auch die Taktraten von RDNA2 mit N6 könnten interessant werden.

Die höhere Packdichte beim V-Cache könnte AMD auch für den L3 in Rembrandt nutzen, falls kompatibel.

HOT
2021-09-06, 08:46:27
Das stimmt nicht. Das war IIRC bei N7+ der Fall, aber N6 hat dieselbe Performance wie N7. N6 ist kleiner und billiger, das wars.

dildo4u
2021-09-06, 08:51:25
Wenn es kleiner ist kann AMD mehr Performance reinpacken z.b mehr Cache, die APUs sind doch bisher beschnitten was L3 angeht.

KarlKastor
2021-09-06, 09:03:52
Das stimmt nicht. Das war IIRC bei N7+ der Fall, aber N6 hat dieselbe Performance wie N7. N6 ist kleiner und billiger, das wars.

https://semiwiki.com/wp-content/uploads/2020/09/A72_core_high_density-1024x612.jpg.webp
Keine Ahnung ob es bei HP anders aussieht, aber grundsätzlich ist wohl schon was drin.

DozerDave
2021-09-06, 10:22:48
TSMC N6 ermöglicht ja +7% Leistung oder -10% beim Verbrauch.

Bin mal gespannt ob Rembrandt noch leicht höhere Taktraten bekommen wird und/oder bei der Effizienz neue Rekorde aufstellen wird.

Auch die Taktraten von RDNA2 mit N6 könnten interessant werden.

Die höhere Packdichte beim V-Cache könnte AMD auch für den L3 in Rembrandt nutzen, falls kompatibel.

Wie soll ein neuer Fertigungsprozess +7% Leistung erzeugen? Die -10% weniger Energieaufnahme sind ja verständlich.

vinacis_vivids
2021-09-06, 10:34:56
Klar sind die +7% Leistung möglich wenn sich die internen Latenzen leicht verbessern und&oder die CPU höhere Taktraten erreicht bei gleicher Leistungsaufnahme. Der IF-Controller könnte auch bessere Latenzen bekommen und schneller takten.
Leichte uArch interne Verbesserungen sind immer möglich.

Höhere Komplexität ist bspw. eine Änderung in der Sprungvorhersage, die meistens eine größeres Upgrade braucht, weil da vieles geändert werden muss.

smalM
2021-09-06, 11:37:32
Wie soll ein neuer Fertigungsprozess +7% Leistung erzeugen? Die -10% weniger Energieaufnahme sind ja verständlich.
Beides bezieht sich auf die N6-Transistoren gegen N7-Transistoren, wenn ein Design für N6 entwickelt wurde statt für N7.
Ein Retape-out eines N7-Designs in N6 wird weder das eine noch das andere erreichen. Da geht es dann eher um Vorteile in der Fertigung. Die kleineren Verbesserungen, die sich dabei trotzdem ergeben, nimmt man dann gerne mit, mehr aber auch nicht.

amdfanuwe
2021-09-06, 12:03:30
Die +7% Takt sind von N7 nach N7P.

https://fuse.wikichip.org/wp-content/uploads/2019/07/wikichip_tsmc_logic_node_q2_2019.png

Nach dem Link von KarlKastor oben bringt N6 2% mehr Speed gegenüber N7.

https://semiwiki.com/wp-content/uploads/2020/09/A72_core_high_density-1024x612.jpg.webp

Wegen N6 würde ich da nicht mehr Speed erwarten, zumal die APUs eher auf Low Power ausgelgt sein dürften.
War jetzt eigentlich ZEN2 in N7 und ZEN3 in N7P? Mehr Takt haben sie ja bei ZEN3 noch rausgeholt.

Nightspider
2021-09-06, 12:17:24
Genau auf die Folie bezog ich mich.
Hab den Pfeil übersehen der auf den Sprung von N7 auf N7+ zeigte. :usad:

HOT
2021-09-06, 15:00:16
https://semiwiki.com/wp-content/uploads/2020/09/A72_core_high_density-1024x612.jpg.webp
Keine Ahnung ob es bei HP anders aussieht, aber grundsätzlich ist wohl schon was drin.

Ah, danke für den Link. Also doch bis zu 10% Energieeinsparung. Die 2% Leistung ist halt egal.

amdfanuwe
IIRC basieren alle CPUs/APUs (auch die Konsolen) auf dem gleichen angepassten N7(e) und die GPUs alle auf dem gleichen angepassten N7P.

KarlKastor
2021-09-06, 16:00:46
Wobei sich das auf N7 bezieht. Das andere Bild zeigt -10% Power von N7 zu N7P. Also ist dann N6 vielleicht doch nur wie N7P.

Alles etwas uneindeutig.

VooDoo7mx
2021-09-06, 16:27:46
Als jemand der einn Cezanne Notebook nutzt, bin ich echt gespannt was Rembrandt so drauf hat.
Die größte Sxchwachstelle an Cezanne ist echt die Vega iGPU. Die ist für die gebotene Performance extrem ineffizient und säuft wie ein Loch.
Die Zen 3 Kerne sind echt effizient und liegen nicht weit hinter den Apple M1 zurück. Die Vega iGPU ist jedoch absolut indusktabel.
Bin gespannt wie viele Navi2 CUs das Teil bekommt. Es wird ja über 12 spekuliert, was echt ein guter Sprung wäre.
Mal sehen ob auch der L3 Cache auf 32MiB angeglichen wird oder weiter so klein bleibt. 3D V Cache halte ich für unwahrscheinlich.
Und endlcih auch PCIe 4 und GPUs die sich mit 16 Lanes anbinden lassen. :O

fondness
2021-09-06, 16:49:33
Wie kommst du darauf, dass die Vega iGPU säuft wie ein Loch? Die läuft nbei mir selbst bei 20W TDP auf der APU mit vollem Takt.

Nightspider
2021-09-06, 16:50:34
Mit 12 hoch taktenden CUs dank N6 und RDNA2 bräuchte man vielleicht nicht mehr CUs bevor die Bandbreite limitiert.
V-Cache für ein paar Top-Modelle (a la Iris Pro) wäre wünschenswert.

Dann könnte AMD den L3 beim normalen Model auch bei der geringen Größe belassen.
(V-Cache würde dann den L3 versechsfachen ^^)

vinacis_vivids
2021-09-06, 18:05:47
Vega CUs an sich sind in 7nm doch super. Takten bis 2.2Ghz.
Was der APU hauptsächlich fehlt, ist die nutzbare Bandbreite. DDR4-3200 Dual Channel sind halt nur 25,6GB pro Kanal und in Summe halt nur ~50GB/s shared.
RDNA2 uArch bringt halt den IF-Cache mit, der allerdings auch viel Platz braucht.

basix
2021-09-06, 18:43:04
Obwohl ich mir IF-Cache für die APUs wünschen würde, ist es bei Rembrandt zumindest sehr unwahrscheinlich. Mit (LP)DDR5(X) bekommt man deutlich mehr Bandbreite und RDNA geht verglichen zu Vega effizienter mit Bandbreite um.

Deutlich wahrscheinlicher ist, dass die iGPU den L3$ der CPU mitnutzen kann. Da habe aber schon mehrere hier erwähnt, dass das nicht eine so einfache Sache ist wie es scheint. Ich vermute, dass das erst mit dem Nachfolger von Rembrandt passieren wird und hier ebenfalls die Option für V-Cache dazukommt. Für 1a iGPU Performance hat man V-Cache, für den Massenmarkt dann nicht und man teilt sich den L3$ mit der CPU. Die +64 MByte V-Cache würden für 1080p Gaming locker ausreichen (64 MByte Infinity Cache entsprechen ~3...3.5x Bandbreitenmultiplikator bei 1080p). 1080p könnten mit XeSS und "FSR 2.0" auch 4K Gaming erlauben.

Edit:
AMD kann 32 CUs mit 2.5 GHz takten und benötigt dafür 130W. Jetzt das in 6nm, nur 12 CUs sowie ohne GDDR6 Interface und man landet vielleicht bei ~15W bei 2.0 GHz (nur für die iGPU). Das Ding hätte schon Bumms, wären 3.0 TFlops.

VooDoo7mx
2021-09-06, 21:37:28
Wie kommst du darauf, dass die Vega iGPU säuft wie ein Loch? Die läuft nbei mir selbst bei 20W TDP auf der APU mit vollem Takt.

Hab ich schon mal in einen anderen Thread geschrieben:

Bioshock Remastered 1920x1200 max Details, 60fps cap
Apple M1: 7W-8W Package inklusive DRAM (über x86 Emulation)
5800H: 30W Package exklusive DRAM

Selbst wenn ich das Spiel im Notebook über die dGPU laufen lasse, verbraucht die AMD APU noch mehr Strom. :ugly:

im 3D Mark Wildlife ist die Apple M1 iGPU mehr als doppelt so schnell wie Vega 8 bei nur ein Drittel des Stromverbrauchs.
Das meine ich wie säuft wie ein Loch.

Wenn ich jedoch den CPU Teil nehme, ist bei 15W Limit bei Cinebench R23 der Apple M1 "nur" 20% schneller. Also Zen 3 schon sehr gut unterwegs.
Jedoch wird wohl beim M1X bei geschätzten 30W wohl ne ganze Ecke vor Cezanne liegen.

robbitop
2021-09-06, 22:56:46
Ist aber auch 5 nm vs 7 nm. Und TBDR vs IMR (TBDRs haben denk des Tilecaches viel weniger Bandbreitenbottlenecks und dementsprechend weniger Speicherzugriffe) und wahrscheinlich LPDDR vs DDR. Aber ja die Vega IP ist alles andere als frisch. Aber verglichen mit Vega aus den alten dGPUs ist Vega in den APUs wirklich halbwegs brauchbar.

Nightspider
2021-09-07, 05:02:30
und RDNA geht verglichen zu Vega effizienter mit Bandbreite um.

Geht RDNA auch ohne IF$ effizienter mit der Bandbreite um?

und wahrscheinlich LPDDR vs DDR

Sitzt da eigentlich ein normaler LPDDR Chip (wie in Smartphones) auf dem M1 oder ist das mehr eine Form von HBM mit viel höherher Bandbreite durchs Stacking?

mboeller
2021-09-07, 07:49:33
Geht RDNA auch ohne IF$ effizienter mit der Bandbreite um?


siehe RDNA1

robbitop
2021-09-07, 09:12:40
Sitzt da eigentlich ein normaler LPDDR Chip (wie in Smartphones) auf dem M1 oder ist das mehr eine Form von HBM mit viel höherher Bandbreite durchs Stacking?
Von HMB habe ich in dem Zusammenhang nie was gelesen. Ich gehe ganz ganz stark von DRAM aus.

fondness
2021-09-07, 09:34:46
Hab ich schon mal in einen anderen Thread geschrieben:

Bioshock Remastered 1920x1200 max Details, 60fps cap
Apple M1: 7W-8W Package inklusive DRAM (über x86 Emulation)
5800H: 30W Package exklusive DRAM

Selbst wenn ich das Spiel im Notebook über die dGPU laufen lasse, verbraucht die AMD APU noch mehr Strom. :ugly:

im 3D Mark Wildlife ist die Apple M1 iGPU mehr als doppelt so schnell wie Vega 8 bei nur ein Drittel des Stromverbrauchs.
Das meine ich wie säuft wie ein Loch.

Wenn ich jedoch den CPU Teil nehme, ist bei 15W Limit bei Cinebench R23 der Apple M1 "nur" 20% schneller. Also Zen 3 schon sehr gut unterwegs.
Jedoch wird wohl beim M1X bei geschätzten 30W wohl ne ganze Ecke vor Cezanne liegen.

Afaik hat dich Mr lolman damals schon korrigiert, dass deine Werte keinen Sinn ergeben.

/Edit: Müsste das hier sein:

Da hakts dann aber irgendwo bei dir. Ich kann am Ideapad Flex 5 14ARE05 (5700U) Bioshock Remastered in FullHD mit allen Details im Power Saving Mode komplett passiv mit konstanten 50 fps spielen. 50 deswegen, weils da mit dem Samsung.TV nettes 4k Upscaling gibt.

Die Package Power liegt dabei zwischen 4 (eine Wand ansehend) und 6 Watt. Die GPU-Aulasung bei 50-95% und der GPU-Takt zwischen 400 und 1900MHz.

Disclaimer: Ich habs extra gerade ausprobiert, weil mich das nun doch ein bisschen gewundert hat, dass der M1 bei dir soo viel effizienter sein soll.

smalM
2021-09-07, 14:16:51
Sitzt da eigentlich ein normaler LPDDR Chip (wie in Smartphones) auf dem M1 oder ist das mehr eine Form von HBM mit viel höherher Bandbreite durchs Stacking?
Zwei stinknormale LPDDR4X-4266 in 128bit-Anbindung (= 8x16b SI).
Macht 68GB/s Bandbreite, real schafft der M1 58~60GB/s bei, wenn ich mich recht entsinne, 96ns Latenz (full random).
Die Unterbringung auf dem 2.5D-Package statt auf dem Motherboard mag ein paar Milliwatt und die eine oder andere Nanosekunde sparen.

VooDoo7mx
2021-09-08, 14:37:46
Ist aber auch 5 nm vs 7 nm. Und TBDR vs IMR (TBDRs haben denk des Tilecaches viel weniger Bandbreitenbottlenecks und dementsprechend weniger Speicherzugriffe) und wahrscheinlich LPDDR vs DDR. Aber ja die Vega IP ist alles andere als frisch. Aber verglichen mit Vega aus den alten dGPUs ist Vega in den APUs wirklich halbwegs brauchbar.

Das ist doch vollkommen egal. Wichtig ist was hinten bei raus kommt. M1 Macbooks sind im November auch schon wieder 1 Jahr auf dem Markt, also kamen sogar noch deutlich vor der Cezanne APU raus.
Beim Ampere Stromverbrauch sagt ja auch keiner, dass der Vergleich mit RDNA2 unfair wäre, weil dieser ja den besseren TSMC Prozess verwendet.

Afaik hat dich Mr lolman damals schon korrigiert, dass deine Werte keinen Sinn ergeben.

Weil dein AMD Fanyboykollege das behauptet und dir das besser in den eigenen Kram passt, ist es natürlich richtig. :uup:

Ich hab gar nicht so viel Zeit hier jede Fanboy Falschaussage zu korrigieren, dass wäre eine Fulltime Job.
Wenn du jedoch selber 20W misst, dann Mr Lolman kommt und 6W behauptet, ist dies dann natürlich richtig.
Die komplette eigene kognitive Dissonanz fällt hier im Fanboy Wahn schon gar nicht mehr auf. :ucrazy:

CrazyIvan
2021-09-08, 16:34:18
Mr. Lolman hatte mit ebendiesem Gerät auch unglaubwürdige Verbrauchswerte im PES-Thread gepostet. Ich gehe daher davon aus, dass die Sensoren bei seinem Gerät Mist ausgeben. Insofern erklärt sich mir auch Euer Disput.
Siehe verlinkten Post & fortfolgende: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12736931#post12736931

robbitop
2021-09-08, 16:42:36
Das ist doch vollkommen egal. Wichtig ist was hinten bei raus kommt. M1 Macbooks sind im November auch schon wieder 1 Jahr auf dem Markt, also kamen sogar noch deutlich vor der Cezanne APU raus.
Beim Ampere Stromverbrauch sagt ja auch keiner, dass der Vergleich mit RDNA2 unfair wäre, weil dieser ja den besseren TSMC Prozess verwendet.

Also wenn M1 die Referenz ist, dann ist aber auch alles "versoffener Müll". Vega, RDNA2, Ampere. Dann müsste man das ganze etwas vollständiger beschreiben. Bei dir liest es sich so, als wenn nur Vega das Problem ist.

Gipsel
2021-09-08, 16:48:27
Nun ja, einen 5800U (15W Cap im Standard, im Powersafe-Modus in einigen Geräten auch 12W) und 5800H (45W Cap) zu vergleichen und sich dann über unterschiedlichen Verbrauch zu wundern, ist auch eher ... verwunderlich. :rolleyes:

CrazyIvan
2021-09-08, 21:00:00
Lieber Gipsel,

zum Einen: Manchmal muss man mit den Messwerten leben, die man bekommt. Das ist nicht immer schön, aber so ist das nun einmal. Laborbedingungen gibt es im Feld eher selten.

Zum Zweiten: Die "fortfolgenden" hatte ich nicht ohne Grund genannt. Der Casus Knacksus bezog sich auf den ST-Wert, welcher, wie Dir sicher bewusst ist, kaum bis gar nicht durch eine TDP von 15w oder 45w beeinflusst wird.

Zum Dritten: Eine Abweichung um Faktor 2 stellt eine Signifikanz dar, die nicht einfach hinnehmbar sondern kausal zu begründen ist. Das wirst Du als (emeritierter) Wissenschaftler hoffentlich ebenso sehen.

Zusammengefasst: Ich wünschte mir von Dir etwas weniger Verächtlichmachung. Aber das ist natürlich nur ein IMHO.

Gipsel
2021-09-08, 21:37:14
zum Einen: Manchmal muss man mit den Messwerten leben, die man bekommt. Das ist nicht immer schön, aber so ist das nun einmal. Laborbedingungen gibt es im Feld eher selten.Dann sollte man aber auch sehen, daß die 20W mit dem 5800H außerhalb des möglichen beim 5800U (mit Standardlimit) liegen. ;)
Zum Zweiten: Die "fortfolgenden" hatte ich nicht ohne Grund genannt. Der Casus Knacksus bezog sich auf den ST-Wert, welcher, wie Dir sicher bewusst ist, kaum bis gar nicht durch eine TDP von 15w oder 45w beeinflusst wird.Oben lesen ich was vom Verbrauch in einem Spiel. :rolleyes:
Zum Dritten: Eine Abweichung um Faktor 2 stellt eine Signifikanz dar, die nicht einfach hinnehmbar sondern kausal zu begründen ist.Das Standard-Powerlimit zwischen 5800U und 5800H unterscheidet sich um Faktor 3. ;)
Das wirst Du als (emeritierter) Wissenschaftler hoffentlich ebenso sehen.:confused:
Emeritiert ist inzwischen maximal mein Doktorvater. Mein Renteneintrittsalter liegt noch ein paar Jahrzehnte in der Zukunft und ich arbeite ganz aktuell als Forscher. Also keine Ahnung, was Du mir da sagen willst.[/OT]
Zusammengefasst: Ich wünschte mir von Dir etwas weniger Verächtlichmachung. Aber das ist natürlich nur ein IMHO.Und das Leben ist kein Wunschkonzert. Auch IMHO.

Edit zur Korrektur: Es war oben (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12784923#post12784923) kein Vergleich des Verbrauchs 5800U vs. 5800H, sondern 5700U vs. 5800H. Ändert aber auch nicht viel, außer daß das noch Zen2 ist, der tendentiell sogar noch etwas besser zu niedrigeren Verbräuchen als Zen3 skaliert. Und der 5700U, der da zum Vergleich rangezogen wurde, läuft offenbar mit 12W Limit. Da muß dann ja notgedrungen weniger als die 20W mit dem 5800H rauskommen (und 50 fps vs 60fps Cap war es auch noch).

CrazyIvan
2021-09-08, 21:40:52
Okay, ich sehe es ein, mit Dir als professionellem oder auch hobbymäßigem Goldwieger brauche ich mich jetzt nicht auf die Suche nach jedweder Sptzfindigkeit zu begeben - die findest Du anscheinend auch von ganz allein.

Gipsel
2021-09-08, 21:54:40
Okay, ich sehe es ein, mit Dir als professionellem oder auch hobbymäßigem Goldwieger brauche ich mich jetzt nicht auf die Suche nach jedweder Sptzfindigkeit zu begeben - die findest Du anscheinend auch von ganz allein.
Da benötigt niemand eine Goldwaage um festzustellen, daß eine Zen2-CPU mit 12W Verbrauchslimit (und 50fps in einem konkreten Spiel) wohl weniger verbrauchen muß als die gemessenen 20W eines Zen3-Chips mit 45W Limit und 60fps Cap im gleichen Spiel. ;D

CrazyIvan
2021-09-08, 22:20:14
Okay, letzter Versuch: Mir geht es um den Vergleichspunkt. Wenn die Messung von Mr. Lolmans Notebook besagt, dass sein Lucienne bei exakt gleichem Workload (ST) nur 35% des Energieverbrauchs eines Renoir besitzt, dann stelle ich grundsätzlich jegliche Messung bei diesem Notebook infrage. Wenn das für Dich keine Rolle spielt - geschenkt. Ist eben Dein Standpunkt. Nur meines Erachtens ein ziemlich irrationaler.

Gipsel
2021-09-08, 22:41:04
Okay, letzter Versuch: Mir geht es um den Vergleichspunkt. Wenn die Messung von Mr. Lolmans Notebook besagt, dass sein Lucienne bei exakt gleichem Workload (ST) nur 35% des Energieverbrauchs eines Renoir besitzt, dann stelle ich grundsätzlich jegliche Messung bei diesem Notebook infrage. Wenn das für Dich keine Rolle spielt - geschenkt. Ist eben Dein Standpunkt. Nur meines Erachtens ein ziemlich irrationaler.Ich weiß, worauf Du hinaus willst. Es ändert trotzdem nichts daran, daß hier im Thread keine ST-Last verglichen wurde (sondern leichtes MT + GPU) und der eine besagte Prozessor mit einem höheren Verbrauch vermessen wurde, als beim anderen überhaupt als Powerlimit eingestellt war. Da muß es also Unterschiede geben, völlig egal ob Du den Verbrauchszahlen in einem Singlethread-Cinebench-Run vertraust oder nicht (und wie im anderen Thread verlinkt, hat Lucienne laut Anandtech Änderungen, die insbesondere im ST- oder Teillastbetrieb entscheidende Verbesserungen liefern sollten [Aktivierung/Verwendung von on-Die LDOs, um jedem Kern und der iGPU individuelle Spannungen zu verpassen]).

CrazyIvan
2021-09-09, 06:11:07
Wenn jedoch bei dem vermessenen Modell einiges darauf hindeutet, dass die gemessenen Verbrauchswerte schlicht falsch (zu niedrig) sind, welchen Wert hat dann die Messung und erst recht der Vergleich? Und dabei geht es mir nicht in erster Linie um den Vergleich zum 5800H, sondern um den Vergleich zum M1.
Auch ist mir die per core voltage control bei Lucienne bekannt. Aber die führt nicht gleich zu einer Effizienzsteigerung um Faktor Zwei - vor allem, wenn diese bei Cézanne nicht einmal ansatzweise erkennbar ist.

Aber um auch mal wieder einen neuen Impuls zu geben: Von Ian gab es vorgestern einen interessanten Artikel zur Topologie des Zen3 CCD. Anscheinend ist AMD von einer Crossbar zu einem dual bi-directional (bisected) Ring gewechselt, um das Mehr an Teilnehmern effizient zu verschalten.
https://www.anandtech.com/show/16930/does-an-amd-chiplet-have-a-core-count-limit

Gipsel
2021-09-09, 09:11:33
Wenn jedoch bei dem vermessenen Modell einiges darauf hindeutet, dass die gemessenen Verbrauchswerte schlicht falsch (zu niedrig) sind, welchen Wert hat dann die Messung und erst recht der Vergleich?1. Beim MT-Test hattest Du ja offenbar nicht so viel zu beanstanden und hier haben wir leichtes MT+iGPU-Last. Also wer weiß.
2. Auch ohne irgendeine Messung weiß man, daß ein 5700U mit dem 12W-Limit (oder auch mit den standardmäßigen 15W) in einer Teillastsituation weniger verbrauchen muß als die gemessenen 20-30W (je nach Post) des 5800H in dieser Teillastsituation (das Spiel lief auf dem 5800H zudem noch in 1200p statt 1080p wie beim 5700U).

Insbesondere Letzteres war der Grund für meinen anfänglichen Post dazu. Es ist völlig egal, ob man irgendwelchen Messungen von Forenmitgliedern vertraut. Aber wenn schon das Powerlimit von Prozessor A deutlich niedriger ist als der (zuverlässig oder auch nicht) gemessene Verbrauchswert von Prozessor B, dann muß der "wahre" Verbrauch von A unter diesem Wert liegen. Am Ende ist es so einfach.
Falls man mehr oder es besser wissen will, muß man vergleichbarere Tests machen, denen man vertraut. Du sagst, die gibt es hier noch nicht. Okay. Dann fällt man auf die Default-Einschätzung zurück, die ich gerade gegeben habe: Daß ein 5700U (egal ob mit 12W oder 15W-Limit) in einem bestimmten Szenario weniger als gemessene 20W oder 30W eines anderen Prozessors mit 45W-Limit verbraucht, ist nicht überraschend, sondern sicher zu erwarten.
Wie man sich dann genau zum M1 positioniert, ist eine andere Frage, die von mir nicht thematisiert wurde. Im Übrigen scheint es so zu sein, daß im ganz niedrigen Verbrauchsbereich Zen2 besser abschneidet als Zen3 (der kommt oben rum dafür besser raus).

VooDoo7mx
2021-09-09, 20:01:28
Also wenn M1 die Referenz ist, dann ist aber auch alles "versoffener Müll". Vega, RDNA2, Ampere. Dann müsste man das ganze etwas vollständiger beschreiben. Bei dir liest es sich so, als wenn nur Vega das Problem ist.

Ich glaube nicht, dass RDNA2 vs M1 iGPU versoffener Müll sein wird.
Hab mir ja auch schon das Steam Deck mit Van Gogh APU vorbestellt und bin schon ganz gespannt was so eine RDNA 2 iGPU kann.
Ich könnte mir zwar vorstellen das die Leistung/Watt bei Apple immer noch besser sein wird aber eben nicht mehr so ein riesen Unterschied wie aktuell.
Wie gesagt, bei CPU Performance ist AMD gar nicht mal so weit von Apple weg.

Und Apple an sich hat ein riesiges Problem: die miese Game Kompatibilität. Was nützt ein die gute 3D Leistung wenn man quasi nichts zocken kann?
Bei Cézanne ist es genau umgedreht. Super Kompatibilität aber die Performance reicht nicht bzw der Stromverbrauch ist einfach zu hoch um mal länger ohne Stromkabel zu zocken. Der Stromverbrauch ist sogar so hoch das man bei gleichen Stromverbrauch wie eine 5800U/H + MX450 deutlich weniger Performance bekommt.

Und Vega war an sich schon immer eine schlechte und ineffiziente Architektur fürs gaming und wohl eher für Compute/HPC gedacht.
Ich nehme mal an selbst wenn die CU Anzahl und auch der Takt gleich bleibt wird RDNA2 iGPU gegen Vega wohl deutlich schneller bei weniger Verbrauch sein.
Wenn das Teil wirklich 12 CU hat und dann noch mit 2GHz+ kommt wird man schon mit einen dünnen 13-14"Notebook ordentlich was zocken können. :)

CrazyIvan
2021-09-09, 20:20:21
1. Beim MT-Test hattest Du ja offenbar nicht so viel zu beanstanden und hier haben wir leichtes MT+iGPU-Last. Also wer weiß.

Da hast Du mich vermutlich missverstanden. Auch das MT-Ergebnis ist verdächtig gut. Es ist nur kein ganz so extremer Ausreißer wie das ST-Ergebnis.
Mal zum Vergleich ein R7 PRO 4750u. Ebenfalls 8c/16t + SMT. Die Unterschiede in Basis- und Boosttakt dürften bei Volllast im 15w TDP Bereich kaum ins Gewicht fallen. Das dürfte ebenfalls für die kleinen Optimierungen von Lucienne gelten, da auch PCVC nur im Teillastbereich überhaupt Wirkung zeigt. Beide CPUs sind mit ziemlicher Sicherheit jeweils auf allen Kernen mit annähernd identischer Spannung und Frequenz unterwegs gewesen.
Der 4750u verbraucht angeblich für den gleichen Workload 33% mehr Energie. Er ist dabei um 20% langsamer, obwohl er einen Durchschnittsverbrauch von 14,8w hat, während der Lucienne nur 13,4w verbrauchen soll. Bei nahezu identischen Chips erscheint mir das arg viel. Leider habe ich kein Ergebnis zu einem Cézanne-U, weshalb ich ST und Cézanne-H angeführt hatte.

2. Auch ohne irgendeine Messung weiß man, daß ein 5700U mit dem 12W-Limit (oder auch mit den standardmäßigen 15W) in einer Teillastsituation weniger verbrauchen muß als die gemessenen 20-30W (je nach Post) des 5800H in dieser Teillastsituation (das Spiel lief auf dem 5800H zudem noch in 1200p statt 1080p wie beim 5700U).

Natürlich ist der Vergleich mit unterschiedlichen Settings Quark. Aber auch die geben nur schwer einen Unterschied von Faktor 3 her (4-6w vs. 20w). Aber darüber muss ich mich echt nicht streiten. Aber warum MUSS denn ein Cézanne-H bei identischen Settings und FPS-Limit mehr verbrauchen als ein Lucienne-U? Im (i)GPU-Limit werden die sich je nach Spiel und Szene nicht viel nehmen. Was ich damit sagen möchte: Die SKU-Bezeichnung spielt keine große Rolle. Bei gleicher abgerufener Leistung werden auch beide im gleichen Verbrauchs-Bereich liegen.


Im Übrigen scheint es so zu sein, daß im ganz niedrigen Verbrauchsbereich Zen2 besser abschneidet als Zen3 (der kommt oben rum dafür besser raus).
Interessant. Worauf basiert Deine Annahme? Gibt es da irgendwo sinnvolle Vergleiche?
Im PES-Thread gab es von Monkey eine Messung mit einem 5900HS @12w cTDP. Der hat sich recht achtbar geschlagen (aber eben deutlich schlechter als der Lucienne von Mr. Lolman: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12716161#post12716161

Ich selbst habe meinen Renoir mit einer cTDP von 10-30w vermessen. Ergebnis: Zen2 ist bei 1,5-2w pro Kern im Sweet Spot. Darüber und darunter fällt er ab. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12755733#post12755733

Gipsel
2021-09-09, 20:22:12
Ich glaube nicht, dass RDNA2 vs M1 iGPU versoffener Müll sein wird.
Wenn maximale Energieeffizienz bei der Grafik wichtig ist, bin ich mal gespannt, wie schnell mRDNA2 in den Samsung-Chips wird. Da ist das Optimierungsziel aber natürlich doch schon ziemlich geringer Verbrauch. Und keine Ahnung, ob wir wirklich erfahren, wie eng das mit den regulären RDNA#-Varianten verwandt ist und was sich davon auf Notebookchips übertragen läßt.

============================

edit:
Etwas spät, aber der Vollständigkeit halber noch ein paar Anmerkungen zum Vorgängerpost.
Mal vorweg, nicht das wir uns falsch verstehen: Ich bezweifle nicht, daß die angeführten Zahlen des 5700U durchaus etwas fishy aussehen und man da mehr Vergleichswerte benötigt. Es ging mir ursprünglich nur um den wenig sinnhaften Vergleich eines U-Chips bei 12/15W Powerlimit mit der Messung eines H-Chips bei einem Verbrauch in einem spezifischen Szenario von 20 oder 30W (die der U-Chip gar nicht erreichen kann). Das erscheint wenig sinnhaft. Nicht mehr und nicht weniger.

Trotzdem noch ein paar Einwürfe, um die Argumente in der Gesamtheit konsistent zu bekommen.
Mal zum Vergleich ein R7 PRO 4750u. Ebenfalls 8c/16t + SMT. Die Unterschiede in Basis- und Boosttakt dürften bei Volllast im 15w TDP Bereich kaum ins Gewicht fallen. Das dürfte ebenfalls für die kleinen Optimierungen von Lucienne gelten, da auch PCVC nur im Teillastbereich überhaupt Wirkung zeigt.Die Folien dazu erwähnten auch die GPU. Also ein wenig sollte vermutlich sogar unter allcore-Last übrig bleiben (abhängig von der GPU-Last).
Beide CPUs sind mit ziemlicher Sicherheit jeweils auf allen Kernen mit annähernd identischer Spannung und Frequenz unterwegs gewesen.
Der 4750u verbraucht angeblich für den gleichen Workload 33% mehr Energie. Er ist dabei um 20% langsamer, obwohl er einen Durchschnittsverbrauch von 14,8w hat, während der Lucienne nur 13,4w verbrauchen soll.Dann waren die offenbar nicht mit gleicher Frequenz unterwegs. ;)
Leider habe ich kein Ergebnis zu einem Cézanne-U, weshalb ich ST und Cézanne-H angeführt hatte.

Natürlich ist der Vergleich mit unterschiedlichen Settings Quark.Genau, das ist ein Problem für die Vergleichbarkeit, ähnlich wie U- und H-Chips zu vergleichen.
Aber warum MUSS denn ein Cézanne-H bei identischen Settings und FPS-Limit mehr verbrauchen als ein Lucienne-U? Im (i)GPU-Limit werden die sich je nach Spiel und Szene nicht viel nehmen. Was ich damit sagen möchte: Die SKU-Bezeichnung spielt keine große Rolle. Bei gleicher abgerufener Leistung werden auch beide im gleichen Verbrauchs-Bereich liegen.Das KANN so sein, muß aber nicht ;). Mögliche Gründe wären beispielsweise:
Binning. Man kann schon davon ausgehen, daß die Binning-Kriterien für die U-Chips anders aussehen als für die H-Chips. Daß es Variabilität zwischen den Dies gibt, sieht man ja an jeder Ecke, wenn man mal schaut (egal ob intel oder AMD). Bekanntes Beispiel sind die zwei unterschiedlich gebinnten Dies bei den Desktop-Versionen mit 12 oder 16 Kernen.
Unterschiedliches Powerlimit/Boostverhalten. Wenn wir im GPU-Limit hängen, hat die CPU zwischen den Frames durchaus Zeit, Däumchen zu drehen. Mit einem höheren Powerlimit kann die CPU dann kurzfristig hochboosten (in einen ineffizienten Bereich!) und langweilt sich dann eine Weile. Im Rahmen der diskutierten Frameraten (1080p mit 50fps cap oder 1200p mit 60fps Cap) und den schnellen Taktwechseln in Millisekunden (mit CPPC) ergibt dies einen beträchtlichen Spielraum für den möglichen Verbrauch. Mit einem wenig aggressivem Boost oder gar konstanten Taktraten im Effizienzsweetspot läßt sich hier viel Energie sparen, ohne gemessene Performance zu verlieren. Dies liegt hauptsächlich daran, daß der Verbrauch stark nichtlinear mit der Frequenz hochgeht, eine Mittelung über schwankende Frequenzen also einen (deutlich) höheren Verbrauch ergeben kann als wenn man sich auf den Mittelwert festpinnt. In anderen Worten: Race to idle ist oft nicht gut für den Verbrauch (nur wenn man damit in einen deep idle state kommen könnte und sonst nicht). Ein niedrigeres Powerlimit limitiert energieineffiziente kurze Boosts (insbesondere wenn die nutzbare Performance durch ein Framerate-Cap oder GPU-Limit sowieso begrenzt ist). Weniger aggressive Boosts (z.B. durch entsprechende Energiesparplaneinstellungen) können den Effekt noch verstärken.
Du siehst, ein H-Chip kann im GPU-Limit/mit Framerate-Cap erheblich mehr Energie verbrauchen als ein U-Chip (beide mit ihren jeweiligen Standard-Verbrauchslimits), selbst wenn die am Ende abgelieferte Leistung identisch aussieht. Selbst wenn man den H-Chip auf das gleiche Limit setzt wie den U-Chip, sind gewisse Unterschiede durch das Binning zu erwarten.
Interessant. Worauf basiert Deine Annahme? Gibt es da irgendwo sinnvolle Vergleiche?Auf diversen Tests zum Launch, daß im harten Powerlimit die Performancevorteile der Zen3-CPUs normalerweise unter den IPC-Vorteilen liegen (der Takt also dann tendentiell niedriger ausfällt) und das AMD offenbar die Architektur etwas mehr auf höhere Takte optimiert hat (worunter die Skalierung zu niedrigen Verbräuchen etwas leidet). Kurz: Der Effizienz-Sweetspot von Zen3 dürfte im Schnitt minimal höher als der von Zen2 liegen. Durch den starken Abfall der Effizienz unter dem Sweetspot, ist am ganz unteren Ende des Verbrauchsbereichs also Zen2 vermutlich etwas besser.
Ich selbst habe meinen Renoir mit einer cTDP von 10-30w vermessen. Ergebnis: Zen2 ist bei 1,5-2w pro Kern im Sweet Spot. Darüber und darunter fällt er ab. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12755733#post12755733Das Effizienzoptimum liegt dort genau bei 12W cTDP, also rechnerisch 1,5W pro Kern. Wenn man mal Speichercontroller/Uncore und GPU abzieht (lief das mit iGPU oder mit diskreter? Und ist der Monitor direkt an der diskreten GPU angeschlossen oder wird das in den CPU-Speicher kopiert und dann von der iGPU ausgegeben? Das hat in dem Bereich durchaus einen gewissen Einfluß), liegt man vermutlich irgendwo bei 1,2W pro Kern oder sogar noch knapp drunter.
Ach ja, da fällt mir ein: Bei wenig speicherfordernden Dingen (Cinebench?) kann man mit langsamen Speichersetting im Powerlimit sogar etwas schneller werden, weil eben der Speichercontroller weniger zieht und die Kerne dafür mit etwas höherer Frequenz laufen. Alternativ verschiebt sich der Effizienzsweetspot noch minimal zu niedrigeren (Package-)Verbräuchen.

CrazyIvan
2021-09-13, 07:20:35
Es ging mir ursprünglich nur um den wenig sinnhaften Vergleich eines U-Chips bei 12/15W Powerlimit mit der Messung eines H-Chips bei einem Verbrauch in einem spezifischen Szenario von 20 oder 30W (die der U-Chip gar nicht erreichen kann). Das erscheint wenig sinnhaft. Nicht mehr und nicht weniger.

Absolute Zustimmung. Ich glaube, wir sind da schon bei einander.

Trotzdem noch ein paar Einwürfe, um die Argumente in der Gesamtheit konsistent zu bekommen.
Die Folien dazu erwähnten auch die GPU. Also ein wenig sollte vermutlich sogar unter allcore-Last übrig bleiben (abhängig von der GPU-Last).
Dann waren die offenbar nicht mit gleicher Frequenz unterwegs. ;)

Achso, PCVC wirkt auch auf die GPU und das gab es da vorher auch nicht? Wieder was gelernt. Ich meinte übrigens, dass jede der beiden CPUs für sich betrachtet mit jeweils identischer Frequenz (und damit auch Spannung) auf allen Kernen unterwegs gewesen sein dürften.

Das KANN so sein, muß aber nicht ;). Mögliche Gründe wären beispielsweise:
[...]

Du nimmst mir die Worte förmlich aus dem Mund. Obwohl ich hoffe, dass der Governor auch bei einer H-CPU das von Dir beschriebene Verhalten großteils unterdrückt. Aber im Grunde ging es mir nur um das Wörtchen "MUSS" - wollte eben auch mal den Part des Goldwiegers übernehmen ;)

Auf diversen Tests zum Launch, daß im harten Powerlimit die Performancevorteile der Zen3-CPUs normalerweise unter den IPC-Vorteilen liegen (der Takt also dann tendentiell niedriger ausfällt) und das AMD offenbar die Architektur etwas mehr auf höhere Takte optimiert hat (worunter die Skalierung zu niedrigen Verbräuchen etwas leidet). Kurz: Der Effizienz-Sweetspot von Zen3 dürfte im Schnitt minimal höher als der von Zen2 liegen. Durch den starken Abfall der Effizienz unter dem Sweetspot, ist am ganz unteren Ende des Verbrauchsbereichs also Zen2 vermutlich etwas besser.

Okay, dann muss ich mir das auch noch einmal näher anschauen.

Das Effizienzoptimum liegt dort genau bei 12W cTDP, also rechnerisch 1,5W pro Kern. Wenn man mal Speichercontroller/Uncore und GPU abzieht (lief das mit iGPU oder mit diskreter? Und ist der Monitor direkt an der diskreten GPU angeschlossen oder wird das in den CPU-Speicher kopiert und dann von der iGPU ausgegeben? Das hat in dem Bereich durchaus einen gewissen Einfluß), liegt man vermutlich irgendwo bei 1,2W pro Kern oder sogar noch knapp drunter.
Ach ja, da fällt mir ein: Bei wenig speicherfordernden Dingen (Cinebench?) kann man mit langsamen Speichersetting im Powerlimit sogar etwas schneller werden, weil eben der Speichercontroller weniger zieht und die Kerne dafür mit etwas höherer Frequenz laufen. Alternativ verschiebt sich der Effizienzsweetspot noch minimal zu niedrigeren (Package-)Verbräuchen.
Ja, das war mit iGPU und ohne externen Monitor gemessen. Und es war auch wieder CB23 MT, weshalb Deine Annahmen schon passen. Wenn es um reine Energieeffizenz geht, hast Du schon recht. Da lag der Sweet Spot bei 12w. Aber die meisten Menschen legen schon auch ein wenig Wert auf die Performance. Und bei der von mir angenommenen 50:50 Verteilung sind 15w der Peak - und da glaube ich nicht an einen Zufall.
In jedem Fall finde ich es bemerkenswert, bei wie wenig Energieaufnahme pro Kern AMD den Sweet Spot angesetzt hat und wie gut das trotzdem über alle Marktsegmente skaliert. Bei EPYC mit 64c haben sie ja sowieso annähernd die selben Constraints wie im Mobile. Aber dass das selbst mit dem Ausreißer "Single CCD high end Desktop" so gut passt, ist schon erstaunlich. Bei Intel sieht es da mit den Cove Kernen IMHO deutlich anders auch - auch wenn die viel besser sind als ihr Ruf.
Alles in allem macht mir diese Form des Numbercrunching und die Diskussion darüber einfach unheimlich Spaß.
Ich weiß, Du bist von der Bewertungsmethodik nicht überzeugt: Also falls Du da noch einen Ratschlag hast, dann bitte gern her damit.

amdfanuwe
2021-09-13, 07:50:49
Toms Hardware hat einen 5700G Test gebracht (https://www.tomshardware.com/reviews/amd-ryzen-7-5700g-review/2). Fand dieses Diagramm sehr interessant:

https://cdn.mos.cms.futurecdn.net/nfTHajPq9PKPN2BiWYSgum-970-80.png.webp

CrazyIvan
2021-09-13, 08:10:36
Ja, stimmt. Diese Form der Darstellung hatte ich mir für die bisher ermittelten Werte auch mal noch vorgenommen. Da kann jeder für sich selbst entscheiden, wie stark welcher Aspekt zu wichten ist.

/edit: Wobei ich es bei der THG Grafik unschön finde, dass man keine quadratische Darstellung gewählt hat. Das dürfte bei vielen implizieren, dass die Performance wichtiger sei.

CrazyIvan
2021-09-14, 09:53:01
@Gipsel
Ist vielleicht kein optimaler Apples to Apples Vergleich, aber der Tweet stützt Deine These:

76741
https://twitter.com/i/web/status/1425103050864308236

basix
2021-09-14, 10:21:50
Interessant, erst ab ~50W ist Cezanne effizienter. Meine Vermutung: Der doppelt so grosse L3$ ist sicher ein Teil davon. Die grössere Die Size / dickeren Cores der Rest.

Der_Korken
2021-09-14, 10:57:24
Dass Zen 3 pro Kern mehr verbraucht als Zen 2 konnte man schon beim Launch sehen. Der Abstand zwischen 3800X, 3900X und 3950X war sichtbar größer als der zwischen 5800X, 5900X und 5950X. Das heißt, die kleineren Modelle profitieren von den 105W TDP, sodass bei mehr Kernen der Takt stärker abfällt. Bei den Desktop-Modellen ist das nie negativ aufgefallen, weil Power hier kein Problem ist und Zen 3 durch die höhere Clock-Ceiling und IPC immer deutlich schneller ist. Bei Mobile schlagen diese Vorteile nicht so durch, weil Power limitiert.

Wenn man die Kurven oben noch weiter verlängert, wird Zen 2 wohl auch irgendwann von Rocket Lake kassiert, weil bei Zen 2 nur noch Power steigt, aber Leistung nicht mehr, während bei Intel (auf höheren Niveau) beides weiter steigt.

davidzo
2021-09-14, 11:31:09
@Gipsel
Ist vielleicht kein optimaler Apples to Apples Vergleich, aber der Tweet stützt Deine These:

76741
https://twitter.com/i/web/status/1425103050864308236


Das ist ein Äpfel-Birnen Diagramm in das ich nicht zuviel reininterpretieren würde.


Angeblich verbraucht dort ein Zen2 mit Powertarget von 70Watt an der Wall mehr als ein Zen3 mit PowerTarget von 85W. So extrem unterschiedliche Werte wird das interne Current Sensing der Ryzen CPUs nicht ausspucken, das liegt am Board.

Das ist ein ziemlich deutliches Zeichen dass die VRMs der Boards einfach nicht vergleichbar sind. Das B550 board scheint für einen niedrigen Idle-verbrauch konstruiert zu sein und nimmt dafür eine schlechte Effizienz bei Teillast und Last in kauf. Beim A520 ist es umgekehrt, das ist in Teillast effizienter und im Idle ineffizient.

Schon ein unterschiedliches power Gating der USB Stromversorgung kann den Unterschied von 1-2Watt Idle ausmachen. Ohne genauere Detailmessungen der sonstigen Verbraucher sind die Daten wertlos.
- Btw, das A520 board hat ein Wifimodul, das b550 keines. Es gibt genug Unterschiede die hier keine Schlüsse zulassen abseits der generellen tendenz dass die Ryzen CPUs offensichtlich weniger verbrauchen als die Intel Cypress Cove.

CrazyIvan
2021-09-14, 12:05:58
@davidzo
Ja, womöglich hast Du recht. Gibt einiges an den Messwerten, was unplausibel erscheint.

Gipsel
2021-09-14, 14:46:02
Falls jemand einen 5800U hat, könnte er ja mal diese Tests (https://www.computerbase.de/2020-07/lenovo-ideapad-5-amd-ryzen-7-4800u-test/) wiederholen.
Interessant im Zusammenhang mit der Diskussion der Auswirkung von z.B. 12W vs. 25W Powerlimit ist z.B. dies:
https://pics.computerbase.de/9/3/6/4/3/16-1080.c8598cce.jpg
https://pics.computerbase.de/9/3/6/4/3/19-1080.20c80325.jpghttps://pics.computerbase.de/9/3/6/4/3/21-1080.f3a58178.jpghttps://pics.computerbase.de/9/3/6/4/3/22-1080.c5fda9f6.jpghttps://pics.computerbase.de/9/3/6/4/3/23-1080.1d46ed98.jpg
Offenbar wird auf 12W erheblich weniger aggressiv geboostet, die Performance leidet nur wenig (da GPU-Limit).

Platos
2021-09-14, 19:00:08
Solche Tests erwartet man eig. von Testseiten. Ich zumindest (natürlich mit mehr als einem Spiel und evtl. 3 Watt-Profile).

HPVD
2021-09-16, 12:39:38
Milan X mit 3D V Cache: AMD plant CPUs der Epyc-Serie mit 768 MB L3-Cache

16 bis 64 Kerne
alle mit 768MB L3
64 Kerner mit 2,20 / 3,50 Ghz @ 280W

https://mobile.twitter.com/ExecuFix/status/1438420566243950595

hübsch aufbereitet:
https://www.computerbase.de/2021-09/milan-x-mit-3d-v-cache-amd-plant-cpus-der-epyc-serie-mit-768-mb-l3-cache/

amdfanuwe
2021-09-16, 15:28:37
Lag ich mit meiner Milan X Spekulation wie alle anderen falsch :-)
Das AMD "einfach" ein Cache Chiplet draufpackt, hatte keiner auf dem Plan.

OgrEGT
2021-09-16, 20:14:01
Lag ich mit meiner Milan X Spekulation wie alle anderen falsch :-)
Das AMD "einfach" ein Cache Chiplet draufpackt, hatte keiner auf dem Plan.

Aber im CB Artkel steht:


Der 64 MB große zusätzliche Cache nimmt eine Grundfläche von 6 × 6 mm im CCD ein, womit er so groß wie der schon vorhandene 32 MB große L3-Cache ist. Mit seinen zwei 32-MB-Schichten ergibt sich im neuen CCD ein dreifach gestapelter L3-Cache-Baustein mit 96 MB.

Im Artikel steht aber auch das... bin verwirrt...

Der aufgesetzte L3-Cache ist ein nativer 64-MB-Chip, er fungiert trotzdem als direkte Erweiterung des bestehenden L3-Caches im CCD, was keine Software-Anpassungen nötig macht, da er ohne Kontrollfunktionen und für alle der für die grundlegende Funktionalität benötigten Einheiten daherkommen kann. Da diese bereits vorhanden sind, kann AMD 64 MB reinen SRAM auf dem gleichen Raum wie zuvor 32 MB unterbringen. Zen 3 war bereits von Vornherein für diese Möglichkeit vorbereitet, die Entwicklung und Umsetzung mit Partner TSMC nahm mehrere Jahre in Anspruch, erklärte AMD.

Ist es nun 1 Lage mit 64Mb oder 2 Lagen mit je 32Mb?

Der_Korken
2021-09-16, 20:32:47
Ersteres. Die zwei Schichten waren nur eine Annahme, weil man nicht davon ausgehen konnte, dass AMD plötzlich doppelt so viele SRAM-Zellen auf die gleiche Fläche bekommt. Wenn der Base-Die bereits die Logik für sich selbst und den Cache-Die enthält und der Cache-Die durch Optimierung auf reinen SRAM dichter gepackt werden kann, wird es schon stimmen.

Nightspider
2021-09-17, 07:49:43
Entweder war der Autor verwirrt oder hat eine alte News mit Fehlern mit aktuellen Infos fusioniert.

Leonidas
2021-09-29, 10:48:04
Zen 3D, Zen 3 XT, Zen 3+ Terminpläne:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-september-2021

Thunder99
2021-09-29, 17:09:09
Mich erschließt sich nicht die Sinnhaftigkeit von Zen 3 XT. Wäre nur ein Takt Plus von xxx MHz (bis 5.0). Mehr erwarte ich nicht.

DozerDave
2021-09-29, 17:30:38
Ich blicke auch nicht mehr durch.
Wenn es inkrementelle Updates wären.

basix
2021-09-29, 17:30:41
Jedes Jahr was neues ;) Die alten Zen 3 werden vermutlich schleichend von Zen 3 XT abgelöst. Etwas extremer, aber denkbar: Umstellung auf N6, ist ja IP und Maskenkompatibel. Da sind dann evtl. schon +5% Takt drin und allgemein etwas energieeffizienter.

Thunder99
2021-09-29, 17:41:16
Dennoch wird Zen 3D besser/schneller. Oder gibt es XT und 3D kombiniert? ;D

Complicated
2021-09-29, 17:51:54
Weil es Windows 11 gibt und die OEMs schnellstmöglich "neue" CPUs dafür unter die Leute bringen wollen, die eben nicht vor dem OS schon auf dem Markt waren -> Eindeutige Kaufentscheidung für deren Endkunden und Werbung mit Win11, die bisher nicht gemacht werden konnte.

Nightspider
2021-09-29, 19:03:53
Wenn dürfte Zen3D mit den XT Chips realisiert werden, falls da noch 100Mhz mehr gehen.

Aber namentlich kann man die einfach mit ZenXT und Zen3D unterscheiden.

schreiber
2021-09-29, 19:49:55
Kommt der Cache-Zen3 eigentlich nun für Sockel AM4?

Complicated
2021-09-29, 20:21:56
Die Frage ist etwa seltsam. Zukünftige Sockel AM5 SKUs sind schwer vorherzusehen zum jetzigen Zeitpunkt und ob da Zen3 drin sein wird.

Nightspider
2021-09-29, 21:10:39
Kommt der Cache-Zen3 eigentlich nun für Sockel AM4?

Ja

Ramius
2021-09-29, 23:44:04
Die Zeitpläne zu Zen3XT und Zen4 finde ich verwirrend.
Ich kann mir nicht vorstellen, dass man Zen3XT im ersten Halbjahr 2022 noch bringt, wenn man schon im Oktober 2022 Zen4 launcht. Das macht aufgrund der kurzen Zeitspanne eigentlich keinen Sinn.

Zossel
2021-09-29, 23:48:41
eigentlich keinen Sinn.

Kannst du das näher erläutern bzw. die Gründe dafür darlegen.

TheAntitheist
2021-09-30, 02:40:38
Kannst du das näher erläutern bzw. die Gründe dafür darlegen.
sagte er doch... " kurzen Zeitspanne"

ist wirklich viel zu wenig Zeit dazwischen. Dafür eine neue CPU auflegen klingt mehr nach Panik als Wirtschaftlich gedacht.

Complicated
2021-09-30, 07:07:28
Warum? Zen4 kann zunächst mal als Epyc kommen und 6 Monate später die Desktop Versionen. Zudem ist es möglich nur zwei Top SKUs mit Zen4 an die Spitze des Lineups zu stellen. AM4 und AM5 werden eine Weile auch parallel laufen und nicht jeder wird gleich neuen RAM mit kaufen wollen.

Zossel
2021-09-30, 07:40:17
sagte er doch... " kurzen Zeitspanne"

Weder braucht es eine neue Maske oder eine neuen Node (hoher Invest bzw. Fixkosten), daher spielt die kurze Zeitspanne eine untergeordnete Rolle.
Und als "Pipe-Cleaner" für das Packaging sind in einem alten Node gefertigte Dies (Yield) sicherlich gut geeignet.

r3ptil3
2021-09-30, 08:43:44
Bin jetzt doch etwas überrascht, wenn wirklich XT und 3D Modelle kommen.

Wenn ich raten müsste, dann wird dies wohl aufgrund der Wirtschaftlichkeit und dem Kaufanreiz gemacht:

5600X bis 5800X:Refresh-XT Modelle ohne 3D-Cache
5900X - 5950X: 3D-Cache Modelle (natürlich inklusive höherem Takt)

Denniss
2021-09-30, 09:05:57
Bin mal gespannt ob beide oder wenigstens einer davon in 6nm kommt.

w0mbat
2021-09-30, 09:33:00
Wäre etwas dumm, wenn die CPUs mit 3D-V-Cache noch im "alten" 7nm Prozess kommen, während die ohne schon in 6nm produziert werden. Ich fände N6+3D gut, dann würde ich vielleicht sogar aufrüsten ;)

HOT
2021-09-30, 10:35:40
Erst mal kommt mMn eine 6000er-Serie. Diese wird dank ADL jetzt aus mehreren VCache-Varianten und Varianten, die es bislang nicht auf dem Markt gab bestehen mMn und zwar ausschließlich aus Vermeer B2.

6950X -> 16C+VCache
6950 -> 16C nur OEM
6900X -> 12C+VCache
6900 -> 12C nur OEM
6800X -> 8C+VCache
6800 -> 8C 65W diesmal für alle
6600X -> 6C+VCache (der wäre neu mMn dank ADL)
6600 -> 6C 65W
...
6300 -> 4C

Matisse wird mMn jetzt auch eingestellt.

So gegen Mai gibts dann mMn einen XT-Refresh der X-Varianten mit minimal mehr Takt, wie das letzte Mal bei Zen2. Da hat der Zeitraum auch keine Rolle gespielt, das ist aber auch eine reine Lineup-Optimierung, bei der die Takte der X-CPUs auf den Stand des 6950X gebracht werden, was zum Start des Lineups, wenn die Benchmarks laufen, blöd wäre für AMD, weil dann nicht immer der 6950X vorne wäre.

maximus_hertus
2021-09-30, 10:40:24
Das glaube ich nicht @ HOT.

AMD ist doch eh durch die Stückzahlen limitiert. Daher wird es auch keine Zen 3Ds unter den 2 Cores geben. Trotz Alderlake wird man wohl alles an CPUs verkauft bekommen.

Einen 6600-3D anzukündigen, dann aber nciht liefern zu können, wäre wohl eher kontraproduktiv. Vor allem müste der 6600-3D spürbar teurer sein als der 5600X, damit sich 3D rentiert.

HOT
2021-09-30, 10:45:46
Die kommen ja nicht sofort, aber dank ADL werden die sicherlich in der ersten Jahreshälfte ebenfalls gelauncht, wenn genug produziert wurden. Und ne ein CCD-Variante wirds ja eh geben, denn es war ja auch von 96MB-L3$ die Rede. das ergibt keinen Sinn bei 2 CCD-Varianten.
ADL belebt halt das Geschäft.

Nightspider
2021-09-30, 19:04:03
Weder braucht es eine neue Maske oder eine neuen Node (hoher Invest bzw. Fixkosten), daher spielt die kurze Zeitspanne eine untergeordnete Rolle.
Und als "Pipe-Cleaner" für das Packaging sind in einem alten Node gefertigte Dies (Yield) sicherlich gut geeignet.

Wieso sollte man dann Zen3 XT erst so spät releasen, nach ADL, kurz vor Zen4 wenn das alles so einfach ist und man XT schon im Q4 21 releasen hätte können? Und sag jetzt nicht Corona. ^^

Zossel
2021-09-30, 19:22:24
..... einfach ....

einfacher

Piefkee
2021-09-30, 20:21:13
Wir wissen doch schon das Zen3D als 6000er Serie kommt??

Es gab doch die Roadmap von amd mit den Codenamen für Zen4 als 7000er Serie und 8000er für zen5

Außerdem muss an eigentlich auf 6000er gehen sonst passt es auch nicht mehr mit den mobil Chips die man erst letztes Jahr mit desktop angepasst hat

Piefkee
2021-09-30, 20:22:48
Wieso sollte man dann Zen3 XT erst so spät releasen, nach ADL, kurz vor Zen4 wenn das alles so einfach ist und man XT schon im Q4 21 releasen hätte können? Und sag jetzt nicht Corona. ^^

Warum? —> Epyc
Ich weis aus eigener Quelle das als mittelgrößeres unternehmen man ca 6 Monate auf die Epyc warten muss. Und ich spreche von Rome….

Nightspider
2021-09-30, 22:32:37
Es gab keine geleakte, echte Roadmap wo 6000er bis 8000er Serie abgebildet war.

Das waren imo nur Vermutungen.

Warum? —> Epyc
Ich weis aus eigener Quelle das als mittelgrößeres unternehmen man ca 6 Monate auf die Epyc warten muss. Und ich spreche von Rome….

Wundert aktuell ja auch nicht.

Piefkee
2021-10-01, 07:51:40
Es gab keine geleakte, echte Roadmap wo 6000er bis 8000er Serie abgebildet war.

Das waren imo nur Vermutungen.


Naja lass mal die Roadmap weg. AMD hatte ja das Problem das Desktop und Mobil unterschiedliche Namen hatte (Zen2 --> Ryzen 3000k, Zen2 Mobil Ryzen 4000)

Deshalb hat man schließlich Zen3 DT direkt die 4000er Serie übersprungen um gleich mit Mobil auf 5xxx Serie zu gehen.

Rembrandt = Zen3+
Ryzen 3D = Zen3

2022 --> Zen4
Raphael --> 7000X
Phoenix --> 7000U/H


Ergo sollte es mit Zen3+ oder 3D oder XT eine neue Serie geben sonst passt das ganze für 22/23 nicht mit Zen4

basix
2021-10-01, 10:04:17
Ich würde von Zen 3 XT nicht zu viel erwarten (siehe Zen 2 XT). Vermutlich sind das einfach schärfer gebinnte Zen 3. Und Zen3D hat entsprechend noch zusätzlich V-Cache (meine Erwartung ist, dass Zen 3D = Zen 3XT + V-Cache). Die normalen Zen 3 bleiben parallel dazu im Portfolio.

Ein Update auf N6 wäre zwar geil und ist mit relativ kleinem Aufwand möglich, erwarten tue ich es aber nicht. Bei EPYC müsste man so Zeug dann neu validieren, was man sicher nicht machen wird. Das ist ein Nachteil, da man so nicht mehr die selben Chiplets für Ryzen + EPYC verwenden könnte.

HOT
2021-10-01, 10:12:04
Zen3 XT wird später das Lineup vervollständigen. Der launcht nicht mit Zen3D. Die 6k-Serie wird auch die CPUs bringen, die im jetzigen Lineup fehlen.

Nightspider
2021-10-01, 10:20:10
Ein Update auf N6 wäre zwar geil und ist mit relativ kleinem Aufwand möglich, erwarten tue ich es aber nicht. Bei EPYC müsste man so Zeug dann neu validieren, was man sicher nicht machen wird.

Einen Zen3 in N6 bräuchte man ja auch nicht, da Zen4 als erstes und relativ zeitig als EPYC verkauft wird.
Und die bisherigen Zen3 Chiplets werden sowieso auch in N7 weiter produziert für Rome.

robbitop
2021-10-01, 10:20:38
Ob ggf. das I/O Die von Zen 4 schon fertig ist und man mit Zen 3XT einfach schon auf AM5 launcht? Einfach um ein DDR5 Produkt zu haben. So wie Bristol Ridge in 2016.

HOT
2021-10-01, 10:30:29
spannende Idee.

BavarianRealist
2021-10-01, 10:42:52
Erst mal kommt mMn eine 6000er-Serie. Diese wird dank ADL jetzt aus mehreren VCache-Varianten und Varianten, die es bislang nicht auf dem Markt gab bestehen mMn und zwar ausschließlich aus Vermeer B2.

6950X -> 16C+VCache
6950 -> 16C nur OEM
6900X -> 12C+VCache
6900 -> 12C nur OEM
6800X -> 8C+VCache
6800 -> 8C 65W diesmal für alle
6600X -> 6C+VCache (der wäre neu mMn dank ADL)
6600 -> 6C 65W
...
6300 -> 4C

....

Ich denke, dass die VCache-Varianten recht teuer werden dürften, weil ich hier noch hohen Ausschuss vermute. Andernfalls würde AMD das Konzept aggressiver bringen, z.B.. für GPU und Infinity-Cache.

Die VCache-Varianten dürfen sehr teuer bleiben, weil sie nur gegen die anfangs extrem teuere DDR5-Plattform von Alderlake konkurrieren müssen. Alderlake 12700 mit DDR5-Plattform macht ja vermutlich schon kaum mehr Sinn mit einer teuren DDR5-Plattform, sodass man dann hier schon nur noch gegen die DDR4-Plattform in Konkurrenz stehen dürfte.

Vermutlich wird es VCache nur für 12C und 16C als teure Highend-Varianten geben, zumal ich mir gut vorstellen kann, dass es bald keine 8C (und weniger) in Form von Vermeer geben dürfte, sondern dieser durch Rembrandt-Versionen ohne iGPU ersetzt werden könnten: ein solches Ding in 6nm dürfte kaum größer als 130mm² werden und vermutlich höher takten bzw. niedrigere Latency aufweisen, als Vermeer.

Dann würde auch eine neue Bezeichnung 6xxx und ein Starttermin in 2022 gut dazu passen, weil man auch Rembrandt nicht früher hat.

basix
2021-10-01, 11:04:45
V-Cache CPUs werden sicher die teuersten SKUs werden und AMD hat ihren High End Fokus auch bestätigt (somit 5900X, 5950X als Basis). Je nach dem wie Alderlake rauskommt, könnte es noch einen 5800X mit V-Cache geben, aber mal schauen.

Yield scheint zudem nicht das Problem zu sein (Link (https://www.extremetech.com/computing/326194-amd-unveils-new-ryzen-v-cache-details-at-hotchips-33)):
AMD claims that it can hit similar yields on V-Cache CPUs versus standard chips, implying that we shouldn’t see huge price increases due to yield.


Zu Rembrandt: Ja N6 hilft, die 12 CU RDNA2 GPU wird den gewonnenen Platz aber wieder auffressen. Ich würde irgendetwas zwischen Renoir und Cezanne erwarten, mit Tendenz zu letzterem (150...170mm2).

BavarianRealist
2021-10-01, 11:26:00
Zu Rembrandt: Ja N6 hilft, die 12 CU RDNA2 GPU wird den gewonnenen Platz aber wieder auffressen. Ich würde irgendetwas zwischen Renoir und Cezanne erwarten, mit Tendenz zu letzterem (150...170mm2).

AMD hat nun für Rembrandt solch hohe Stückzahlen, dass es sich lohnen wird, eine zweite Version von Rembradt ohne iGPU zu fertigen, die dann für alle Gaming-Notebooks (die eine dedizierter Graka haben) und zudem als "kleine" Performance-Desktop-CPU (6 und 8-Core) fungieren könnte.

Diese iGPU-lose CPU würde soviel Diesize durch den Wegfalls der 12-CU-GPU (und der Video-Einheiten) soviel Diesize einsparen (rund 70mm²?) dürfte, dass sich das mit den nun hohen Stückzahlen lohnen sollte, hierfür nun eine eigene Variante zu haben (mit etwa 130mm² statt 200mm²). Diese wird man aber erst nachschieben und anfangs mit Rembrands agieren, deren iGPU nur deaktiviert ist.

amdfanuwe
2021-10-01, 11:32:23
lol, weiß absolut keiner Bescheid, was AMD konkret die nächsten 3 Monate veranstaltet.

Einzig was sicher scheint:
Ende 2021 ZEN 3 + 3D Cache (Warhol ?) AM4
Januar 2022 zur CES: Rembrandt APU, ZEN3(+), 6nm, AM5, release in Desktop ????

6nm: AMD könnte das ZEN3 Chiplet 1:1 in 6nm fertigen. Würden lediglich die unteren Layer durch EUV belichtet. Spart einiges an Prozessschritten und damit billiger. Zudem dürften die Strukturen schärfer werden, wodurch mehr "gute" Chips rauskommen sollten. Könnte die Ausbeute an etwas höher taktenden Chiplets erhöhen. Durch gleiche Logik, gleiche Betriebsparameter etc. hält sich der Verifikationsaufwand in Grenzen.
Würde ich nicht ausschließem, dass AMD EUV für das ZEN3 Chiplet nutzt. Bleibt alles bei 7nm nur nennt sich der Prozess dafür N6.

Zur Nummerierung:Jedes Jahr was neues.
2020 kam ZEN 3 erst Nov 2020.
Etwas spät für eine 2020er 4XXX Serie.
Also eher ein Profukt für 2021 und damit 5XXX gerechtfertigt.
Der 3D Cache bietet genügend Neuheit um für dieses 2022 Produkt eine 6XXX zu rechtfertigen. Auch wenn die kleineren Chips im Portfolio nur Refresh sind.

ZEN 4 kommt erst ENDE 2022, also eher ein Produkt für 2023.
Wäre dann Ryzen 7XXX. Zudem auf neuer Platform AM5.

AM4 wird sich noch ein paar Jahre im Markt halten. Da lohnt es sich schon für AMD noch neue Chips für diese Platform zu bringen.

Jetzt heißt es erst mal abwarten bis die Kapazitätsengpässe überwunden sind. Erst ENDE 2022, Anfang 2023 dürfte es mit hoffentlich einem kompletten AM5 Portfolio wieder richtig spannend werden.

Edit: Ich schätze mal, AMD wird jetzt erst mal abwarten, wie sich Intel mit ADL positioniert um dann entsprechend zu reagieren.

Nightspider
2021-10-01, 11:39:11
Hier wurde ja auch oft spekuliert das Zen4 teuer wird und hohe Preise haben wird und man parallel Zen3 weiterführen wird für den günstigeren Marktbereich.

Dafür hätte sich N6 ja wirklich angeboten, wenn die CPUs dann eh noch 1-2 Jahre produziert werden.

Irgendwie stochern wir schon im dunkeln, weil es so viele Optionen gibt und nicht alle Leaks so wirklich Sinn ergeben.

amdfanuwe
2021-10-01, 11:57:36
Ob ggf. das I/O Die von Zen 4 schon fertig ist und man mit Zen 3XT einfach schon auf AM5 launcht? Einfach um ein DDR5 Produkt zu haben. So wie Bristol Ridge in 2016.
ZEN 4 soll Änderungen am IF Link haben. Wären die ZEN3 Chiplets nicht kompatibel.
Eher bauen sie einen neuen ZEN3 I/O mit DDR5 Interface.
Wäre ja auch kein Problem.
Dann hätten wir die Chance auch Rembrandt schon früh im Desktop zu sehen.

Wenn da nicht die Kapazitätsengpässe wären.
Von daher erwarte ich Rembrandt als AM5 Desktop APU erst spät in 2022 und ZEN4 als erste AM5 CPUs.

Nightspider
2021-10-01, 12:05:36
Der gleiche IO Chip für eine dritte Generation wäre auch seltsam.

AMD hat ja noch viel vor beim Infinity Fabric zu verbessern.

https://pics.computerbase.de/9/1/7/9/3/2-1080.4a946666.png

basix
2021-10-01, 14:04:17
AMD hat nun für Rembrandt solch hohe Stückzahlen, dass es sich lohnen wird, eine zweite Version von Rembradt ohne iGPU zu fertigen, die dann für alle Gaming-Notebooks (die eine dedizierter Graka haben) und zudem als "kleine" Performance-Desktop-CPU (6 und 8-Core) fungieren könnte.

Diese iGPU-lose CPU würde soviel Diesize durch den Wegfalls der 12-CU-GPU (und der Video-Einheiten) soviel Diesize einsparen (rund 70mm²?) dürfte, dass sich das mit den nun hohen Stückzahlen lohnen sollte, hierfür nun eine eigene Variante zu haben (mit etwa 130mm² statt 200mm²). Diese wird man aber erst nachschieben und anfangs mit Rembrands agieren, deren iGPU nur deaktiviert ist.

Die iGPU wegzulassen macht mMn keinen Sinn. Dafür hätte man Desktop Ryzen mit IOD + 1x CCD. Ausserdem soll Zen 4 neu auch im Desktop mit iGPU kommen (ob optional oder immer dabei werden wir sehen). Da wäre es dann doppelt unlogisch, wenn es Rembrandt ohne iGPU gäbe.

Eher bauen sie einen neuen ZEN3 I/O mit DDR5 Interface.

Da wäre es mMn sinnvoller, dass das Zen 4 IOD rückwärtskompatibel mit Zen 3 ist. Jetzt ein neues IOD für Zen 3 und später ein neues für Zen 4? Dazu die AM4 Stückzahlen reduzieren, um AM5 <1 Jahr früher starten zu können? Ne, das sehe ich als nicht sinnvoll an. Ein vorgezogener Start von AM5 ist sinnvoller mit Rembrandt, da dieser eh mit DDR5 Support kommen wird.

Rückwärtskompatibilität ist aber ebenfalls fraglich. Das macht alles komplexer und man muss beim neuen Design auf altes Rücksicht nehmen. Man hat ja immer noch die tolle AM4 Plattform, welche man weiterlaufen lassen kann. 12nm IOD ist günstiger als das 7nm IOD und dazu noch DDR4 Support.


Der gleiche IO Chip für eine dritte Generation wäre auch seltsam.

AMD hat ja noch viel vor beim Infinity Fabric zu verbessern.

Nun, ist es eine dritte Generation? Eigentlich sind es noch die selben Zen 3 Chiplets. Ob das nun mit V-Cache oder in 6nm daherkommt ist dahingehend irrelevant.

Oder hast du bei "dritter Generation" Zen 4 gemeint? Hier gebe ich dir recht. Da wird es definitiv ein neues IOD geben.

Neurosphere
2021-10-01, 16:12:45
https://videocardz.com/newz/amd-ryzen-threadripper-5000-chagall-now-rumored-to-launch-next-year

Hatten wir das schon?



Sehe grad das er auf einen Post von Leo reagiert hat...

Nightspider
2021-10-01, 16:53:38
Genau genommen wollte ich damit sagen das ich mir nicht vorstellen kann das Zen4 mit dem bisherigen IO Chiplet funktioniert oder umgekehrt, das Zen3 mit dem Zen4 IO läuft.

Ich hab aber ehrlich gesagt keine genaue Vorstellung davon wie das ganze auf Gate-Ebene zusammengeführt wird.

Ich dachte ursprünglich ja mal das jede neue CPU Generation auch ihre eigenen IO Chiplets bekommen weil das so sehr verzahnt ist, dass da alles zusammenpassen muss und jede CPU Generation sich zu stark unterscheidet aber da hat Zen3 mich schon eines besseren belehrt, da wohl doch noch etliche Bestandteile, zumindest bei der Chiplet Anbindung und dem IF, miteinander kompatibel sind und sich da scheinbar nicht immer etwas ändern muss.

basix
2021-10-01, 17:38:53
IF (IFOP in diesem Fall) beschreibt ja ein Interface bestehend aus physikalischen Signalen und dem Protokoll. Das kann rückwärtskompatibel sein oder das Interface kann zwischen verschiedenen Modi umschalten. Siehe PCIe 1-6 oder bei Nvidias Ampere (GDDR6 und GDDR6X möglich). Denkbar ist es also schon.

Bei Zen 3 vs. Zen 2 hat sich anscheinend das Protokoll etc. nicht oder nur geringfügig geändert, sodass es kein neues IOD benötigte. Bei Zen 4 und Infinity Architecture 3rd Gen wird des aber Änderungen geben (z.B. Speicherkohärenz zwischen CPU und GPU), womit ein neues IOD fällig wird. Nichtsdestotrotz könnte das IOD auf Infinity Architecture 2nd Gen zurückfallen. Und in diesem Falle hätte man Support für Zen 2/3 Chiplets. Ausnahme: Irgendwelche sonstigen zwingenden Management Sachen (Power usw.) wären mit dem neuen IOD nicht möglich.

Möglich wäre rückwärtskompatibilität also schon. Da das Zen 4 IOD allerdings in 6/7nm und vermutlich minimalst GPU antanzen wird, wird das IOD verglichen mit der heutigen 12nm Lösung mit hoher Wahrscheinlichkeit teurer. Da belässt man doch lieber die "billigen" Zen 2/3 CCDs mit dem billigen 12nm IOD und günstigerem DDR4 Speicher. Und dazu dann keine Notwendigkeit, diese Rückwärtskompatibilität auch anbieten zu müssen. Alles in allem: Aus meiner Sicht lohnt es sich nicht.

Edit:
Bei Interesse ein wenig Lektüre zum Thema Infinity Fabric: https://en.wikichip.org/wiki/amd/infinity_fabric

amdfanuwe
2021-10-01, 17:47:38
Da das Chiplet Interface eine proprietäre Schnittstelle ist, kann diese optimal auf den Anwendungsfall angepasst werden. Ich hatte es so verstanden, dass bei ZEN4 auch Physikalische Parameter sich ändern, wodurch der Energieverbrauch sinkt. Also mehr Leitungen, geringer Spannungen, höherer Takt? Wäre dann nicht mehr kompatibel und wegen Propriätät lohnt sich eine Rückwärtskompatibilität nicht.

CrazyIvan
2021-10-01, 18:14:00
Na proprietär bedeutet erst einmal nur, dass AMD völlig frei entscheiden kann und niemanden fragen muss.
Hast Du etwas zum Nachlesen in Bezug auf technische Änderungen? Ich bin da nämlich auf nix Handfestes gestoßen. Ich hoffe ja auf einen Interconnect via Silizium anstatt auf dem Package. Aber vermutlich passiert das nicht vor Zen 5 (und dann womöglich mit Big und little auf separaten Die).

amdfanuwe
2021-10-01, 20:55:33
Sorry, hab da nichts konkretes. Hatte wohl die Effizienzangaben seitens AMD zwischen ZEN1 und ZEN2/3 im Kopf. Aber ist ja klar, dass die IF Verbindung zwischen Chiplet und I/O so effizient wie möglich werden muß. Also mehr Bandbreite bei geringerem Verbrauch, kleinere Kontakte...
Mal abwarten, was AMD einfällt.

basix
2021-10-02, 00:02:45
Bin mir nicht ganz sicher, aber im Zuge des Gigabyte Leaks meine ich etwas zum IFOP gelesen zu haben: Verdoppelte Links. Würde bei verdoppelter Bandbreite aufgrund DDR5 Sinn machen. Aber sicher bin ich mir da gerade nicht.

amdfanuwe
2021-10-02, 01:56:57
Aus den Gigabyte Leaks bei chipsandcheese.com
To increase bandwidth available to a single CCD, it seems AMD has opted to add more IF links to each CCD. ‘Narrow mode’ may be a way to save even more power by disabling one of the IF links when high bandwidth isn’t required.
https://chipsandcheese.com/2021/08/23/details-on-the-gigabyte-leak/

CrazyIvan
2021-10-02, 08:07:12
Achja, an die Info kann ich mich auch dunkel erinnern. Wäre natürlich klasse, um die "Dynamik" der Leistungsaufnahme nach unten hin zu erhöhen.
Und im Absatz drüber schreiben sie, dass zumindest die Breite pro Link gleich bleibt. Eine Abwärtskompatibilität ist nicht völlig ausgeschlossen.

Geldmann3
2021-10-02, 20:23:29
Habe mal eine Hardware-Roadmap erstellt, wie ich vermute, dass die Releases in den nächsten 2 Jahren ablaufen könnten.

Mit wieder etwas mehr Konkurrenz im Markt könnte die Party jetzt ganz schön abgehen.

https://i.ibb.co/ccF3PpH/Gaming-Hardware-Roadmap-720.png (https://i.ibb.co/ZSnN9jH/Gaming-Hardware-Roadmap.png)

(Sehe gerade, dass ich hier ja im Zen 3 Thread bin, hätte vllt. eher in den Zen 4 Thread gepasst.)

Nightspider
2021-10-02, 20:26:38
Wozu erstellst du das? Willst du in irgendwelchen "News" zitiert werden für ein bisschen Attention?

Wieso sollte Lovelace Enthusiast ~8 Monate nach HighEnd kommen?

Geldmann3
2021-10-02, 20:31:36
Weil es nicht genügend 5nm Kapazitäten geben könnte und es Nvidia erstmal nur darum geht AMD zuvorzukommen. Ist ja nur spekulativ...
Ich weiß, das ist schon ein brutaler Abstand...
Wobei, war es bei der 1080 Ti nicht ähnlich?

Nvidia hat einfach nichts bis Hopper, um AMDs MCM-Designs, ganz oben, Paroli zu bieten.

,,Spekulationen" in den Raum zu werfen, macht mir einfach Spaß. haha
Manch einer spekuliert über die nächste Folge seiner Lieblingsserie, über den Ausgang eines Boxkampfes, ich spekuliere lieber über Hardware.
Und schauen wir doch mal, ob ich am Ende nicht Recht habe.

Thunder99
2021-10-02, 20:48:58
Kann schon hinkommen. Nvidia hat ja bei Turing und Ampere zwar Enthuiast vor High End released aber bei Pascal genau umgekehrt.
Chipmangel und so, könnte das wieder möglich sein. Erst etwas kleinerer Chip, später die Riesen.

Zwar OT aber :D

Könnte Zen3D gegen Ende des Jahres kommen oder eher Q1/22?

LivingAudio
2021-10-02, 20:58:42
An AMDs Stelle würde ich ZEN3D bringen vor, während oder kurznachdem Intels Aldor Lake bringt um den Launch zu stören. Notfalls als Paper-Launch.

w0mbat
2021-10-02, 21:09:25
Also die Produktion startet laut AMD noch dieses Jahr, die Frage ist nur, wann der launch ist. Und ja, ein "launch" um ADL herum würde für AMD Sinn machen, bzw. mindestens eine Vorstellung.

basix
2021-10-03, 13:01:22
An AMDs Stelle würde ich ZEN3D bringen vor, während oder kurznachdem Intels Aldor Lake bringt um den Launch zu stören. Notfalls als Paper-Launch.

Paper Launch ist gar nicht nötig. Ein etwas ausgedehnter Teaser / Vorstellung + Bekanntgabe Release Datum sollte es auch tun.

Nightspider
2021-10-03, 13:47:04
Dazu vielleicht noch ein paar Best-Case Werte "up to" nennen um die Intel Jünger zu verunsichern. :D

Würde mich eigentlich nicht wundern wenn ein paar Kirschen >=30% zeigen würden.

HOT
2021-10-04, 08:31:50
Der Launch der Topmodelle wird wohl auch dieses Jahr noch was, wie sich das anhörte. Offenbar geht die Produktion nen Tacken früher los als Lisa das im Frühsommer bekanntgab.

Könnte es sein, dass AMD Chagall einfach mit 3D machen möchte um auf SR vorbereitet zu sein? Das würde die Verzögerung erklären. In dem Fall würde ich Chagall erst Q2 erwarten.

Genoa wird mMn schon im Sommer starten, weit vor den Desktop-Varianten von Zen4. Das Chiplet ist ja quasi fertig. (Und Genoa ist Server und hat nichts mit HEDT zu tun ;)).

Zossel
2021-10-04, 09:00:12
Dazu vielleicht noch ein paar Best-Case Werte "up to" nennen um die Intel Jünger zu verunsichern. :D

Würde mich eigentlich nicht wundern wenn ein paar Kirschen >=30% zeigen würden.

Ist schon längst passiert: http://www.3dcenter.org/news/amd-bringt-3d-v-cache-als-zusaetzlichen-die-cache-fuer-einen-zen-3-refresh-zum-jahresende

HOT
2021-10-04, 09:05:23
Wobei das sicherlich keine Best-Case-Werte sind, sondern das sind Werte, die AMD gerne bedienen möchte. Bis auf GearsV ist das ja alles eSport.

Sweepi
2021-10-04, 14:39:05
Habe mal eine Hardware-Roadmap erstellt, wie ich vermute, dass die Releases in den nächsten 2 Jahren ablaufen könnten.



Optischer Verbesserungsvorschlag: Zwischen CPU und GPU differenzieren, z.B. das eine in Pastellfarben, das andere nicht.

XBox Series X Refresh Ende 2022?
PS5 Pro Ende 2023?

PS4 -> PS4 Pro ist 2.3x GPU Power,
XBone -> XBone X ist 4.6x GPU Power.

Da werden die Sprünge aber kleiner. Ob das lohnt / gut ankommt?

HOT
2021-10-04, 15:11:15
Die Konsolen würd ich einfach rauslassen. Da weiss noch keiner, was da wirklich kommt. Angeblich werden die SoCs auch in N6 aufgelegt, aber das heißt ja noch lange nicht, dass die Konsole refresht wird. Da ist derart viel Unsicherheit, dass man das besser weglässt.
Und übertriebener Optimismus, wie diese Q2/3 Lovelace-Platzierung, die einfach absurd ist sollte man auch rauslassen. Profiprodukte oder Mobile hat da auch nix drin verloren.

Geldmann3
2021-10-04, 15:39:32
Optischer Verbesserungsvorschlag: Zwischen CPU und GPU differenzieren, z.B. das eine in Pastellfarben, das andere nicht.

XBox Series X Refresh Ende 2022?
PS5 Pro Ende 2023?

PS4 -> PS4 Pro ist 2.3x GPU Power,
XBone -> XBone X ist 4.6x GPU Power.

Da werden die Sprünge aber kleiner. Ob das lohnt / gut ankommt?

Die Differenzierung zwischen CPUs und GPUs ist echt ne' gute Idee.
Versuche das beim nächsten Update einzuarbeiten.

Mit so großen Upgrades rechne ich bei den aktuellen Konsolen in der Tat nicht.
PS4 und XBO sind in der letzten Generation näher am Low-End eingestiegen, bei PS5 und Series X gibt es innerhalb ihres Lebenszyklus voraussichtlich nicht mehr so viel Headroom nach oben.

Der XBox-Series-X-Refresh könnte auch einfach nur eine günstigere Version der Konsole, oder ein minimales Upgrade, sein.

Die Konsolen würd ich einfach rauslassen. Da weiss noch keiner, was da wirklich kommt. Angeblich werden die SoCs auch in N6 aufgelegt, aber das heißt ja noch lange nicht, dass die Konsole refresht wird. Da ist derart viel Unsicherheit, dass man das besser weglässt.
Und übertriebener Optimismus, wie diese Q2/3 Lovelace-Platzierung, die einfach absurd ist sollte man auch rauslassen. Profiprodukte oder Mobile hat da auch nix drin verloren.

Der 6nm Shrink scheint mir recht logisch und bei mindestens einer der beiden Konsolen, würde ich mit einem 5nm-Refresh, samt deutlich mehr Performance, rechnen. PS5 Pro?

Hältst Du die ersten Lovelace Karten Ende Q2, also sagen wir Ende Juni, für unrealistisch, weil Du denkst, dass TSMC da keine Kapazitäten hat, noch nicht so weit ist oder einfach, weil Nvidia dann noch nicht bereit ist?

HOT
2021-10-04, 15:42:15
Das kann einfach beides kommen. Ab nächstem Jahr produzieren beide ihre SoCs einfach in N6 dieselben SoCs und an den Konsolen ändert sich einfach nix und später Ende 23 oder in 24 gibts dann N5 oder N3-Refreshs.

Lovelace vor Q4 ist Traumtänzerei, mehr nicht. Alle "seriösen" Leaker und Analysten sehen Lovelace Q4 und das ist auch realistisch. Offenbar steht zudem das Tapeout der großen Chips in den nächsten Monaten bevor, das passt zum Zeitrahmen.

Geldmann3
2021-10-05, 00:01:11
Nun ja, ich kenne da jemanden, der vor einiger Zeit behauptet hat, dass es so wohl geplant sei.

Bin dem gegenüber selbst eher ungläubig.
Er hatte in der Vergangenheit allerdings oft Recht was sowas betrifft und wahrscheinlich auch gewisse Kontakte in der Industrie.
Wenn auch nicht aus Richtung AMD, Nvidia oder Intel, sondern viel kleiner.

Mich wundert es aber auch, dass gewisse andere Leute auf Twitter meinen Post nicht auseinander genommen haben, wie erwartet.
Also ist eventuell doch etwas dran?
Ich hätte erwartet, dass gewisse Leute es besser wissen müssten.
Oder sie sind sich ihrer Sache eben doch nicht mehr sicher und da ist was dran...

Selbe Quelle hat behauptet, dass erst 2023 die richtig großen RDNA3 Karten kommen.

Und was postet Gremont55 darauf?
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76918&stc=1&d=1633385181 (https://twitter.com/greymon55/status/1444708769326264322)

Hmmm...

Wäre ja langweilig, wenn ich diese Quelle meinerseits einfach ignoriert hätte und alles nur nachbrabble, da ich so viel Spaß an Spekulationen habe. :D

Doch ich kann mir durchaus vorstellen, absolut, dass wir das ganze Lovelace Portfolio in Q4 2022 sehen. Halte ich für absolut nicht unwahrscheinlich.

- Wenn es jedoch stimmt, was ich gehört habe, sollten wir bis Ende Sommer 2022 neue Nvidia GPUs sehen, jedoch keine, die mehr als 45% schneller sind, als eine RTX 3090 (Billig hochgerechnet eher noch langsamer), weil der größte Chip viel später, jedenfalls für Consumer, kommen soll. Vielleicht gibt es ja sogar eine 48GB Titan, mit dem größten Chip, nächstes Jahr, für 3.000$, wer weiß. Seh' ich jetzt aber um ehrlich zu sein auch nicht mehr als Consumer-Produkt. 2023 würde dann die RTX 4090 mit nur 24GB und 60% des Preises kommen.

Damn, wenn ich so drüber nachdenke, das mit der Titan, das könnte es sein...

Ist aber schon abgehoben, so ein dreiviertel Jahr zwischen kleinstem und größtem Consumer-Chip.
Andererseits muss ich da immer wieder an die 1080 Ti zurückdenken.
Zu der Zeit dachte Nvidia wahrscheinlich noch, Vega sei richtig stark.
Eventuell ist das ein Teil Nvidias Standardstrategie, wenn sie denken, dass etwas Großes von der Konkurrenz kommt.
Warum auch immer.

Nightspider
2021-10-10, 09:50:06
del

Neurosphere
2021-10-10, 10:20:34
Falscher Thread?

Nightspider
2021-10-10, 11:11:18
dezent. ;D

maximAL
2021-10-14, 17:47:16
Gibts eine realistische Chance, dass im Q1 2022 Ryzen 6000 Notebooks verfügbar sind? Und wenn, dann mit DDR5?

Mein persönliches Traumgerät wäre ja ein HP ProBook 435 G9 in der Ausstattung. Handliches 13" Convertible, genug Power als Workstation, austauschbarer RAM und SSD. Mit einer RDNA2 iGPU auch halbwegs Spieletauglich (für Klassiker und Indies). Nur HDMI 2.0 müssen sie mal auf die Reihe bekommen.
Aber bei meinem Glück gibts die nächste Generation dann auch mit verlötetem RAM und bei 16GB ist Schluß.

BavarianRealist
2021-10-14, 17:55:58
Gibts eine realistische Chance, dass im Q1 2022 Ryzen 6000 Notebooks verfügbar sind? Und wenn, dann mit DDR5?...

Meiner Vermutung nach hebt sich Rembrandt vor allem durch seine neue, viel leistungsfähigere iGPU ab, sodass Rembrandt vor allem in Non-Gaming-Notebooks bzw. Lowpower-Geräten mit langen Laufzeiten sich von der Konkurrenz abhebt. Daher erwarte ich Rembrandt vor allem in flachen und leichten Geräten bzw. von Anfang an in Business-Notebooks. Dort wird vor allem dann LPDR5 verbaut.

Anfangs dürfte DDR5 sogar teurer sein als die LPDR5, was angeblich schon in Notebooks verbaut wird und nicht so viel teurer als LPDR4X sein soll.

maximAL
2021-10-14, 17:59:20
Kann man Rembrandt überhaupt mit DDR4 paaren?

Die ProBook 435 sind halt einige der wenigen Modelle auf dem Markt, die noch austauschbaren RAM haben, trotz der geringen Größe.
Ich hab neulich die Krise bekommen, als ich bei Dell geschaut habe. Praktisch alle Latitudes, auch die großen, mit verlötetem Speicher und max. 16GB, was soll der Scheiss?!

BavarianRealist
2021-10-14, 20:28:14
Kann man Rembrandt überhaupt mit DDR4 paaren?

Die ProBook 435 sind halt einige der wenigen Modelle auf dem Markt, die noch austauschbaren RAM haben, trotz der geringen Größe.
Ich hab neulich die Krise bekommen, als ich bei Dell geschaut habe. Praktisch alle Latitudes, auch die großen, mit verlötetem Speicher und max. 16GB, was soll der Scheiss?!

Laut den Gerüchten soll Rembrandt kein DDR4 unterstützen. Und soweit ich es verstanden habe, gibt es LPDR4/5-Ram nur in verlöteter Form, weil sie das effizienter macht.

maximAL
2021-10-14, 22:43:04
Laut den Gerüchten soll Rembrandt kein DDR4 unterstützen. Und soweit ich es verstanden habe, gibt es LPDR4/5-Ram nur in verlöteter Form, weil sie das effizienter macht.
Ja, LPDDR RAM ist immer verlötet, das ist nichts neues ;)
Müsste dann schon normaler DDR5 sein

Zossel
2021-10-15, 07:59:30
Ja, LPDDR RAM ist immer verlötet, das ist nichts neues ;)
Müsste dann schon normaler DDR5 sein

Wahrscheinlich kommt ein Teil der Energieeinsparungen von den kürzeren Leiterbahnen und der Abwesenheit von Sockeln.

Hat jemand Zahlen dazu?

basix
2021-10-15, 08:40:53
Wahrscheinlich kommt ein Teil der Energieeinsparungen von den kürzeren Leiterbahnen und der Abwesenheit von Sockeln.

Aufgrund der besseren Signalintegrität kann man ausserdem die Spannung senken.

Opprobrium
2021-10-15, 08:53:03
Gibts eine realistische Chance, dass im Q1 2022 Ryzen 6000 Notebooks verfügbar sind? Und wenn, dann mit DDR5?

Möglicherweise heißen die Teile Ryzen 7000 (https://www.notebookcheck.com/Ryzen-7000-HP-vermarktet-bereits-einen-All-in-One-mit-AMDs-Prozessoren-der-naechsten-Generation.571231.0.html).

Wäre jedenfalls schön wenn zwischen Vorstellung und Verfügbarkeit dieses mal weniger als ein halbes Jahr läge...

mboeller
2021-10-19, 15:34:55
greymon55:


Two things:
ZEN3 V-cache will be mass produced in November.
ZEN3 B2 has been shipped and is expected to be available at the end of December.

All B2 models leave the factory in October and after that. You can judge whether it is B2 through the top cover.


https://twitter.com/greymon55/status/1450407844516298755

OgrEGT
2021-10-19, 20:25:39
greymon55:



https://twitter.com/greymon55/status/1450407844516298755
Cool :)
Zen3 B2 neues Stepping ohne 3D Cache und Zen3D auch B2 mit 3D Cache?
Fragt sich nur noch obs alle Modelle sowohl mit als auch ohne 3D Cache geben wird?

Genial wäre ein 5800XT3D ;D

LivingAudio
2021-10-19, 20:40:02
Hier im Planet3DNOW (https://www.planet3dnow.de/cms/63579-amd-ryzen-5000-vermeer-bekommt-ein-neues-stepping-b2-update/)wird seit ein paar Tagen ausgiebig drüber diskutiert

Lehdro
2021-10-19, 20:50:04
Cool :)
Zen3 B2 neues Stepping ohne 3D Cache und Zen3D auch B2 mit 3D Cache?
Fragt sich nur noch obs alle Modelle sowohl mit als auch ohne 3D Cache geben wird?

Sehe das auch so wie du.

Denke es wird ein neues Lineup geben, XT Modelle als Refresh für alles was kein 3D Cache bekommt und als Preisrefresher, die alten Modelle können dann weiter unten im Produktstack verbleiben, oder gar ganz auslaufen.

Für die 3D Cache Modelle bietet sich im selben Atemzug natürlich auch ein Taktratenupdate an, auch wenn es nur Single Core wäre. Die 5 GHz kann man Marketingtechnisch sicher nutzen. 3D Cache von oben nach unten wäre aber echt erste Sahne, wenn die Preise denn passen. Aber da kann AMD ja im Nachhinein taktieren, da ADL vorher launcht und zeigt wo Intel dann steht, was Leistung als auch Preise angeht.

OgrEGT
2021-10-19, 21:39:36
Hier im Planet3DNOW (https://www.planet3dnow.de/cms/63579-amd-ryzen-5000-vermeer-bekommt-ein-neues-stepping-b2-update/)wird seit ein paar Tagen ausgiebig drüber diskutiert

Danke für den Link. Sehr interessant.
Somit scheint das B2 Stepping die flache Variante des B0 Steppings zu sein.
Also 5800XT B2 als Basis für die 3D Cache Modelle.
Ob man auch den 5600XT B2 Salvage mit 3D Cache versieht... mal sehen...

Lehdro
2021-10-19, 22:02:08
Ob man auch den 5600XT B2 Salvage mit 3D Cache versieht... mal sehen...
Je stärker die kleinen ADL sind und wenn deren Preis passt desto eher muss AMD reagieren, da bleiben nur 3 Möglichkeiten bzw. Kombinationen dieser:

- XT Modelle mit mehr Takt
-> Mehrleistung wird aber nur sehr gering ausfallen
- Preissenkungen
-> vielleicht in Kombination mit den XT Modellen, so dass AMD wieder das P/L erobert
- V-Cache
-> deutliche Mehrleistung beim Gaming, dafür höhere Kosten (Packaging + Cache Chiplet)

Nightspider
2021-10-19, 22:09:54
Oder AMD erweitert das Sortiment erstmal nur nach oben, solange die Regale eh nicht prall gefüllt sind.
AMDs Verkaufszahlen mit HPC Segment steigen ja auch immer weiter.

DavChrFen
2021-10-19, 22:45:37
Ich sehe es schon kommen: Erst gibt es den 3d-Cache, dann den B2 ohne 3D-Cache und dann im Frühjahr beides zusammen. Ich will aber nicht 3x aufrüsten.

basix
2021-10-19, 22:57:47
Soweit ich weiss gibt es V-Cache nur mit B2. Man musste ja für V-Cache ein neues Stepping machen.

w0mbat
2021-10-20, 09:57:33
Woher hast du die Info, dass es für V-Cache ein neues Stepping gibt? Schon die launch Zen3 haben die passenden TSV-Kontakte.

HOT
2021-10-20, 10:18:47
Denke auch, dass B2 das flachere Package hat und das notwendig ist für VCache. Die CPU ist halt dieselbe, das Packaging muss erneuert werden. Ich würde auch sagen, dass zuerst die VCache-Varianten zur CES kommen und dann fließend auf B2 umgestellt wird. Etwas später kommt dann halt die restliche 6k-Serie ohne VCache, die dann als "XT-Refresh" firmiert. Außerdem würde ich sagen, dass AMD hier auf ADL reagieren muss und die VCache bis 6C hinunter anbieten wird. Es wird mMn einen 6600X mit VCache geben, der jetzige 5600X wird etwas optimiert auf 65W mMn als 6600 kommen, eine taktmäßig etwas abgespeckte 6C-Variante kann ja als 6400 den Markt erreichen.

Der_Korken
2021-10-20, 10:33:21
Ob man auch den 5600XT B2 Salvage mit 3D Cache versieht... mal sehen...

Das habe ich schon immer bezweifelt, weil das für AMD unwirtschaftlich ist. Ein 8C-CCD dürfte AMD billiger kommen als ein teildeaktiviertes 6C-CCD mit zusätzlichem Cache-Chip. Der 8C ohne V-Cache wäre durch einen 6C mit V-Cache im Gaming-Markt aber überflüssig (genauo wie ein 12C ohne V-Cache, wenn es bereits den 8C mit V-Cache gibt, usw.). Wenn AMD das ganze als 6000er Serie auflegt, würde ich damit rechnen, dass es für 8C wieder 700er und 800er Serie gibt, einmal ohne und einmal mit V-Cache.

Preislich rechne ich auch nicht Aufschlägen, da AMD sich an den Alder Lake Preisen orientieren muss. Der 12600K dürfte in Spielen bereits den 5800X schlagen oder zumindest gleichziehen, d.h. preislich müssten 8C ohne Cache gegen den 12600K gestellt werden und 8C mit Cache gegen den 12700K (der in Spielen vllt etwas langsamer, dafür in MT aber deutlich schneller sein wird).

HOT
2021-10-20, 10:49:34
Das stimmt nicht. Für Anwendungen kann es durchaus sinnvoll sein, 8C ohne VCache anzubieten. Ist halt nur für Spieler quatsch, aber das ist halt nicht der Markt. OEMs bieten auch lieber 8C als 6C an und sind froh über einen ohne VCache, dafür aber deutlich billiger in 10000er-Abnahmen.
Hinzu kommt, dass sowieso noch 8C ohne VCache angeboten werden, ein 6700G alias Barcelo.

Rembrandt wird sicherlich als 7k-Serie auf AM5 erscheinen und Raphael+Phoenix dann als 8k-Serie.

amdfanuwe
2021-10-20, 11:27:34
Woher hast du die Info, dass es für V-Cache ein neues Stepping gibt? Schon die launch Zen3 haben die passenden TSV-Kontakte.
Und haben die funktioniert? Anscheinend zumindest nicht optimal, sonst wäre kein neues Stepping nötig.

w0mbat
2021-10-20, 11:33:47
Wenn das neue Stepping wirklich nur für das dünnere die ist, sagt es nichts über die Funktion der TSVs aus.

Thunder99
2021-10-20, 11:34:10
Da es ja ein "neuer" Prozessor ist, muss da nicht automatisch ein neues "Stepping" gemacht werden?

Der_Korken
2021-10-20, 12:32:46
Das stimmt nicht. Für Anwendungen kann es durchaus sinnvoll sein, 8C ohne VCache anzubieten. Ist halt nur für Spieler quatsch, aber das ist halt nicht der Markt.

Ich sprach ja explizit vom Gaming-Markt, wobei man wahrscheinlich sogar "Retail-Markt" sagen könnte, weil der fast nur aus Gamern bestehen dürfte. 12C ohne V-Cache wären schon sehr nischig, aber wenn irgendwelche OEMs meinen sowas verbauen zu wollen, können sie das machen. In der Produktion wäre das aber durch den zweiten CCD sicherlich teurer als 8C+Cache, obwohl letzteres für die meisten Leute die bessere Wahl wäre.

HOT
2021-10-20, 12:41:42
Kosten ist für Retail im Grunde irrelevant. Die großen Abnahmen gehen an die OEMs und die bekommen eh nur homöopatisch VCache.
Und im Retail wird der Verkaufsschlager eh wieder der 6600 ohne VCache, der 150€-Prozessor halt. Die Kleinen profitieren ja auch immer psychologisch von den Großen. Aber das Portfolio dürfte wie folgt aussehen:

6800X -> 8C X3D (Zen3 X3D)
6800 und/oder 6700X -> 8C ohne X3D 65W (Zen3 XT)
6700G -> 8C APU (Barcelo)
6600X -> 6C X3D
6600 -> 6C ohne X3D 65W
6600G -> 6C APU

Den 6900 non-X ohne VCache wird man ausschließlich für OEMs bieten mMn, vielleicht gibts sogar nen 6950 non-X.

amdfanuwe
2021-10-20, 14:00:46
Ich bezweifle, dass ein 6600X mit 3d Cache kommt.
Intel hat den 6 Core beim Takt beschränkt um ihn für Gamer eher unattraktiv zu machen.
AMD könnte nun einen ähnlichen Weg einschlagen und nur die 12 und 16 Core mit 3d Cache ausstatten. Wer die beste Gaming Leistung haben will, soll auch entsprechend bezahlen. War bei Intel auch immer so.
Also mal abwarten, was Intel jetzt bringt. AMD wird die neuen Produkte entsprechend ausstatten und Preis/Leistungsmäßig einsortieren.

Da der 3d Cache nicht in allen Anwendungen Vorteile bringt, wird das komplette Portfolio auch ohne 3d Cache verfügbar bleiben.
So lange die Chipkriese jedoch anhält, wird sich AMD vornehmlich auf maximalen Gewinn konzentrieren. Wenn wieder genügend Kapazitäten vorhanden sind, kann man sich immer noch auf Marktanteilgewinn konzentrieren und das eine oder andere "Geschenk" machen.

Nightspider
2021-10-20, 15:58:42
Woher hast du die Info, dass es für V-Cache ein neues Stepping gibt? Schon die launch Zen3 haben die passenden TSV-Kontakte.

Weil beides quasi in einem Atemzug angekündigt wurde, weil es naheliegend ist und weil das B2 Stepping keine Performance-Vorteile besitzen soll.

Denke auch, dass B2 das flachere Package hat und das notwendig ist für VCache

B2 wird bei allen CPUs verwendet. Wieso sollte man alle CPU Chips abschleifen obwohl man einen Großteil ohne V-Cache anbieten wird?

Zumal die CPUs ohne V-Cache dann eine andere höhe hätten, einen anderen Heatspreader benötigen würden und die Kosten der Non-V-Cache Varianten nur steigen würden.

HOT
2021-10-20, 17:02:07
Klar wird das beim VCache verwendet und auch überall sonst. Das neue Package wird schlichtweg kostengünstiger sein und die Produktion der Packages erleichtern mMn.

basix
2021-10-20, 17:28:35
B2 wird bei allen CPUs verwendet. Wieso sollte man alle CPU Chips abschleifen obwohl man einen Großteil ohne V-Cache anbieten wird?

Zumal die CPUs ohne V-Cache dann eine andere höhe hätten, einen anderen Heatspreader benötigen würden und die Kosten der Non-V-Cache Varianten nur steigen würden.

Man könnte dünnere Wafer verwenden. Gab gerade letztens mal eine Info, dass die Silizium-Einkristalle (Ingot) knapp sind, woraus dann die Wafer gesägt werden. Mit dünneren Wafern würde man hier etwas einsparen und die Liefersituation verbessern.

Bei den non V-Cache CPUs mit B2 wäre dann einfach der Heatspreader etwas dicker, that's it.

Nightspider
2021-10-20, 17:46:51
Klar wird das beim VCache verwendet und auch überall sonst. Das neue Package wird schlichtweg kostengünstiger sein und die Produktion der Packages erleichtern mMn.

Was soll am Abschleifen billiger sein? Das sind zusätzliche Schritte nach dem Belichten und potentielle Risikofaktoren.

Man könnte dünnere Wafer verwenden. Gab gerade letztens mal eine Info, dass die Silizium-Einkristalle (Ingot) knapp sind, woraus dann die Wafer gesägt werden. Mit dünneren Wafern würde man hier etwas einsparen und die Liefersituation verbessern.

Bei den non V-Cache CPUs mit B2 wäre dann einfach der Heatspreader etwas dicker, that's it.

Die aktuell überall genutzten Maße gibts sicherlich aus Stabilitätsgründen und nicht weil man mal Würfel geworfen hat.

Rohwafer kosten schließlich auch Geld.


Um den SRAM-Chiplet auf dem CCD anzubringen wird dieser um 95 % auf nur noch 20 µm der ursprünglichen 400 µm angeschliffen. Damit werden die TSV-Kontakte freigelegt, welche die Datenverbindung und Stromversorgung des SRAM ermöglichen.

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56858-tsv-abstand-extrem-gering-details-zu-amds-3d-v-cache.html

HOT
2021-10-20, 18:05:47
Abschleifen? :freak:

basix
2021-10-20, 19:45:55
Die aktuell überall genutzten Maße gibts sicherlich aus Stabilitätsgründen und nicht weil man mal Würfel geworfen hat.

Keine Ahnung, wie hoch das CCD ist (z height), aber 400um ist ziemlich wenig. Siehe Intels Comet Lake, wo man von 800um auf 500um runter gegangen ist: https://www.tomshardware.com/news/intel-comet-lake-s-cores-53-ghz-high-power-better-pricing/2

Evtl. ist B0 höher als B2. Habe zu Zen 2/3 aber keine entsprechenden angaben zur Die-Höhe gefunden.

Gratzner
2021-10-22, 12:15:08
Ich glaube kaum, das man beginnt einfach so dünnere Wafer aus den silicon-ingots zu schneiden. Klar kann der fertige Chip dünner sein als der Ausgangswafer, weil man ihn gedünnt hat, das spart aber kein Substratmaterial.

Keine Ahnung, wie hoch das CCD ist (z height), aber 400um ist ziemlich wenig. Siehe Intels Comet Lake, wo man von 800um auf 500um runter gegangen ist
Da werden wahrscheinlich keine dünnere Ausgangswafer verwendet, sondern man wird diese nur nachträglich gedünnt haben.

Abschleifen? :freak:
CMP (https://en.wikipedia.org/wiki/Chemical-mechanical_polishing) ist eine Möglichkeit Wafer abzudünnen. Es geht natürlich auch chemisch.

Die aktuell überall genutzten Maße gibts sicherlich aus Stabilitätsgründen und nicht weil man mal Würfel geworfen hat.

Stabilität ist ein Problem. Die Waferdicke ist auf ~775µm für 300m Wafer normiert (JEDEC). In den ganzen Tools wird von dieser Dicke ausgegangen und dünnere Wafer verbiegen sich stärker. Beispielsweise werden die Wafer oft in Vakuumchucks festgehalten, der Hersteller geht bezüglich der mechanischen Belastung von entsprechend 775µm dicke Wafer aus. Gibt auch Hochtemperaturprozesse und Diffusionsprozesse, wo die Waferdicke ebenfalls einen Unterschied macht. Einfach mal dünnere Wafer aus dem silicon-ingot abschneiden, weil sie gerade teuer sind, geht nicht.

Fraunhofer forscht an dem handling dünner Wafer [1 (https://www.izm.fraunhofer.de/de/abteilungen/wafer-level-system-integration/process_technologies/bonding_thinning.html)], also das man dünnere Wafer auch in den bisherigen Maschinen verarbeiten kann

amdfanuwe
2021-10-22, 12:23:19
A limitation of the wafer
thickness downwards to approx. 200 μm as given by many manufacturer
https://www.microchemicals.com/technical_information/silicon_wafer_production_specification.pdf

Gratzner
2021-10-22, 13:21:19
Ich lese raus, dass die 200µm sich aber auf 2 Zoll wafer beziehen und nicht auf die 12-Zoll wafer, um die es hier geht.

Übrigens ich habe das Buch von micromchemicals dazu (ISBN 978-3-9818782-1-9). Die verlinkte PDF ist nur ein Kapitel aus dem Buch. In einem späteren Kapitel geht es um Belichtung und zwar um irgendwelche Uralttechnologien, wie Belichten mit der i-line (~365nm, h- und g-line wären sogar noch größer) von irgendwelchen Quecksilberlampen ("Hg-bulb"). Bei Halbleiterzeugs muss man schon auf den Kontext achten

Gipsel
2021-10-22, 13:53:06
Keine Ahnung, wie hoch das CCD ist (z height), aber 400um ist ziemlich wenig.~400µm Dicke sind seit vielen Jahren Standard bei AMD. Die kannst Du von den Waferherstellern auch einfach so kaufen. Ist völliger Standard.

basix
2021-10-22, 14:05:24
Ok, dann hat Intel also dickere Wafer benutzt.

@Gratzner
Bei Wafern ist ~50um das Minimum: http://cds.cern.ch/record/2683748/files/50um_Si_wafer.jpg?subformat=icon-1440

The company has produced 50-micron thick, full-size 125mm wafer samples utilizing engineering equipment with excellent mechanical and electrical characteristics. SiGen plans to start pilot line operations by spring 2009 that demonstrate kerf-free processing of silicon ingots into wafers ranging from 150um to 50um in thickness.
https://www.prweb.com/releases/silicon/sigen/prweb1098414.htm

Typisch sind sie aber einiges dicker und steigt mit dem Waferdurchmesser (Präsentation ist anscheinend schon älter): https://sus.ziti.uni-heidelberg.de/Lehre/WS1920_VLSI/VLSI_Fischer_09_Manufacturing.pptx.pdf

Ob sehr dünne Wafer aber für die Herstellung von CPUs und GPUs taugen? Weiss ich nicht

Gratzner
2021-10-22, 14:37:19
@basix Du gibst dir aber auch Mühe den Kontext zu ignorieren. SIGen will Solarzeugs herstellen und die Heidelberger Uni schreibt auf der Folie, das man die Wafer im nachhinein dünnt

Gipsel
2021-10-22, 14:38:07
Muß mich übrigens korrigieren. Bei 300mm Wafern sind immer noch 775µm Dicke Standard. Ich glaube mich aber zu erinnern, daß schon vor ein paar Jahren AMD-Dies irgendwo bei 400µm rum vermessen wurden (die man von den Waferherstellern wohl auch ordern kann).

Gratzner
2021-10-22, 14:47:56
Kann schon sein, dass man schon dünnere Wafer auch in der 300mm-Technologie für CPUs/GPUs prozessiert. Macht man vielleicht schon seit vielen Jahren. Ich meinte nur, dass das Vorbereitung brauch und man nicht innerhalb kurzer Zeit die Waferdicke umstellen kann, weil die Substrat-Preise steigen. Sowas ähnliches hatte basix als Grund vorgeschlagen als Erklärung für die verschiedene Ryzen steppings.

Muß mich übrigens korrigieren. Bei 300mm Wafern sind immer noch 775µm Dicke Standard. Ich glaube mich aber zu erinnern, daß schon vor ein paar Jahren AMD-Dies irgendwo bei 400µm rum vermessen wurden (die man von den Waferherstellern wohl auch ordern kann).
Der fertige Chip verrät jetzt erstmal nicht soviel über die Ausgangsdicke der Wafer. Aber wenn man 400µm-Dicke 300mm-Wafer ordern kann, wird man das schon seit einigen Jahren verwenden. Besonders die Consumer-Chips sind teilweise extrem kostensensitiv, da lässt man nicht einfach so Geld liegen

Gipsel
2021-10-22, 15:08:39
Und dann gibt es ja noch diese Shenanigans, wo man offenbar hochqualitative (aber etwas dünnere) Wafer mit Direktbonding auf dickere (aber vermutlich minderer Qualität) "klebt", um in der Summe auf 775µm zu kommen:
https://abload.de/img/31839623960_d436e5e6crnks5.jpg (https://www.flickr.com/photos/130561288@N04/31839623960/in/photostream/)

DavChrFen
2021-10-22, 17:53:23
Wie wird sich das auf die Wärmeabfuhr auswirken:Besser, weil dünner, oder schlechter, weil man noch entweder durch den V-Cache oder durch eine Höhenausgleichsplatte durch muß?

basix
2021-10-22, 18:05:01
@basix Du gibst dir aber auch Mühe den Kontext zu ignorieren. SIGen will Solarzeugs herstellen und die Heidelberger Uni schreibt auf der Folie, das man die Wafer im nachhinein dünnt

Ich habe doch geschrieben, dass ich nicht weiss ob sich so dünne Wafer für die Belichtung von CPUs/GPUs eignet (da hast du deinen Kontext). Abschleifen geht immer. Dass man den Wafer im Nachhinein dünnt in der einen Folie habe ich gesehen, dort ging es mir eher um das Bild mit dem gebogenen Wafer ;)

SavageX
2021-10-22, 18:05:12
Und dann gibt es ja noch diese Shenanigans, wo man offenbar hochqualitative (aber etwas dünnere) Wafer mit Direktbonding auf dickere (aber vermutlich minderer Qualität) "klebt", um in der Summe auf 775µm zu kommen:
https://abload.de/img/31839623960_d436e5e6crnks5.jpg (https://www.flickr.com/photos/130561288@N04/31839623960/in/photostream/)

Sicher, dass das kein SOI-Wafer ist? Da züchtet man auf der einen Wafer-Seite Siliziumoxid als Isolationsschicht, macht den Wafer dünn und klebt das dann mit der Oxidseite unten auf einen anderen Wafer.

AMD/GF hat ja bis 32nm auf SOI belichtet.

edit: Fände jetzt aber die 200µm ein "wenig" zu "tief" für die Oxidschicht...

Gipsel
2021-10-22, 18:46:27
Sicher, dass das kein SOI-Wafer ist?Ja, ist 28nm TSMC.

OC_Burner
2021-10-22, 22:36:40
Meine bisher so freigelegten Zen 2 & 3 CCDs kommen bei mir alle auf ca. 770 - 775µm und entsprechen damit wohl der üblichen Dicke für 300mm Wafer.

basix
2021-10-23, 11:05:32
Dann sind wir gespannt auf deine B2-Messungen :)

Nightspider
2021-10-23, 13:19:58
Nee sind wir nicht.

Zen3D wird genauso hoch sein wie bisherige CPUs und B2 ohne V-Cache wird nicht abgeschliffen.

Außer jemand nennt wir meinen logischen Grund warum man unnötige Arbeitsschritte machen sollte, die keinen Vorteil bringen und nur zusätzlich Geld kosten.

OgrEGT
2021-10-23, 13:36:37
Die Frage ist ob es das B2 Stepping nur mit 3D Cache gibt oder auch ohne...

Nightspider
2021-10-23, 13:37:52
AMD hat schon im Juni gesagt, dass das neue Stepping nach und nach überall das alte ersetzen wird, ohne das wir es mitbekommen.

As part of our continued effort to expand our manufacturing and logistics capabilities, AMD will gradually move AMD Ryzen 5000 Series Desktop Processors to B2 Revision over the next 6 months. The revision does not bring improvements in terms of functionality or performance, furthermore, no BIOS update will be required.

Das ist doch alles seit Monaten bekannt.

OgrEGT
2021-10-23, 14:50:53
Entweder die Dicke von B2 = B0 dann muss für B23D der Heatspreader den zusätzlichen 3D Cache kompensieren und dünner sein als der Heatspreader für B0. Für B2 bleibt der Heatspreader wie bei B0.

Oder B2 wird dünner als B0 damit B23D = B0 und der Heatspreader für B23D bleibt wie bei B0. Für B2 müsste der Heatspreader dann etwas dicker werden.

So oder so werden 2 unterschiedlich dicke Heatspreader benötigt... sofern es B2 und B23D geben wird.

Nightspider
2021-10-23, 15:21:46
Wie wäre es wenn du einfach mal die letzte Seite hier liest.

Zen3 B2 soll für den V-Cache abgeschliffen werden und wie in jeder News zu lesen war wird über die Kerne selbst Silizium "geklebt" (wahrscheinlich auch mit Kupfer, so wie bei der Durchkontaktierung), so das der Chip am Ende genauso hoch sein dürfte wie die bisherigen Zen3 CPU Chips.

Um den SRAM-Chiplet auf dem CCD anzubringen wird dieser um 95 % auf nur noch 20 µm der ursprünglichen 400 µm angeschliffen. Damit werden die TSV-Kontakte freigelegt, welche die Datenverbindung und Stromversorgung des SRAM ermöglichen. (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56858-tsv-abstand-extrem-gering-details-zu-amds-3d-v-cache.html)

https://bilder.pcwelt.de/4299790_950x475.jpg

OT: Nur ist Anschleifen wohl das falsche Wort. Wenn 95% abgetragen wird müsste es wohl offensichtlich "abschleifen" heißen.

amdfanuwe
2021-10-23, 18:36:16
Wobei in dem Bild die Chips falsch rum dargestellt sind, weil man sonst nur die Rückseite sehen würde.
Richtig ist:
https://www.techpowerup.com/forums/attachments/1628255292809-png.211477/

Neben dem V-Cache werden dann die Ausgleichsblöcke aufgebracht und das ganze auf die gewünschte Chipddicke abgeschliffen.

Ich frage michnur, ob beim B2 direkt der ganze Wafer abgeschliffen wird oder ob man erst die Chips selektiert und nur die geeigneten einzeln abschleift und dann mit V-Cache versieht.

basix
2021-10-23, 19:27:10
Um den SRAM-Chiplet auf dem CCD anzubringen wird dieser um 95 % auf nur noch 20 µm der ursprünglichen 400 µm angeschliffen. Damit werden die TSV-Kontakte freigelegt, welche die Datenverbindung und Stromversorgung des SRAM ermöglichen. (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56858-tsv-abstand-extrem-gering-details-zu-amds-3d-v-cache.html)

Anhand deisem Text ist ja schon klar, dass einer der Die 400um dick ist. Entweder das CCD oder das SRAM Chiplet.

r3ptil3
2021-10-24, 11:55:00
Ist eigentlich die Thematik rundum die optimierte Temperaturmessung bei den Ryzens erst ab Zen4 oder evtl. bereits auch mit dem B2/3DCache-Modellen vorhanden?

Wäre meiner Meinung nach ein Meilenstein, denn damit wären die extrem nervigen Temperatursprünge Geschichte, durch den optimierten "CUR_TEMP" Wert, welcher endlich zurückhaltende und geglättete Temps zurückmeldet.

OgrEGT
2021-10-27, 07:34:11
Nee sind wir nicht.

Zen3D wird genauso hoch sein wie bisherige CPUs und B2 ohne V-Cache wird nicht abgeschliffen.

Außer jemand nennt wir meinen logischen Grund warum man unnötige Arbeitsschritte machen sollte, die keinen Vorteil bringen und nur zusätzlich Geld kosten.
Darauf habe ich mich bezogen.
Wenn das so ist wie du sagst dann muss B2 dünner sein als B0. Und somit wird ein dickerer HS oder mehr Lot benötigt.

Hatte Dich missverstanden...
Dann wird B2 wohl nur für die gestapelten Dies abgeschliffen. Dann passt es.

nordic_pegasus
2021-10-28, 21:57:33
ist eigentlich bekannt, wie TSMC/AMD die Lagen bei diesem 3D-Stacking verbindet? Wird hier geklebt, gelötet oder ähnliches?

Als ich neulich dieses Video von Veritasium zum Thema Cold Welding gesehen hatte, dachte ich an 3D-Stacking. Demnach verbinden sich Metalle im Vakuum spontan ohne externe Energie, weil die isolierende Oxid-Schicht nicht vorhanden ist.

https://www.youtube.com/watch?v=Y2nQ8isf55s

davidzo
2021-10-28, 23:09:19
ist eigentlich bekannt, wie TSMC/AMD die Lagen bei diesem 3D-Stacking verbindet? Wird hier geklebt, gelötet oder ähnliches?

Als ich neulich dieses Video von Veritasium zum Thema Cold Welding gesehen hatte, dachte ich an 3D-Stacking. Demnach verbinden sich Metalle im Vakuum spontan ohne externe Energie, weil die isolierende Oxid-Schicht nicht vorhanden ist.

https://www.youtube.com/watch?v=Y2nQ8isf55s

TSMC legt nicht genau offen welche Technologien sie einsetzen, aber da man sich die einzelnen Prozessschritte, Maschinen und chemikalien wie bei TSMC üblich einkauft bei den branchenüblichen Zulieferern, ist es eigentlich industrieweit bekannt was die da nutzen, bzw. wer bzw. wessen technik für einen solch dichten pitch in Frage kommt. Das sind Firmen wie Applied Materials, Xperi, Besi, ASM Pacific, Süss microtec, etc. die das für die einzelnen Schritte benötigte Gerät stellen.

1. Superpräzise Poliermaschinen, chemisch und mechanisch
2. Plasma Aktivierung. Das senkt die später für das bonding der Kupferpillars benötigte Temperatur.
3. Room temperature Bonding - das verschweißt die SiO2 surfaces miteinander
4. Annealing bei 200-400° - das verschweißt die aktivierten Kupferpillars miteinander.

Die Technik dazu stammt weder von TSMC, noch ist sie überhaupt für Logikchips gedacht gewesen. Man muss dabei bedenken dass TSMC Packaging in der Regel auch gar nicht selber macht, sondern direkt Wafer verkauft und sich der Käufer dann einen testing und packaging Provider sucht, z.b. ASE, Amkor, Powertech. Da einige Prozesse nun aber Front end of Line sind, oder zumindest dort vorbereitung erfordern, muss sich TSMC zwangsläufig mit Packaging auseinandersetzen. Die haben mal eben eine neue Abteilung aus dem Boden gestampft und mehrere neue Fabs dafür gebaut, deswegen dauert der Ramp up auch so lange. Die Packaging-Dienstleister an die man bisher die Wafer geliefert hat, sind sicher auch nicht so amused davon das TSMC jetzt auch auf dem Gebiet konkurriert.

Die direct Bonding Technologie wurde vor über 10 jahren eigentlich für CMOS Bildsensoren mit Backside Illumination entwickelt, unter anderem im Auftrag von Omnivision und Sony. Auch Wafer thinning wurde erstmals in großem Stil für BSI Sensoren eingesetzt, um eine größere Fläche der Photodioden frei zu legen. Dadurch konnte man die analogen Phototransistoren auf einem speziellen photodioden-substrat produzieren und fabric und DSP-Logik in einem davon abweichenden optimalen Logik-prozess und diesen mit minimalster Leitungslänge direkt dahinter packen.
Die ersten derartigen Chips steckten im iphone 5S von 2013 und 6S. Im galaxy S9 steckt sogar ein 3 Chip Stack mit integriertem DRAMpuffer.
Afaik sind das aber alles wafer to wafer prozesse gewesen. TSMC hat sich da eine Stufe mehr Komplexität gegönnt indem sie auch Chip-on-Wafer ermöglichen, bzw. "Known good Chip" on wafer weil das sonst keine Vorteile bietet. Dazu müssen sie auch erheblich in Testing facilities investiert haben.

mboeller
2021-11-01, 16:17:05
Thread-Scaling @5800x:

https://mobile.twitter.com/CapFrameX/status/1454192409240293381

OgrEGT
2021-11-06, 16:23:09
Zen3 fängt an günstiger zu werden, zumindest in USA...

https://videocardz.com/newz/amd-ryzen-7-5800x-gets-a-massive-price-cut-to-300-usd-at-microcenter

Ob und wann sich das auf die EU überträgt... mal sehen...

MSABK
2021-11-06, 16:43:00
Zen3 fängt an günstiger zu werden, zumindest in USA...

https://videocardz.com/newz/amd-ryzen-7-5800x-gets-a-massive-price-cut-to-300-usd-at-microcenter

Ob und wann sich das auf die EU überträgt... mal sehen...

Cool, dieser Zweikampf um den schnellsten Chip gefällt mir.:)

Platos
2021-11-06, 18:25:44
Das sind doch nur Angebote und keine Fixpreise ?

TheAntitheist
2021-11-06, 22:23:25
500$+Ust vs 524€ für den 5900x. Seh da jetzt keinen großen Unterschied.

Ex3cut3r
2021-11-06, 23:35:45
Was erwartet ihr denn? Wenn AMD noch einen 6C/12T Verkaufen will, muss der Preis auch runter, momentan ist der Preis ja ein Witz
Obwohl der 12600KF ist auch nicht grade günstig. Wahnsinn diese HW Preise, die haben mittlerweile alle nen Rad ab.

FastAndy
2021-11-06, 23:48:28
Ich finde die preise voll ok. vieles hat seine berechtigung. die berufsmeckerer regen sich halt immer über irgendwas auf :tongue:

OgrEGT
2021-11-07, 08:29:03
Es geht ja um die Tendenz... vielleicht beginnen so langsam die Preise zu fallen... ob in Reaktion auf ADL oder in Vorausschau auf Zen3D wer weiß... vlt ist es auch nur ein einmaliges Sonderangebot...

OgrEGT
2021-11-07, 09:14:03
Verstehe das Gemecker um 50Eur bei einer CPU auch nicht... mal ehrlich wenn man klug und mit etwas Weitblick aufrüstet dann sollte gerade eine CPU eine längerfristige Investition sein gerade wenn man wenig Geld hat. Gerade dann sollte man nicht jede neue CPU wegen wenig bis noch weniger Leistungsplus im GPU Limit mitnehmen... wenn man also 50Eur auf wenige Jahre bspw 2 Jahre umlegt dann sind das monatliche Mehrkosten von 2Eur...
Das kann nicht der Grund sein für das Meckern...

r3ptil3
2021-11-07, 10:15:54
CPUs zu teuer, aber ein iPhone 13 Pro oder S21 Ultra im Sack.

reaperrr
2021-11-07, 12:31:12
Was erwartet ihr denn? Wenn AMD noch einen 6C/12T Verkaufen will, muss der Preis auch runter, momentan ist der Preis ja ein Witz
Obwohl der 12600KF ist auch nicht grade günstig. Wahnsinn diese HW Preise, die haben mittlerweile alle nen Rad ab.
Das sind halt auch keine 123mm²-Chips in nem einfachen FinFET-Prozess wie zu Skylake-Zeiten mehr, und auch keine Zen1-Chips wo AMD eh feste Wafermengen kaufen musste die vmtl. die Nachfrage anfangs überstiegen und wo AMD deshalb froh war über jeden Chip, für den sie irgendwie noch Geld bekommen haben.

An den RR/Picasso und <= non-X x600 scheint AMD bis einschließlich 3600 nicht viel verdient zu haben, jedenfalls nicht viel Gewinn, nur R&D-Finanzierung.

Und gerade vor Dingen wie Waferpreisen, Substratpreisen, Transportkosten usw. machen die allgemeine Inflation und Angebots-/Nachfragesituation auch nicht gerade halt. Prozentual sind AMD's Kosten je Chip vermutlich ähnlich stark gestiegen wie die Retail-Preise ihrer CPUs in den letzten 2 Jahren.

basix
2021-11-07, 12:48:44
Am Ende muss man sagen, dass AMDs Gross Margin gestiegen ist. Schlecht verdienen tuen sie also nicht. Das beinhaltet anteilsmässig aber immer stärker auch GPUs, EPYC und die Konsolenchips.

AffenJack
2021-11-07, 12:53:38
Und gerade vor Dingen wie Waferpreisen, Substratpreisen, Transportkosten usw. machen die allgemeine Inflation und Angebots-/Nachfragesituation auch nicht gerade halt. Prozentual sind AMD's Kosten je Chip vermutlich ähnlich stark gestiegen wie die Retail-Preise ihrer CPUs in den letzten 2 Jahren.

Zen2 zu Zen3 waren von den Kosten für AMD keine Veränderung, wahrscheinlich ist Zen3 sogar günstiger, weil 7nm bessere Yields hat. Mit den Argumenten kann ich auch das Preis/Leistungsverhältniss einer 3090 und die aktuellen Grakapreise loben, schließlich dürften Nvidias/AMDs Margen da deutlich geringer sein als AMDs bei nem 5950X. Am besten die Preise bleiben alle so, weil die Hersteller so arm dran sind.

robbitop
2021-11-07, 13:12:29
Angebot und Nachfrage. Wird ja niemand gezwungen zu kaufen.

Linmoum
2021-11-07, 13:27:14
Zen2 zu Zen3 waren von den Kosten für AMD keine Veränderung, wahrscheinlich ist Zen3 sogar günstiger, weil 7nm bessere Yields hat.Die Kosten haben sich nicht verändert? Und die CPUs werden weltweit mit Liebe in die ganzen Länder transportiert? :freak: Die Kosten für einen üblichen 40ft Container von China nach Europa lagen zuletzt teilweise beim bis zu achtfachen (!!) der sonst üblichen Preise.

Ist ja schön, wenn der Prozess etablierter und die Yields immer besser werden. Aber nicht nur da fallen Kosten an.

Ex3cut3r
2021-11-07, 13:27:38
Angebot und Nachfrage. Wird ja niemand gezwungen zu kaufen.

Ich wurde aber gerne meinen 3600 mit einem 5600X z.B. ersetzen, tue ich aber nicht, da einfach doppelt so teuer wie ich 2020 für den 3600 gezahlt habe. Von daher.....hat AMD auch deutlicher weniger 5600X verkauft, als 3600. Müssen Sie am ende wissen, setze ich mehr CPUs habe für einen günstigen Preis ab, oder setze ich 40% weniger ab als beim Vorgänger ab, aber für den doppelten Preis, anscheinend ist letzteres profitabler.

Linmoum
2021-11-07, 13:56:16
AMD muss erstmal überhaupt wissen, wie viel produziert werden kann und wie das in Relation zur (potentiellen) Nachfrage aussehen würde. Billiger heißt auch, dass du deutlich mehr Stückzahlen brauchst. Die hat man offensichtlich nicht. Und das Problem hat nicht nur der DIY-Markt für die Computer-Nerds.

robbitop
2021-11-07, 14:08:23
Ich würde vermuten, dass man aktuell alle CPUs und GPUs gut verkauft bekommt.

r3ptil3
2021-11-07, 14:23:14
Ich wurde aber gerne meinen 3600 mit einem 5600X z.B. ersetzen

Nicht vergessen, selbst der 3600 ist verhältnismässig teurer geworden.

Verkauf doch den 3600er für ca. 170 Euro und hol dir an Blackfriday einen 5600X für 250 Euro oder weniger.

Wenn dir 80 Euro Investition für dein Hobby zu viel sind, welche du vermutlich noch Jahre nutzen kannst, dann ist dir dieses Hobby einfach nicht wichtig genug. :)

AffenJack
2021-11-07, 14:35:35
Die Kosten haben sich nicht verändert? Und die CPUs werden weltweit mit Liebe in die ganzen Länder transportiert? :freak: Die Kosten für einen üblichen 40ft Container von China nach Europa lagen zuletzt teilweise beim bis zu achtfachen (!!) der sonst üblichen Preise.

Ist ja schön, wenn der Prozess etablierter und die Yields immer besser werden. Aber nicht nur da fallen Kosten an.

Weil CPUs ja auch riesige Kartons haben. Das ist auf eine CPU gesehen wenn es hoch kommt 1 €. Ich wette eher niedriger, denn in China bestelltes Kleinzeugs kriegt man hier immernoch mit akzeptablen Versandkosten.

Bei Mainboards, Netzteilen, Grafikkarten etc wirken sich die Preissteigerungen im ganzen Markt viel mehr aus. Eine CPU ist so simpel, da kann höchsten der Kühler noch ein Stück teurer werden.

Müssen Sie am ende wissen, setze ich mehr CPUs habe für einen günstigen Preis ab, oder setze ich 40% weniger ab als beim Vorgänger ab, aber für den doppelten Preis, anscheinend ist letzteres profitabler.

Es geht immer nur um Profitabilität, natürlcih verkauft AMD lieber weniger zum höheren Preis. Darum gehts einem Unternehmen, hauptsache man macht Gewinn. Ich finde es ja immer nur lustig, wie die gleichen Leute die Nv/Intel immer als Preistreiber sehen ein Jahr später versuchen AMDs Preise unbedingt zu verteidigen.;D

reaperrr
2021-11-07, 16:18:18
Müssen Sie am ende wissen, setze ich mehr CPUs habe für einen günstigen Preis ab, oder setze ich 40% weniger ab als beim Vorgänger ab, aber für den doppelten Preis, anscheinend ist letzteres profitabler.
Natürlich ist es das. 40% weniger Verkäufe bei 100% höherem Preis ergibt unterm Strich 20% mehr Umsatz bei nahezu halbem Wareneinsatz.

Wenn man sich dann aber auch die Verfügbarkeit von GPUs und den neuen Konsolen ansieht und dann noch davon liest, dass Unternehmen aktuell teilweise ein halbes Jahr auf ihre EPYC-Bestellungen warten müssen, ist auch klar, warum AMD diese Preise fährt (bzw. fahren muss).
Übers gesamte Produkt-Portfolio gesehen übersteigt die Nachfrage nach 7nm-Produkten noch immer das, was AMD liefern kann, also priorisiert man wo es geht die Produkte mit den besten Margen und steuert die Nachfrage beim Rest über entsprechende Preise.

Wenn AMD den Preis des 5600X jetzt auf 200$/€ senken würde, müssten sie davon wahrscheinlich doppelt so viele verkaufen, um noch genauso viel, geschweige denn mehr Gewinn zu machen, müssten dann aber doppelt so viel 7nm-Kapazität dafür aufwenden, die dann woanders fehlt. Macht einfach betriebswirtschaftlich keinen Sinn.

HOT
2021-11-07, 16:19:27
Gibt ja auch keinen Grund die Preise zu senken, die Boards von ADL sind ja derart teuer...

amdfanuwe
2021-11-07, 16:32:08
Preise senkt man erst, wenn sich das Zeug im Lager stapelt. Zuerst wird das Zeug mit höherer Gewinnmarge verkauft und wenn dann noch was übrig ist, wird auch die untere Kategorie bedient. Natürlich gibt es aus politischen Gründen Ausnahmen und man verzichtet etwas auf Gewinn um dem Markt zu zeigen, dass man das Segment noch bedient.

Mortalvision
2021-11-07, 17:52:40
AMD sind jetzt in der Pflicht, für die Aktionäre das meiste rauszuholen. Damit haben sie peak engineering schon überschritten. Jede Firma durchlebt diesen Schweinezyklus, wenn kein Bezos, Gates oder Jobs am Ruder sitzt!

reaperrr
2021-11-07, 21:56:31
AMD sind jetzt in der Pflicht, für die Aktionäre das meiste rauszuholen. Damit haben sie peak engineering schon überschritten. Jede Firma durchlebt diesen Schweinezyklus, wenn kein Bezos, Gates oder Jobs am Ruder sitzt!
Den Vergleich versteh ich nicht.
Macht AMD bzw. Su Anstalten, die R&D zurückzufahren, um die Marge zu erhöhen oder ähnliches?
Sie behält vielleicht mal bewusst ein Ass im Ärmel, aber von Zurücklehnen seh ich da noch lange nichts, gerade bei AMD erwarte ich eher, dass das R&D-Tempo in einigen Bereichen wie der MI-Reihe noch weiter zunehmen wird (einfach weil es notwendig ist, wenn sie vorne landen/bleiben wollen, sprich da, wo die fetten Margen und Stückzahlen sind).

Für die Aktionäre holt man am meisten raus, wenn man die besten Produkte am Markt hat und deshalb gute Preise nehmen kann. Das hat Apple bei den Smartphones vorgemacht und gerade AMD wird kaum so dumm sein, jetzt einen Gang rauszunehmen um erstmal die Aktionäre zu füttern.
Die fangen vielleicht irgenwann mal an Dividende zu zahlen und mehr Aktien zurückzukaufen, oder wo es Sinn macht weitere Firmen zuzukaufen, wenn sie so viel Geld machen, dass sie gar nicht alles davon sinnvoll in R&D etc. stecken können, aber Abstriche beim Engineering werden sie dafür nicht machen.

Nur weil das P/L-Verhältnis der Desktop-CPUs aktuell nicht ganz so ist, wie es sich einige (grundsätzlich ja auch ich) wünschen würden, heißt das noch lange nicht, dass wir das Beste hinter uns haben.
Im Gegenteil, ich glaube eher, dass sich AMD, Nvidia und Intel gegenseitig zu immer neuen Ingenieurshöchstleistungen treiben werden.
Nvidia hat Schiss vor RDNA3 und treibt Lovelace deshalb an die Kotzgrenze und versucht sicher fieberhaft, Desktop-Hopper so schnell wie möglich marktreif zu kriegen, für den Fall der Fälle.
Instinct übt immer mehr Druck auf Nvidia's HPC-Marktanteile aus.
Von hinten kommt Intel hier mit Ponte Vecchio, was ja auch nur der Startschuss einer Reihe ist.
Intel bringt mit Arc Grafikkarten, die vor allem NV (zuerst vorrangig im Mobile-Bereich wo NV ja in Intel-Notebooks mit diskreten GPUs fast Monopolstellung hat, später aber sicher auch im Desktop) im Mainstream gehörig Feuer unter dem Hintern machen werden, irgendwann vielleicht auch im HighEnd.
Intel treibt die ST-Leistung der P-Cores und Anzahl und später auch IPC der E-Cores immer weiter hoch, wodurch AMD weiter Vollgas geben muss, um in jeder Disziplin voll dran zu bleiben bzw. vorn zu bleiben.
Nvidia wird irgendwann ARM-Server-CPUs bringen.

Alle 3 müssen Vollgas geben, um entweder vorn zu bleiben oder (wieder) nach vorn zu kommen.

Aktuell stehen bei allen die Kapazität und bei NV und Intel auch der aktuelle, etwas mittelprächtige Prozess schnelleren Fortschritten im Weg.
Das ist aber eine Momentaufnahme, mit Intel 4 und TSMC N5+N6 (und bei AMD evtl. schon Ende 2023 auch N3) sehen wir auch wieder größere Sprünge von allen Dreien, und die Kapazitätslage wird sich etwas entspannen, weil die neuen Prozesse eben zusätzlich zu den 10/8/7nm-Kapazitäten online gehen.

Momentan ist halt das Problem, dass Intels 14nm und GloFos 12nm nicht mehr ganz ausreichend für moderne Chips sind, Samsungs 8nm und Intels 10nm auch nur so lala und AMD von TSMC nicht so viel 7nm kriegt, wie sie verkaufen könnten.

Nazar
2021-11-08, 07:55:46
Gibt ja auch keinen Grund die Preise zu senken, die Boards von ADL sind ja derart teuer...

Ja, hier wird wohl der aktuelle Goldpreis als Basisfaktor für die Wertberechnung genutzt. :freak:
Möchte man derzeit einen 12600K System aufbauen (Board+CPU+DDR5, leider derzeit in dieser Zusammenstellung nicht erhältlich), zahlt man mehr als für ein 5900X System. Und die aktuellen Preise sind sogar noch "günstig", denn, solange die Ware nicht erhältlich ist, wird sie als Bestellanreiz meist günstiger angeboten.
Ich möchte nicht wissen wie die Preise abgehen werden, wenn die Ware lieferbar ist und den Händlern aus den Fingern gerissen wird.
Leute, kauft Aktien der Boardhersteller. ;)

mboeller
2021-11-08, 11:00:24
gefunden bei Locuza:

bzgl. Rembrandt und iGPU

https://mobile.twitter.com/CapFrameX/status/1457628893398110209


Global Memory Latency Unroll - iGPU 5800H vs 12900K.

Vega 8 has a fast L1 cache but UHD Graphics 770 can access local 1.875MB L2 cache. It seems that the Intel iGPU can make use of the L3 cache of the cores.


Intel hat die iGPU anscheinend schon so angebunden wie es wir für eine zukünftige AMD APU mit V-Cache (L3) erwarten würden (siehe alte Diskussionen). Die Latenz der Intel iGPU ist auch sehr gering.

fondness
2021-11-08, 11:12:59
Am Ende muss man sagen, dass AMDs Gross Margin gestiegen ist. Schlecht verdienen tuen sie also nicht. Das beinhaltet anteilsmässig aber immer stärker auch GPUs, EPYC und die Konsolenchips.

Man braucht das auch gar nicht schön reden, die Marge ist nicht nur gestiegen, sie ist eigentlich sogar sehr hoch, wenn man den hohen Anteil an Konsolenchips berücksichtigt. Wenn man von 10-20% Marge bei den Konsolenchips ausgeht, die AMD mal genannt hat, dann haben die restlichen Produkte auf jeden Fall >=60% Marge. Ist allerdings auch kein Wundern, wenn man sich ansieht wie wenig Silizium und noch weniger teure Fertigungsprozesse AMD zB für so eine Desktop-CPU oder auch Server-CPUs benötigt. Da dürften die GPUs doch etwas weniger abwerfen, aber die kann man aktuell dafür zu Mondpreisen verkaufen mangeln Stückzahlen.

amdfanuwe
2021-11-08, 13:02:44
Da dürften die GPUs doch etwas weniger abwerfen, aber die kann man aktuell dafür zu Mondpreisen verkaufen mangeln Stückzahlen.
AMD verkauft nur den GPU Chip an die OEMs. Die bauen daraus eine Karte und der Händler will auch seinen Anteil. Jetzt sag mir mal, wer für die Mondpreise verantwortlich ist. Sicherlich nicht nur AMD, auch wenn die nun ihren 100$ Chip für 200$ verkaufen sollten.

basix
2021-11-08, 22:19:32
Interessante Benchmarks zu Milan-X inkl. Vergleich mit Milan:
https://techcommunity.microsoft.com/t5/azure-compute/performance-amp-scalability-of-hbv3-vms-with-milan-x-cpus/ba-p/2939814

Effektive Speicherbandbreite und -latenz profitieren wie erwartet enorm.

Lehdro
2021-11-09, 15:33:25
Intel hat die iGPU anscheinend schon so angebunden wie es wir für eine zukünftige AMD APU mit V-Cache (L3) erwarten würden (siehe alte Diskussionen). Die Latenz der Intel iGPU ist auch sehr gering.
Ist dass denn bei Intel mit dem L3 so neu? Wie sollte denn sonst Crystalwell funktioniert haben, wenn die iGPU keinen Zugriff auf den LLC bzw. L3 hätte? Hier ist es Beispielhaft für Gen9 beschrieben: https://www.intel.com/content/dam/develop/external/us/en/documents/the-compute-architecture-of-intel-processor-graphics-gen9-v1d0.pdf Seite 16+17

mboeller
2021-11-10, 16:52:18
Ist dass denn bei Intel mit dem L3 so neu? Wie sollte denn sonst Crystalwell funktioniert haben, wenn die iGPU keinen Zugriff auf den LLC bzw. L3 hätte? Hier ist es Beispielhaft für Gen9 beschrieben: https://www.intel.com/content/dam/develop/external/us/en/documents/the-compute-architecture-of-intel-processor-graphics-gen9-v1d0.pdf Seite 16+17

keine Ahnung, ich fand es nur im Bezug auf AMD wichtig. Wenn Intel das schon länger macht es es nur umso unverständlicher, dass es AMD noch nicht macht.

robbitop
2021-11-10, 19:25:50
Naja bei den Intels war alles simpel: alles kommt einfach an den Ringbus.
Bei Zen gibt es ja innerhalb des ccx/ccd eine fabric (seit zen 3 ein ringbus) und dann noch die IF zwischen den ccx/ccd und dem i/o die.

Ein Cache für die ipg müsste per if angebunden sein da außerhalb des ccx/ccd. Dann wäre der Cache in Bezug auf Latenz aber zu lahm für die CPU.

Ist bei AMDs jetziger topologie deutlich umständlicher. Ggf gibt es ja einen Weg die igp per IF auf den Cache in den ccx/ccds zuzugreifen. Dann müsste der aber für die cpus gesperrt werden. Alles nicht so einfach.

BlacKi
2021-11-11, 11:17:38
wenn das so stimmt, das kann man gute nacht sagen zur verfügbarkeit von zen3 3d v cache cpus:rolleyes:
https://wccftech.com/new-raptoreum-crypto-mining-algorithm-turns-amd-ryzen-cpus-with-huge-l3-caches-in-to-money-making-machines/

basix
2021-11-11, 11:48:37
Der Gier der Menschen sind keine Grenzen gesetzt...

Zossel
2021-11-11, 12:13:28
wenn das so stimmt, das kann man gute nacht sagen zur verfügbarkeit von zen3 3d v cache cpus:rolleyes:
https://wccftech.com/new-raptoreum-crypto-mining-algorithm-turns-amd-ryzen-cpus-with-huge-l3-caches-in-to-money-making-machines/

Was ist ist den aus dem Kram geworden wo man große Platten dafür brauchte?
Spielt das noch eine Rolex?

Brillus
2021-11-11, 13:48:47
Was ist ist den aus dem Kram geworden wo man große Platten dafür brauchte?
Spielt das noch eine Rolex?

Frage mich da warum große Caches ASICs verhalten sollen, kann man da ja auch einbauen. Also ich sehe das eher lässig der Coin muss sich ja auch erstmal durchsetzen.

basix
2021-11-14, 10:57:17
Naja bei den Intels war alles simpel: alles kommt einfach an den Ringbus.
Bei Zen gibt es ja innerhalb des ccx/ccd eine fabric (seit zen 3 ein ringbus) und dann noch die IF zwischen den ccx/ccd und dem i/o die.

Ein Cache für die ipg müsste per if angebunden sein da außerhalb des ccx/ccd. Dann wäre der Cache in Bezug auf Latenz aber zu lahm für die CPU.

Ist bei AMDs jetziger topologie deutlich umständlicher. Ggf gibt es ja einen Weg die igp per IF auf den Cache in den ccx/ccds zuzugreifen. Dann müsste der aber für die cpus gesperrt werden. Alles nicht so einfach.

Für eine APU sehe ich bei Zen 3 keinen Showstopper, da alles auf eine Die und neu ja ein Ringbus. GPU würde via IF auf den Cache zugreifen können. Bei der CPU entstehen da keine Nachteile. Vega war bezüglich IF evtl. einfach noch nicht ready. RDNA2 allenfalls schon. IF ist unter Umständen aber gar nicht nötig: Die GPU bekommt einfach einen eigenen Ringstop. Wie bei Intel.

Beim separaten IOD der Desktop CPUs geht das natürlich nicht. Dort müsste der Cache für die GPU auf dem IOD sitzen. Im Desktop ist die iGPU bei Zen 4 aber viel kleiner (Bandbreite ein kleineres Problem) und Stromverbrauch ebenfalls nicht oberste Prio.

OgrEGT
2021-11-30, 08:28:42
Wenn die 3D Cache CPUs bereits in Massenproduktion sind wann können wir mit Leaks rechnen? Wenn die CPUs an die Boardpartner versendet werden? Wird das auch erst im Januar zur CES passieren oder schon früher?

OgrEGT
2021-11-30, 08:33:09
Welcher Thread ist eigentlich der Richtige für Zen3D? Dieser hier oder der Zen3+ Thread?
Es gibt Postings zum Thema hüben wie drüben...

Thunder99
2021-11-30, 09:46:51
Da es sich lediglich um Zen3 + extra Cache handelt und nicht um ein optimierten Zen3 denke ich ist es hier besser aufgehoben.

Corny
2022-02-19, 09:07:24
Gibt es Infos, was sich von Cezanne auf Barcelo geändert hat, abgesehen von ein bisschen mehr Takt?
Leider finde ich nichts.

Edit: konkret meine ich, ob der Chip überarbeitet wurde, also ob es (kleine) Verbesserungen gibt.

horn 12
2022-02-19, 09:15:59
Wann sollte Zen 3D 5800 vorbestellbar sein ...
und sollte dies vor April möglich werden ?

Hat da bitte keiner Infos dazu?

OgrEGT
2022-02-19, 10:13:08
Wann sollte Zen 3D 5800 vorbestellbar sein ...
und sollte dies vor April möglich werden ?

Hat da bitte keiner Infos dazu?

Auf den AMD Folien zur CES hieß es "available in spring"... also Frühling/Frühjahr...

https://www.computerbase.de/2022-01/amd-ryzen-7-5800x3d-dank-100-mb-cache-schneller-als-core-i9-12900k-im-gaming/

r3ptil3
2022-02-26, 14:05:16
Neues Gigabyte Agesa 1.2.0.6B BIOS-Update unterstützt den 5800X3D:

Checksum : 5DD5
Update AMD AGESA V2 1.2.0.6 B for upcoming new CPU support
Reappear the option of Max CPU Boost Clock Override for Vermeer

Leonidas
2022-02-28, 08:18:43
Von Threadripper 5000 hört man auch nix mehr ... fast könnte man in Frage stellen, dass AMD das noch herausbringt (selbst nur im PRO-Bereich).

Corny
2022-02-28, 09:52:46
Gibt es Infos, was sich von Cezanne auf Barcelo geändert hat, abgesehen von ein bisschen mehr Takt?
Leider finde ich nichts.

Edit: konkret meine ich, ob der Chip überarbeitet wurde, also ob es (kleine) Verbesserungen gibt.


Hat zu Barcelo jemand etwas gefunden?
Ich selbst finde keine Infos - scheint aber auch alles von den Ryzen 6000-News überschattet zu werden.

y33H@
2022-02-28, 10:07:36
AMD hat dazu keine Informationen gegeben, sondern nur gesagt, es wurde Takt/Spannung optimiert.

Nightspider
2022-02-28, 10:08:47
Von Threadripper 5000 hört man auch nix mehr ... fast könnte man in Frage stellen, dass AMD das noch herausbringt (selbst nur im PRO-Bereich).

Marketing wirksamer wäre es halt wirklich gleich Zen4 Threadripper dieses Jahr gegen die steigende Kernzahl bei Intel zu stellen und Leistungswerte gegenüber Zen2 Threadripper zu stellen.

nordic_pegasus
2022-02-28, 11:27:25
Von Threadripper 5000 hört man auch nix mehr ... fast könnte man in Frage stellen, dass AMD das noch herausbringt (selbst nur im PRO-Bereich).

vielleicht wird 2022 das Jahr der verschollenen Hardware-Releases. Bei Nividia ist die 3090Ti verschwunden sowie bei AMD Threadripper 5000 (Pro) und der 5800X3D hat seit der CES kein konkretes Release-Datum erhalten. Intel's Xe Desktop ist verschoben. Schade eigentlich.

MSABK
2022-02-28, 12:43:25
vielleicht wird 2022 das Jahr der verschollenen Hardware-Releases. Bei Nividia ist die 3090Ti verschwunden sowie bei AMD Threadripper 5000 (Pro) und der 5800X3D hat seit der CES kein konkretes Release-Datum erhalten. Intel's Xe Desktop ist verschoben. Schade eigentlich.

Ich denke aktuell mit Corona und allgemein was in der Logistig lost ist, ist es schwer für Unternehmen solche Produkte genauer zu planen.

Thunder99
2022-02-28, 12:58:11
Ich denke es gibt schlicht zu wenig Kapazitäten um mehr Produkte zu releasen. Priorität haben erstmal Server und bestehende Produkte.

Wer weiß schon die Ausbeute vom Stacking mit Cache...

Corny
2022-02-28, 13:07:52
AMD hat dazu keine Informationen gegeben, sondern nur gesagt, es wurde Takt/Spannung optimiert.




Wenn auch die Spannung optimiert wurde, kann man von mehr Effizienz ausgehen.

Laut Datenblatt von AMD ist auch die Maximaltemperatur von 105°C (Cezanne) auf 95°C bei Barcelo gesunken. Das dürfte in der Praxis aber keine Rolle spielen.

Ramius
2022-02-28, 13:23:18
Wenn auch die Spannung optimiert wurde, kann man von mehr Effizienz ausgehen.

Laut Datenblatt von AMD ist auch die Maximaltemperatur von 105°C (Cezanne) auf 95°C bei Barcelo gesunken. Das dürfte in der Praxis aber keine Rolle spielen.

Wieso spielt das in der Praxis keine Rolle?

Corny
2022-02-28, 14:31:33
Wieso spielt das in der Praxis keine Rolle?


Bisher habe ich kein Kühlsystem in einem Notebook gesehen, welches die CPU bis auf 105°C kommen lässt, es wird immer schon vorher die Kühlung hochgedreht und / oder die CPU gedrosselt.


Für embedded Anwendungen in hohen Temperaturbereichen mit Passivkühlung mag das anders sein.

OgrEGT
2022-03-04, 21:51:15
AMD first consumer CPU with 3D V-Cache leaves the factory

https://videocardz.com/newz/amd-ryzen-7-5800x3d-is-now-being-shipped-out-of-the-factory-could-launch-later-this-month

58X3D has been shipped and will probably be on the market by the end of this month.

https://twitter.com/greymon55/status/1498589940900237316

Nightspider
2022-03-04, 23:09:05
350$ klingt wenig, selbst wenn die Steuern noch drauf kommen.

Wobei ich irgendwie auch mit dem Bereich 420-460€ gerechnet habe.

dildo4u
2022-03-05, 05:56:58
12700 ist bei 360€ der ist 20% besser für Anwendungen vieleicht 10% langsamer für Games das passt schon, der Markt würde mit der Zeit den Preis eh Regeln.

maximus_hertus
2022-03-05, 08:50:25
Wenn der 5800X3D (egal wie knapp) den 12900K in Games schlägt, dann sind 500 plus Euro drin. AMD wird wohl keine großen Mengen produzieren (können), so dass es wohl nicht wirklich zu einem Preiskampf kommen würde.

Die kolportierten 350 USD (also rund 370-380 Euro) wären echt günstig. Gerade mal 40-50 Euro mehr als der 5800X. Das kann ich mir irgendwie nicht vorstellen.

r3ptil3
2022-03-05, 08:57:00
Kommen vielleicht noch mehr CPUs im März:
5500 150$
5600 200$
5700x 300$
https://twitter.com/zetatechyt/status/1499967190065303553?s=21

dildo4u
2022-03-05, 08:59:18
Wenn der 5800X3D (egal wie knapp) den 12900K in Games schlägt, dann sind 500 plus Euro drin. AMD wird wohl keine großen Mengen produzieren (können), so dass es wohl nicht wirklich zu einem Preiskampf kommen würde.

Die kolportierten 350 USD (also rund 370-380 Euro) wären echt günstig. Gerade mal 40-50 Euro mehr als der 5800X. Das kann ich mir irgendwie nicht vorstellen.
Der i9 ist auch Unsinn für reines Gameing 12700K ist im Bereich der 600€ CPUs für 400€, alles über 400€ für 5800X3D macht kein Sinn für unter 5% mher Gameing Leistung.(Bei deutlich weniger Anwendungsleistung)

https://abload.de/img/frameitzkmesv5kav.png

ChaosTM
2022-03-05, 09:00:07
Die/der 5700er wäre schon längst überfällig, aber auf Grund der TSMC Limitierung hat sich das nicht ausgezahlt. Mit AL hat sich die Lage deutlich "entspannt" für AMD.

OgrEGT
2022-03-05, 09:04:53
Würde der 5700X dann den 5800X ersetzen wenn der 5800X3D da ist?

dildo4u
2022-03-05, 09:11:16
Modelle mit weniger Takt machen am Anfang mher Sinn jetzt dürften fast alle Chips den 5800X Takt schaffen kein Grund die Chips unter 300€ zu verkaufen.
Für OEM gibt es schon ein 5800 mit 65 TDP.

https://www.amd.com/de/products/cpu/amd-ryzen-7-5800

horn 12
2022-03-05, 10:23:32
https://videocardz.com/newz/amd-rumored-to-launch-ryzen-5-5500-5600-and-ryzen-7-5700x-this-month

Dürfte Interessant sein, und somit wohl auch der 5800X3D billiger als der 12900K,- oder zumindest nicht Teurer als dieser :-)

OgrEGT
2022-03-05, 11:24:06
https://videocardz.com/newz/amd-rumored-to-launch-ryzen-5-5500-5600-and-ryzen-7-5700x-this-month

Dürfte Interessant sein, und somit wohl auch der 5800X3D billiger als der 12900K,- oder zumindest nicht Teurer als dieser :-)

Derzeit stehen bei MF der 5600X bei 229Eur, der 5800X bei 329Eur... da passt der 5700X noch gut dazwischen (da steht <264$ in der Tabelle)... Der 5800X3D wird sicherlich zwischen 5900X (444Eur bei MF) und 5800X eingepreist werden... ich tippe auf 399Eur...

MSABK
2022-03-05, 11:54:30
Derzeit stehen bei MF der 5600X bei 229Eur, der 5800X bei 329Eur... da passt der 5700X noch gut dazwischen (da steht <264$ in der Tabelle)... Der 5800X3D wird sicherlich zwischen 5900X (444Eur bei MF) und 5800X eingepreist werden... ich tippe auf 399Eur...

Ich habe irgendwie so ein Gefühl die 5800X3d könnte sich preislich auch über dem 5950X ansiedeln.:freak:

Wenn das mit den neuen CPUs stimmt, dann scheint AMD langsam aber sicher den Bedarf decken zu können.

amdfanuwe
2022-03-05, 12:50:50
Wird von der Verfügbarkeit und Nachfrage abhängen.
Wenn der 5800X3d in Gaming besser wie 12700 und on paar mit 12900 ist, könnte AMD Intel damit unter Druck setzen.

maximus_hertus
2022-03-05, 12:58:24
Der i9 ist auch Unsinn für reines Gameing 12700K ist im Bereich der 600€ CPUs für 400€, alles über 400€ für 5800X3D macht kein Sinn für unter 5% mher Gameing Leistung.(Bei deutlich weniger Anwendungsleistung)


Hardware(kauf) und Sinn schließen sich dich eher häufig aus ;)

Es gibt sicherlich nicht wenige, die ein AM4 Board haben und einfach nur einen 5800X3D kaufen brauchen.
Beim 12000er Intel wird noch mindestens ein neues Board und ggf. Kühlung / Halterung fällig.

Dann gibt es den Marketingaspekt: der Hersteller mit der schnellsten Gaming CPU verkauft auch seine kleineren Modelle gut, selbst wenn diese ein schlechteres P/L Verhältnis haben.

Noch ein Punkt: Als kompletter Neukauf macht der 5800X3D eh fast gar keinen Sinn, wenn man den Gerüchten glauben darf und wir in 90 - 120 Tagen schon Zen 4 im Laden stehen haben.

Und ein Alderlake mit DDR4 ist emotional auch meh. Wenn neu, dann direkt mit DDR5.
Zudem ist der 13000er wohl auch bald da (man kolportiert früher Herbst / Spätsommer) und dieser soll gerade im Gaming enorm zulegen.

Die Grafikkartenpreise gehen auch in die richtige Richtung, sind aber aktuell immer noch deutlich zu hoch. Auch hier gibt es bald eine neue Gen und sogar einen neuen Player.

Egal wie man es dreht, wenn mannicht unbedingt muss ist ein Neukauf aktuell eher suboptimal. Egal ob Intel oder AMD.