PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3, 7 nm, 2020 (Vermeer, Cezanne, Genesis Peak & Milan)


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

Gratzner
2020-04-22, 01:35:21
Dafür muß man auch keine GHz-Signale in den Chip füttern und vermessen, sondern das ist Teil eines integrierten Selbsttests, dessen Ergebnis nach Initiation während des Tests über ein relativ langsames Interface nach außen kommuniziert wird. So etwas muß natürlich schon beim Design des Chips eingebaut werden.

So siehts aus. BuildInSelfTest ist absoluter Standard. Bei den hohen Frequenzen heutzutage kann man mit externen probes eh nicht mehr richtig testen, weil man 1. nicht genug channels hätte und 2. man selbst mit denen allein durchs messen oft schon was verfälscht.


Wie ich schon sagte, habe ich mich vertan (lag aber nicht nur ein bisschen daneben bezüglich des yields). Ich habe nochmal nachgeschaut. Vom Prinzip habt ihr recht.

Also erstmal ein Funktionstest des fertigen Prozessorsdies (oder was auch immer) auf Wafer-Ebene sollte wirklich nicht möglich sein, vor allem aus folgenden 3 Gründen:

1. Man bekommt keinesfall an allen Anschlüssen (gerne 1000+) Prüf-/Testnadel/Probes aus Platzgründen angeschlossen. (Anmerkung: mindestens alle Eingänge müssen angeschlossen werden, nicht angeschlossene Eingänge sind nicht zwangsweise entladen und haben logisch "0" anliegen, sondern können genauso statisch aufgeladen sein (logisch "1"), nehmen das Potenzial einer (oder mehrere) einstrahlende Störquelle ein oder geraden von selber in Schwingung und wechseln zwischen "0" und "1" -> Damit sind die Inputs nicht angeschlossener Eingänge undefiniert und das Verhalten eines Chips kann somit kaum nachvollzogen werden)

2. Man bekommt die schnellen Ausgänge/Interfaces der Chips nicht rausgeführt. Aufgrund der hohen Frequenzen, wäre die Abstrahlung viel zu stark und alle Ausgänge würden sich mehr oder weniger auf dem weg zu den Probes selber stören. (Anmerkung: Auf Mainboards baut man deshalb striplines oder microstripes, das heißt die schnellen Leitungen sind von Groundflächen umgeben, wohin die Leitung abstrahlen kann und die Leitungsgeometrie (Abstand zur Groundfläche, Leitungsdicke, -breite und Länge) ist auch auf dem Mainboard fest definiert -> dadurch hat man eine fest definierte Impedanz)

3. Eine stabile Spannungsversorgung, selbst für ein kleineren Teil des Chips, dürfte ohne den Chip einzulöten unmöglich sein. Die Frequenzen mit denen die Logikgatter arbeiten, finden sich als Impulse in der Spannungs- und Stromversorgung wieder. Die ganzen taktgesteuerten (RS-)Flipflops (FF) schalten dazu noch alle zu selben Zeit. Das heißt, die Impulse der FF mitteln sich nicht, sondern addieren sich schön auf. Typischerweise schalten alle FF bei steigender Taktflanke mit Anstiegszeiten im 100-Pikosekunden Bereich. Aufgrund des induktiven Spannungsabfall, welche direkt proportional zur ersten Ableitung des Stromes ist, gelangt der Strom niemals bei den Verbrauchern, sondern geht sofort ins Magnetfeld. Aufgrund der hohen Frequenzen und der genannten Anstiegszeit wird der Induktive Spannungsabfall absolut riesig.
(Anmerkung: bei Mainboards gibt es Blockkondensatoren für die kurzfristige Spannungs-/Stromversorgung und deshalb haben Chips auch viele hundert Anschlüsse für die Stromversorgung (parallel geschaltete Induktivitäten verringern die Gesamtinduktivität). Und diese hunderte Stromanschlüsse gehen so schätzungsweise 0.5-1mm senkrecht ins Mainboard auf entweder dem Groundlayer oder Vcc-Layer. Diese beide Layer sind keine Leitungen sondern ganze Flächen und bilden daher einen parasitären Plattenkondensator (unser erster Blockkondensator!) mit Extrem hoher Güte und geringen Leitungsabstand zu allen Stromanschlüssen. Die hohe Güte ist wichtig, da bei hohen Frequenzen Induktivitäten zu Kapazitäten und Kapazitäten zu Induktivitäten werden)

Natürlich baut man genau deshalb die BuildInSelfTests ein (in den Chiplets). Die BuildInSelfTests hatte ich gar nicht mehr in Erinnerung.
BuildInSelfTests gehen aufgrund des langsamen Interfaces Problem 2 aus dem weg. Aufgrund der sehr viel kleineren Testlogik brauch man auch viel weniger Anschlüsse (Problem 1) und viel weniger Strom (entschärft Problem 3)
(Ich hoffe ihr stört euch nicht zu sehr an den langen Text)

Gipsel
2020-04-22, 01:44:57
Na was nun? Man hat BIST aber es sei trotzdem nicht möglich?

Und das kannst Du schon glauben (und man muß dafür natürlich nicht alle Pads kontaktieren). Die Chiphersteller stecken da nicht umsonst ordentlich Gehirnschmalz rein, gerade damit es möglich wird. Immerhin ist das bares Geld, was man durch solche Tests vor dem Assembly sparen kann. Rutscht bei Wafer-Level-Tests mal ein Die durch, was den finalen Test nach dem Assembly nicht besteht? Sicher. Aber natürlich selektiert man bereits die passenden Dies mit entsprechenden Eigenschaften (Anzahl funktionsfähiger Kerne und voraussichtliches Taktverhalten) für das Assembly zum MCM. Und diese Informationen kommen eben von den Wafer-Level-Tests. Du glaubst doch wohl hoffentlich nicht, daß AMD die Mehrzahl der 3950X-Kandidaten nach dem Assembly wegwirft, weil man die 4,6-4,7GHz-Boost nicht schafft (das schaffen nur eine Minderheit der Dies). Die müssen also vor dem Assembly schon eine sehr gute Vermutung haben, daß einer der Dies das hinbekommt (und komischerweise gibt es anscheinend irgendwie immer Kombinationen von einem schnellen Die mit einem langsameren, ein Zufall aber auch!). Oder wie gut müßten die Yields eigentlich sein, damit man halbwegs wahrscheinlich rein zufällig 8 voll funktionsfähige CCDs und einen voll funktionsfähigen IO-Die für einen 64-Kerner zusammenlötet, wenn man die nicht vorher selektiert? ;)

Schon bei Zen1 hat AMD übrigens auf dem Die ganze 1300 sogenannte "Critical Path Monitors" verbaut, die im laufenden Betrieb das Timing-Verhalten der einzelnen Teile des Chips überwachen (kann verschieden implementiert sein, als Auskunft von AMD ist mir nur die Anzahl an sich bekannt). Das wird bei Zen2 vermutlich nicht mit weniger Aufwand geschehen (und anscheinend funktionieren die Dinger ja ganz gut, weil sich die Chips bekannterweise vollautomatisch unter Ausnutzung der vorhandenen Timing Margins sehr dicht an ihre Grenze takten können, so daß manuelles OC für Normalnutzer praktisch nix mehr bringt). Es würde mich sehr wundern, wenn man sich nicht was überlegt hat, wie man die zumindest teilweise auch beim Wafer-Level-Test heranzieht, um so einen Überblick über die möglichen Schaltzeiten im Chip zu bekommen (und damit eine bessere Voraussage zum wahrscheinlichen Speedbin bekommt als von den Teststrukturen in den Dicing-Straits). Das ist eine viel zu attraktive Möglichkeit als die sausen zu lassen.

Gratzner
2020-04-22, 01:47:24
Ich meinte, weil BIST viel weniger komplex sind (keine 1000+ Anschlüsse, langsamere Interfaces, Stromverbrauch nicht im Ampere-Bereich), sind dadurch die umfangreichen Tests zur Yielderhöhung erst möglich, so das man nicht die Dice, welche das Taktverhalten nicht erreichen, wegwerfen muss. Ich gehe jetzt mal auch davon aus, das die BISTs in den Chiplets selber, z.B.: nahe den Kernen, drinstecken.

Edit: Achso, verstehe. Weil ich den Satz "Also ich bin keineswegs überzeugt, das AMD die Chiplets auf Waferebene testen kann" drinnen hatte, kommt das sehr verwirrend rüber. Genauso meinte ich es aber nicht. Hab ihn deshalb auch entfernt. Wollte eigentlich damit sagen, Funktionstests des Prozessors und der Kerne selber halte ich für sehr schwer möglich, deshalb verbaut man BISTs um eben indirekt die Qualität beurteilen zu können.

Edit2: Von mir aus kann man BISTs "Critical Path Monitors" nennen (von mir aus ist es auch nur ein Teil des Systems sein lassen) und ich kann mir auch super vorstellen, das man sogar dieselben BISTs mehr oder weniger für Wafer-Level-Testing als auch im fertigen Mainboard mit verwenden/ansteuern (fürs Boostverhalten) oder wie auch immer. Und die Teststrukturen können natürlich auch verteilt über den ganzen Chip sein, in den Kernen selber wie auich immer, um speedbinning zu betreiben.

Skysnake
2020-04-22, 03:08:46
Da gibt es ziemlich viel unterschiedliches ZEug wie Gipsel schon sagt.

Das fängt an bei einfachen freilaufenden Oszillatoren, geht weiter über klassisches BIST, wo die Logik getestet wird, bis hin zu so Dingen wie critical Path monitor etc, wo man schaut, ob die Frequenzen erreicht werden.

Früher hat man bei den automatisierten Testern eigentlich immer input pattern mitliefern müssen und auch ne Referenzclk etc. Das braucht man aber heutzutage aber nicht mehr in dem Maße, weil extrem viel auf dem Chip inzwischen selbst ist, um auch im laufenden Betrieb bzw bei jedem Boot die gleichen Tests zu machen.

Das sind im Allgemeinen auch keine dran geflanschten Dinge, die irgendwo auf dem DIE rumgammeln, sondern essenzieller Bestandteil des Chips. Man designt das von Anfang an mit rein. Nachträglich kannste das heutzutage eigentlich total vergessen da noch was zu machen.

btw @Gipsel. Die Teststruckturen werden meines Wissens nach heutzutage eigentlich eher nur zur Prozesskontrolle verwendet. Also ob die Fertigung an sich überhaupt richtig läuft, oder man den ganzen Wafer direkt aus der Linie entfernen kann.

Aber da bin ich jetzt auch nicht so drin.

Gipsel
2020-04-22, 04:02:26
Ich meinte, weil BIST viel weniger komplex sind (keine 1000+ Anschlüsse, langsamere Interfaces, Stromverbrauch nicht im Ampere-Bereich)Doch doch, je nachdem was man hat, ziehen die Chips beim BIST schon ordentlich Strom. Habe eine Arbeit von der Uni-Stuttgart gesehen, wo die verschiedenen Teststrategien bei einem 45nm Cell-Wafer ausprobiert haben (benutzt wurden Wafer-Level-Tests mit einem Advantest V93000, also die Dinger die auch AMD in Massen hat). Peak-Strom war über 40A beim Testen aller Flipflops in den SPEs (die können von der integrierten BIST-Engine auf verschiedene Arten verkettet mit variabler Frequenz [und variablen Ausgangsmustern] alle mal durchgeschaltet werden, um zu sehen, ob die auch alle korrekt funktionieren, der spezielle Test dauert aber nur wenige Millisekunden). Also gehen tut das schon (und das schon seit 15 Jahren, oder wie alt ist Cell?) ;).
Edit: Achso, verstehe. Weil ich den Satz "Also ich bin keineswegs überzeugt, das AMD die Chiplets auf Waferebene testen kann" drinnen hatte, kommt das sehr verwirrend rüber. Genauso meinte ich es aber nicht. Hab ihn deshalb auch entfernt. Wollte eigentlich damit sagen, Funktionstests des Prozessors und der Kerne selber halte ich für sehr schwer möglich, deshalb verbaut man BISTs um eben indirekt die Qualität beurteilen zu können.Ein eingebauter Selbsttest (BIST) testet doch ziemlich direkt die Funktionalität des Prozessors (bzw. ein hoffentlich aussagekräftiges Subset davon). Du haust Strom ran, sagst der BIST-Engine, was sie machen soll (die ist oft durchaus etwas flexibel), die macht das dann und kommuniziert über wenige Pins zurück "alles okay" oder z.B. sinngemäß "im Kern 3 trat Fehler bei Testmuster abc auf" oder "im L3 Slice #2 funktioniert Cacheline xyz nicht". Denn all das ist sehr wichtig zu wissen, bevor man die Dies auf einem Package als MCM zusammenlötet.

Egal, sei versichert, daß man nach dem Wafer-Level-Test schon ziemlich gut weiß, wie viele Kerne bzw. Cache auf dem Die wohl funktional sind und man auch eine gute Idee hat, ob der Die taktmäßig eine ziemliche Gurke wird oder recht hoch geht. Und das sehr schnell mit nur geringer Fehlerrate. Einen finalen Test nach Assembly gibt es natürlich trotzdem noch (der auch noch etwas ausführlicher ausfallen dürfte).

Eldoran
2020-04-22, 04:11:47
Die ersten Threadripper waren jeweils die Top Bins - das geht nicht, wenn die da quasi die Dies blind raufpappen müssen.
Das gleiche Problem beim Ryzen 9 3950X - wieder das Top Modell in anderer Bauform.

Rampage 2
2020-04-22, 17:21:58
Kann man von Zen 3 eigentlich höhere Taktraten (Richtung 5 GHz bzw. +10% zu Zen 2) und einen besseren Speichercontroller erwarten? Zen 2 war ja in beiderlei Hinsicht nicht so pralle - beim Kerntakt totaler Stillstand vgl. mit Zen 1 und der Speichertakt geht bei 1:1-Teiler auch nur bis 3733 MHz...

Ich hatte mir von Zen 2 ursprünglich 4.7+ GHz CPU-Takt und 4000+ MHz stabilen Speichertakt erhofft...

R2

HOT
2020-04-22, 17:31:58
Da wird sich sicherlich nicht so wahnsinnig viel tun. Wenn der Durchschnittstakt 200MHz rauf geht wär das schon über meinen Erwartungen. Der Verbesserungen sind sicher zu fast 100% architekturbedingt.
Das I/O-Die wird mMn erneuert, da gibts mMn noch einiges an Verbesserungspotenzial.

Rampage 2
2020-04-22, 17:42:46
Da wird sich sicherlich nicht so wahnsinnig viel tun. Wenn der Durchschnittstakt 200MHz rauf geht wär das schon über meinen Erwartungen. Der Verbesserungen sind sicher zu fast 100% architekturbedingt.


In deinem Fall wären das nichtmal 5% - ich meine, 10% (4.7-4.8 GHz) sollten rein prozentual keine große technische Hürde für eine neue CPU-Generation sein, oder? Intel schafft mit ihrem veralteten 14nm-Prozess ja auch 5+ GHz; aber gut, bei 14nm kann auch die Wärme besser abgeführt werden - liegt vielleicht auch daran:wink:

R2

Zossel
2020-04-22, 17:46:01
Ich hatte mir von Zen 2 ursprünglich 4.7+ GHz CPU-Takt und 4000+ MHz stabilen Speichertakt erhofft...R2

Von einem Design für Server?

Und war IPC nicht mal wichtiger als Takt?

Screemer
2020-04-22, 17:46:26
In deinem Fall wären das nichtmal 5% - ich meine, 10% (4.7-4.8 GHz) sollten rein prozentual keine große technische Hürde für eine neue CPU-Generation sein, oder? Intel schafft mit ihrem veralteten 14nm-Prozess ja auch 5+ GHz; aber gut, bei 14nm kann auch die Wärme besser abgeführt werden - liegt vielleicht auch daran:wink:

R2
dir ist klar, dass 3900x und 3950x bist 4,6 respektive 4,7ghz boost haben? auch das der speichercontroller eher stillstand war ist ziemlich weit her geholt. der speicher selbst skaliert bis über 4000mhz, was dicht macht ist das if und selbst da gibts ergebnisse mit 3800mhz. das sind welten im vergleich zu zen und zen+.

Rampage 2
2020-04-22, 18:09:24
dir ist klar, dass 3900x und 3950x bist 4,6 respektive 4,7ghz boost haben? auch das der speichercontroller eher stillstand war ist ziemlich weit her geholt. der speicher selbst skaliert bis über 4000mhz, was dicht macht ist das if und selbst da gibts ergebnisse mit 3800mhz. das sind welten im vergleich zu zen und zen+.


1.) Ich spreche vom All-Core-Takt der dauerhaft stabil anliegt und nicht vom Boost-Takt. AC schafft Zen 2, wenn man Glück hat, nur 4.4 GHz...

Die besten Intel-CPUs schaffen 5.2-5.3 GHz auf allen Kernen dauerhaft, der 8086K vielleicht sogar ein paar hundert MHz mehr!

2.) Deswegen sagte ich ja 1:1-Teiler;) Was nützt mir ein Speichertakt von 4600 MHz, wenn der Teiler dann aber 1:2 ist?

R2

Edit: Und ja, der Speichercontroller ist etwas besser als der von Zen 1, aber nicht viel besser;)

maximus_hertus
2020-04-22, 18:13:14
Kann man von Zen 3 eigentlich höhere Taktraten (Richtung 5 GHz bzw. +10% zu Zen 2) und einen besseren Speichercontroller erwarten? Zen 2 war ja in beiderlei Hinsicht nicht so pralle - beim Kerntakt totaler Stillstand vgl. mit Zen 1 und der Speichertakt geht bei 1:1-Teiler auch nur bis 3733 MHz...

Ich hatte mir von Zen 2 ursprünglich 4.7+ GHz CPU-Takt und 4000+ MHz stabilen Speichertakt erhofft...

R2

Nein, sehr unwahrscheinlich (5 GHz als "Standard"boost, der lange gehalten wird). Wenn du Hochleistungsfrequenzen mit Hochleistungskernen sehen willst, musst du bei Intel vorbeigucken. Dort gibt es tendenziell weniger IPC, dafür mehr Hochleistungstakt :)

Beim Gaming erwarte ich eher was in Richtung 4,4-4,5 GHz für alle Kerne. Vielleicht beim Spitzenmodel 4,6-4,7 GHz. Bei Belastung nur sehr weniger Kerne könnten natürlich 5 GHz als Boost fallen, aber auch da eher nur ein kurzfristiger Boost.

Das ganze ist jedoch nicht so spannend, sondern eher die IPC Verbesserungen. Wenn man mit z.B. 3,8 GHz so schnell ist, wie beim jetzigen Zen 2 mit 4,4+ GHz, dann wird das richtig gut :)

Das allerbeste wäre, wenn ein 16C/32T Ryzen 4950X auf ein Crosshair VI Hero X370 laufen würde. Aber da will ich nicht zu optimistisch sein und erstmal abwarten.

Akkarin
2020-04-22, 18:53:04
2.) Deswegen sagte ich ja 1:1-Teiler;) Was nützt mir ein Speichertakt von 4600 MHz, wenn der Teiler dann aber 1:2 ist?

Das liegt aber am IF, nicht am Speichercontroler.

Berniyh
2020-04-22, 19:01:31
1.) Ich spreche vom All-Core-Takt der dauerhaft stabil anliegt und nicht vom Boost-Takt. AC schafft Zen 2, wenn man Glück hat, nur 4.4 GHz...

Die besten Intel-CPUs schaffen 5.2-5.3 GHz auf allen Kernen dauerhaft, der 8086K vielleicht sogar ein paar hundert MHz mehr!
Was hab ich denn davon, wenn die CPU dann mehr säuft als zwei R9 Zen 2 CPUs zusammen?

Also die Sache mit dem hohen Takt bei Single-Core kann ich ja noch verstehen, da das bei Anwendungen ohne Multithreading eine Hilfe ist, aber All-Core Boost unter übelst ungünstigen Bedingungen? Naja …

Abgesehen davon kann man natürlich eine CPU so entwerfen, dass sie einen höheren Takt schafft. Auch mit 7nm wäre das möglich.
Dann sähe Zen 2 aber vermutlich bei der Energieeffizienz wieder deutlich schlechter aus als das jetzt der Fall ist.
Ne, ist schon richtig, dass man da versucht den Sweetspot zu treffen und lieber auf IPC als hohe Taktraten geht.
Das letzteres eine Sackgasse ist hat man in der Geschichte nun oft genug gesehen.

Achill
2020-04-22, 19:04:10
[..]
Das allerbeste wäre, wenn ein 16C/32T Ryzen 4950X auf ein Crosshair VI Hero X370 laufen würde. Aber da will ich nicht zu optimistisch sein und erstmal abwarten.

Gibt doch ein aktuelles Bios für dein MB mit Ryzen3-Support: https://www.asus.com/Motherboards/ROG-CROSSHAIR-VI-HERO/HelpDesk_BIOS/

Langlay
2020-04-22, 19:12:48
Edit: Und ja, der Speichercontroller ist etwas besser als der von Zen 1, aber nicht viel besser;)

Der Speicherkontroller von ZEN2 ist um Welten besser als von ZEN1. Verträgt deutlich mehr Takt und ist auch deutlich einfacher zu takten.



Ich spreche vom All-Core-Takt der dauerhaft stabil anliegt und nicht vom Boost-Takt. AC schafft Zen 2, wenn man Glück hat, nur 4.4 GHz...

Die besten Intel-CPUs schaffen 5.2-5.3 GHz auf allen Kernen dauerhaft, der 8086K vielleicht sogar ein paar hundert MHz mehr!

Und was haste von den 5.2 GHz Allcore? Erstmal ist Takt alleine keine sinnvolle Angabe. Wenn Zen 3 nochmal 10-15% IPC drauflegt braucht man keine 5 GHz um schneller zu ein als Intel. Da würden bestehende Taktraten völlig ausreichen.


Irgendwie kommt es mir vor du jagst nur grossen Zahlen hinterher egal was unterm Strich rauskommt sowohl beim Takt wie beim RAM.

Gibt doch ein aktuelles Bios für dein MB mit Ryzen3-Support: https://www.asus.com/Motherboards/ROG-CROSSHAIR-VI-HERO/HelpDesk_BIOS/

Er will ja Zen3 Support dort gibts noch nichts. Allerdings ist das Crosshair 6 Hero auch mit Zen2 nicht wirklich perfekt. Ich hatte immer das "Problem" dass das Board ewig zum Posten braucht und auch Reboots brauchten immer ewig. Ich bin gestern aufs Crosshair 8 Hero umgestiegen nach 3 Jahren und es ist in dem speziellen Fall ein Unterschied wie Tag und Nacht.

Screemer
2020-04-22, 19:17:46
Gibt doch ein aktuelles Bios für dein MB mit Ryzen3-Support: https://www.asus.com/Motherboards/ROG-CROSSHAIR-VI-HERO/HelpDesk_BIOS/
ryzen 3000 = zen2 von apus abgesehen. ryzen 4000 = potentiell zen3 von apus abgesehen.

Langlay
2020-04-22, 19:21:02
ryzen 3000 = zen2 von apus abgesehen. ryzen 4000 = potentiell zen3 von apus abgesehen.

APU auf dem C6H zu betreiben ist recht sinnlos, es gibt keinen Videoausgang auf dem Board.

Der_Korken
2020-04-22, 19:55:03
In deinem Fall wären das nichtmal 5% - ich meine, 10% (4.7-4.8 GHz) sollten rein prozentual keine große technische Hürde für eine neue CPU-Generation sein, oder? Intel schafft mit ihrem veralteten 14nm-Prozess ja auch 5+ GHz; aber gut, bei 14nm kann auch die Wärme besser abgeführt werden - liegt vielleicht auch daran:wink:

R2

10% Maximaltakt sind sehr viel im CPU-Bereich. Bei Intel hat der Takt von Sandy Bridge bis Skylake auch nur stagniert, wenn man OC nimmt statt stock (d.h. der Mehrtakt kam nicht durch den Chip selbst, sondern dadurch dass man OC-Reserven aufgebraucht hat). Erst danach ging bei Intel der Takt hoch, was einfach daran liegt, dass Intel im Desktop seit knapp 5 Jahren keine neue Architektur mehr gebracht hat, sondern nur noch die alte optimiert hat. Und selbst da waren nirgends 10% in einer Gen drin. Hätte AMD ab 2017 keine neuen Gens mehr entwickelt, sondern nur noch den ersten Zen noch und nöcher optimiert und GloFo ihren 14/12nm-Prozess, würde der bis 2022 wahrscheinlich auch mit 5Ghz laufen. Dummerweise wäre er dann trotzdem nicht schneller als Zen2 jetzt schon ist und ineffizienter noch dazu. Zen3 soll Gerüchten nach nochmal 15% mehr IPC haben, d.h. auch ohne Taktsteigerung (die imho nur sehr verhalten ausfallen wird) wäre das ein ordentlicher Sprung.

Screemer
2020-04-22, 19:59:57
guter einwand :ugly:

Achill
2020-04-22, 21:11:09
[..]
Er will ja Zen3 Support dort gibts noch nichts. Allerdings ist das Crosshair 6 Hero auch mit Zen2 nicht wirklich perfekt. Ich hatte immer das "Problem" dass das Board ewig zum Posten braucht und auch Reboots brauchten immer ewig. Ich bin gestern aufs Crosshair 8 Hero umgestiegen nach 3 Jahren und es ist in dem speziellen Fall ein Unterschied wie Tag und Nacht.

ryzen 3000 = zen2 von apus abgesehen. ryzen 4000 = potentiell zen3 von apus abgesehen.

RyZen2/3 ... :uroll: :redface:

w0mbat
2020-04-22, 23:20:27
Wenn die Gerüchte stimmen bekommen wir mit Zen3 nochmal 10-15% mehr IPC und ich gehe von 200-300MHz mehr Maximaltakt aus. Damit wäre man komfortabel vor CML. Spannend wird es bei Intel erst wieder mit RKL.

reaperrr
2020-04-23, 01:49:44
Spannend wird es bei Intel erst wieder mit RKL.
Wenn man nur nach Performance ohne Rücksicht auf Effizienz und Temps geht, ja.

Sie würden aber m.E. nicht auf 8 Kerne zurückgehen, wenn der Verbrauch je Kern je MHz nicht ca. linear mit der IPC mitsteigen würde (allein schon aufgrund des Transistoren-Anstiegs). Soll heißen: Ich erwarte, dass der 11900K zwar in den meisten Anwendungen ~15-20% mehr Leistung je Kern haben wird (~18% mehr IPC, aber evtl. nicht immer mehr Takt), aber auch in etwa so viel verbrauchen wird wie der kommende 10900K.

RKL wird mMn bei der IPC gleichauf mit bis hauchdünn vor (<=5%) Zen3 landen, bei den Taktraten (v.a. AllCore) wird AMD aber dafür evtl. stärker zulegen, da sie durch N7+ und generell mehr TDP-Spielraum mehr Luft haben und zumindest den 4950X allein schon aus Prestige-Gründen sicher auf 5 GHz SC/DC-Turbo kriegen wollen.

Bei MT-Leistung in Anwendungen, die gut über 8C hinaus skalieren, sowie bei der Perf/W wird AMD seinen massiven Vorsprung mindestens verteidigen, eher noch ausbauen.

HOT
2020-04-23, 02:27:12
Wenn man nur nach Performance ohne Rücksicht auf Effizienz und Temps geht, ja.

Sie würden aber m.E. nicht auf 8 Kerne zurückgehen, wenn der Verbrauch je Kern je MHz nicht ca. linear mit der IPC mitsteigen würde (allein schon aufgrund des Transistoren-Anstiegs). Soll heißen: Ich erwarte, dass der 11900K zwar in den meisten Anwendungen ~15-20% mehr Leistung je Kern haben wird (~18% mehr IPC, aber evtl. nicht immer mehr Takt), aber auch in etwa so viel verbrauchen wird wie der kommende 10900K.

RKL wird mMn bei der IPC gleichauf mit bis hauchdünn vor (<=5%) Zen3 landen, bei den Taktraten (v.a. AllCore) wird AMD aber dafür evtl. stärker zulegen, da sie durch N7+ und generell mehr TDP-Spielraum mehr Luft haben und zumindest den 4950X allein schon aus Prestige-Gründen sicher auf 5 GHz SC/DC-Turbo kriegen wollen.

Bei MT-Leistung in Anwendungen, die gut über 8C hinaus skalieren, sowie bei der Perf/W wird AMD seinen massiven Vorsprung mindestens verteidigen, eher noch ausbauen.

Aus deinem sperrigen 11900k wird dann wohl marketingtauglich glattgezogen ein 2090k werden 😁

x-force
2020-04-23, 03:04:49
Aus deinem sperrigen 11900k wird dann wohl marketingtauglich glattgezogen ein 2090k werden ��

das könnte einigen suggerieren, daß er langsamer als ein ryzen 2600(x) ist :wink:

11900 halte ich aber auch für missglückt.

KarlKastor
2020-04-23, 06:36:49
Wenn schon dann 20900.

robbitop
2020-04-23, 09:20:34
Kann man von Zen 3 eigentlich höhere Taktraten (Richtung 5 GHz bzw. +10% zu Zen 2) und einen besseren Speichercontroller erwarten? Zen 2 war ja in beiderlei Hinsicht nicht so pralle - beim Kerntakt totaler Stillstand vgl. mit Zen 1 und der Speichertakt geht bei 1:1-Teiler auch nur bis 3733 MHz...

Ich hatte mir von Zen 2 ursprünglich 4.7+ GHz CPU-Takt und 4000+ MHz stabilen Speichertakt erhofft...

R2

Das lag aber nicht am Speichercontroller sondern an der IF. Ich gehe davon aus, dass es keine wahnsinnig hohen Sprünge gibt. Zen ist automatisiert gelayoutet (hdlibs - das spart mächtig Zeit, manpower und Fläche - geht aber auf Kosten der maximalen Taktraten).
Ggf. hat man noch ein paar Dinge optimieren können - aber ein All Core 5 GHz Kern z.B. kann ich mir schwer vorstellen. Ich würde mit ~+5% Takt rechnen.

In deinem Fall wären das nichtmal 5% - ich meine, 10% (4.7-4.8 GHz) sollten rein prozentual keine große technische Hürde für eine neue CPU-Generation sein, oder? Intel schafft mit ihrem veralteten 14nm-Prozess ja auch 5+ GHz; aber gut, bei 14nm kann auch die Wärme besser abgeführt werden - liegt vielleicht auch daran:wink:

R2
Die Strukturgröße ist da eher sekundär. Vishera schaffte in 32 nm 5 GHz. Es gab schon IBM POWER CPUs in 65 nm mit 5 GHz.Sandy Bridge ließ in 32 nm im Durchschnitt mehr Übertaktung zu als es in 22 nm je möglich war und erst 14nm + schaffte das mit dem 7700K, diesen zu überflügeln (in Bezug auf Takt).

Sowas hängt sehr stark an Dingen wie Signallaufzeiten, der Verdrahtung, dem Layout und zum Beispiel auch dem Aufbau von Pipelines im Design. Intel macht da vieles von Hand und investiert sicherlich 1-2 Größenordnungen mehr an Zeit und manpower für die letzten 10% Takt.

Ghost1nTh3GPU
2020-04-23, 09:46:07
Mit den Chiplets könnte man mit geringem Risiko vielleicht auch 2x 6Ghz+ auf einen ~70mm2 Chiplet bringen.

HOT
2020-04-23, 10:21:18
Wenn schon dann 20900.
Zu lang. Schon bei Icelake wurde als 10000 1000G. Das wird so weiter geführt. Dann wird Tigerlake 2000G. Analog wird Rocket Lake auch der 2000er-Generation angeschlossen.

robbitop
mag ja sein, dass man stark auf HDLibs setzt, aber ein Jaguar ist das eben nicht. Da steckt schon viel direktes Desginkönnen hinter, sonst hätte das Ding nicht annähernd 5GHz Potenzial. Und automatisiert sind solche Designs doch bei allen. Ich denke, das mit den HDLibs ist heute kein Herausstellungsmerkmal mehr.

YfOrU
2020-04-23, 11:25:40
Das I/O-Die wird mMn erneuert, da gibts mMn noch einiges an Verbesserungspotenzial.

Denke ich eher nicht. An den Plattformen (Desktop, HEDT und Enterprise) gibt es mit Zen3 keine Änderungen. Zwei neue I/O Chiplets aufzulegen würde AMD einen Haufen Geld und Ressourcen kosten.

Meiner Ansicht nach ist das auch einer der größeren Vorteile des Ansatzes. Neue I/O Chiplets sind nur alle paar Jahre notwendig und vor allen wenn die Plattform beispielsweise auf DDR5, PCIe 5.0 etc. wechselt. Das es hier wie bei den CPU Chiplets jedes Jahr ein Update gibt ist sehr unwahrscheinlich.

robbitop
2020-04-23, 11:44:11
robbitop
mag ja sein, dass man stark auf HDLibs setzt, aber ein Jaguar ist das eben nicht. Da steckt schon viel direktes Desginkönnen hinter, sonst hätte das Ding nicht annähernd 5GHz Potenzial. Und automatisiert sind solche Designs doch bei allen. Ich denke, das mit den HDLibs ist heute kein Herausstellungsmerkmal mehr.

Schon IIRC Steamroller (spätestens Excavator) hatten HD Libs laut AMD. Und da gab es auch SKUs mit 4.x GHz.....

Das sieht man doch deutlich an den Die Shots ob es recheckige Strukturen sind oder organisch gepackte. Und das unterscheidet IIRC selbst noch Zen 2 und Skylake.

Ja klar wird da viel optimiert. Dennoch ist das bei Intel schon eine andere Nummer.

Locuza
2020-04-23, 22:29:27
Kaveri (Steamroller) hat noch ein High-Performance Design mit 13 Track Cells verwendet.
Carrizo/Bristol Ridge (Excavator) war die erste Mainstream APU von AMD, welche HD Libs mit 9T Cells eingesetzt hat.

Japanischer Artikel dazu:
https://pc.watch.impress.co.jp/docs/column/kaigai/690092.html


Und ja, Skylake und auch Sunny Cove sehen sehr rechteckig beim Layout der funktionellen Blöcke aus:
https://i.imgur.com/Na64wWe.jpg
Quelle ist OC_Burner/Fritzchens Fritz:
https://www.flickr.com/photos/130561288@N04/39024590565

Sunny Cove:
https://en.wikichip.org/w/images/4/4f/ice_lake_die_%28quad_core%29.png

Dagegen sieht Zen2 (und Zen1) wie aus der Petrischale aus:
https://pbs.twimg.com/media/EVv1rEFWoAIcs5I?format=jpg&name=small

OgrEGT
2020-04-25, 09:01:45
Info aus dem b3d Forum zum Renoir Nachfolger Cezanne auf Basis von Zen3 und Navi23 mobile

https://mobile.twitter.com/_rogame/status/1253665313259995137?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1253665 313259995137&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231253665313 259995137

Nightspider
2020-04-25, 09:07:21
Also nix was man nicht schon wusste.

Wenn die APU EUV mit höherer Packdichte bekommt erwarte ich auch mehr Cache.
Damit würde sie noch näher an die Desktop Modelle heranreichen.
Zusammen mit dem monolithischen Design und der neuen µArch könnte das auch eine IPC Steigerung von >20% bringen.

HOT
2020-04-25, 09:25:09
Ui lag ich da daneben :D. Hätte nicht gedacht, dass das heute noch so unterschiedlich ist, AMDs Ansatz sieht aufgrund des 100%igen algorithmischen Desgins fast organisch aus, während Intel da immer noch alte Hacke macht.
Carrizo packte Anfangs ja tatsächlich nicht Takte von Kaveri, das wurd nach hinten hinaus aber besser. Bei Zen hätte sich das also tatsächlich nicht gelohnt, das ohne HDLibs zu machen, vermutlich wär der Chip dann erheblich größer geworden in 14LPP. Vielleicht hätte man die hohen Takte speziell in dem Prozess sogar nicht mehr ohne HDLibs gepackt. Auch erstaunlich, wie krass man bei Skylake X getrickst hat, das ist Intels K10 :D.

Berniyh
2020-04-25, 09:46:02
Also nix was man nicht schon wusste.
Doch. Wenn die Aussagen stimmen, dann wäre Navi23 kein High-End Chip, sondern eher Mainstream bis Lowend.

Und zudem wusste man das mit RDNA2 bislang nur von Van Gogh, nicht von Cezanne.
Liegt natürlich irgendwo nahe, aber bekannt war es nicht.

Generell ist diese ganze Geschichte um Van Gogh, Cezanne und Rembrandt (alles mutmaßlich Zen3/RDNA2 APUs) ziemlich verwirrend.

HOT
2020-04-25, 10:03:18
Info aus dem b3d Forum zum Renoir Nachfolger Cezanne auf Basis von Zen3 und Navi23 mobile

https://mobile.twitter.com/_rogame/status/1253665313259995137?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1253665 313259995137&ref_url=https%3A%2F%2Fs9e.github.io%2Fiframe%2F2%2Ftwitter.min.html%231253665313 259995137
Das ist Cezanne mit Zen3-CPU-Cores (15% mehr IPC) + RDNA2 und zusätzlich N23 als diskrete Mobil-GPU.

reaperrr
2020-04-25, 10:15:02
Also nix was man nicht schon wusste.

Wenn die APU EUV mit höherer Packdichte bekommt erwarte ich auch mehr Cache.
Die (bis zu) 17% mehr Packdichte von N7+ werden m.E. vollständig für größere Kerne (v.a. zusätzliche FP-Pipeline) und ne größere GPU draufgehen. Komplett ausschließen will ich mehr L3 zwar nicht, aber der Wegfall der dual-CCX-Konfig erlaubt den Kernen ja schon, bis zu doppelt so viel L3 anzusprechen. Ich glaube nicht, dass AMD Fläche und Verbrauch für verdoppelten L3 investieren wird, nur um die IPC um 2-4% zu erhöhen. Das Primärziel der APU wird eh wieder Mobile sein, da ist die Effizienz wichtiger und dafür ist mehr L3 eher schädlich.

fondness
2020-04-25, 10:45:20
Zen ist automatisiert gelayoutet (hdlibs - das spart mächtig Zeit, manpower und Fläche - geht aber auf Kosten der maximalen Taktraten).


Intel schafft die hohen Taktraten dank eines todoptimierten 14nm Prozesses, deshalb konnte auch AMD am Ende des lang laufenden 32nm SOI Prozesses eine 5Ghz CPU bringen - zumal der Skylake-Kern ja seit Jahren unverändert ist. Einen Schluss auf das Design lässt sich daraus wohl kaum schließen, gerade wenn man sich die 10nm Chips in punkto Taktrate ansieht. Zumal es natürlich absurd ist zu glauben, Intel würde ihre Chips noch "per Hand" layouten. Es gibt "manuelle" Optimierungen, aber das gilt natürlich auch für AMD. Im übrigen scheint Intel mittlerweile auch Probleme in punkto Perf/Watt zu bekommen, auch Fertigungsbereinigt, vom hohen Flächenbedarf rede ich da noch gar nicht - also uU sollte man sich mal etwas stärker an AMD orientieren.

Ravenhearth
2020-04-25, 11:20:06
Ich denke, dass AMD bei Cezanne bei 8 CUs bleibt. Das würde dank neuer Architektur (und mehr Takt?) durchaus mehr Leistung ergeben. Mehr CUs würden dagegen an der geringen Bandbreite von DDR4 verhungern und das Die unnötig vergrößern.

robbitop
2020-04-25, 11:41:35
@fondness
Im Leben ist nunmal nichts schwarz und weiß.
Dass Packdichte und Layouting Einfluss auf die maximale Frequenz haben ist Fakt. Ein tot optimierter Fertigungsprozess auch.
Hand gelayuoutet heisst natürlich auch nicht 100% - aber der automatisierungsanteil ist bei den hd libs eben größer.

MMn nach ist es eine Gesamtzusammensetzung aus mehreren Komponenten.
10nm taktet offenbar nicht vergleichbar wie 14nm++ aber ICL ist gleichzeitig auch ein anderes Design und hat einen anderen Optimierungspunkt. Also vollständig seriös ist dieser Beweis dann auch nicht.

KarlKastor
2020-04-25, 13:02:46
@Ravenhearth
8 Navi CUs wären schon erheblich schneller. Aber die sind auch erheblich größer. Mehr als 8 sind dann in der Tat unrealistisch.
Luft nach oben ist ja beim Speicher auch noch. Zumindest mit LPDDR4X ist schon noch ein bisschen mehr drin. Und vielleicht schaffen sie ja auch LPDDR5 für den Nachfolger. Wobei ich da so meine Zweifel habe.

HOT
2020-04-25, 14:07:38
Skylake wird aber auch so einfach besser taktbar sein als Zen.

Nightspider
2020-04-25, 20:28:16
Gibts irgendwo ein Paper eventuell mit Vergleich der handoptimierten und durch Algorithmen angeordeneten Leiterbahnen im Vergleich zu zB. Intels Architektur-Layout?

Sah Zen+ auch schon so aus?

robbitop
2020-04-25, 22:21:21
Das ist seit Excavator so. Schon Schnee von vorvorgestern. Aber dennoch sehr guter Schnee...

Nightspider
2020-04-25, 23:10:35
Bzw. wieso macht Intel das nicht so?

Also welche Gründe sprechen dagegen? Intels große Produktepalette?

Das wirds wohl sein.

reaperrr
2020-04-25, 23:16:15
Bzw. wieso macht Intel das nicht so?
Weil es grundsätzlich etwas Performance und/oder Effizienz kostet, allerdings zugunsten massiv geringeren Designaufwands. Letzteres war der Grund, warum AMD umgestiegen ist, weil sie nur so eine Chance hatten, mit ihren begrenzten Ressourcen zumindest bei IPC und vor allem Time-to-Market wieder konkurrenzfähig zu werden.

Der Grund, warum Intel es nicht macht, ist lapidar ausgedrückt "weil sie es nicht müssen".
Sie haben/machen halt so viel Kohle, dass sie es sich leisten können am alten, manuellen Ansatz festzuhalten und dadurch ein paar Prozent mehr Takt/Effizienz rauszupressen.

Sunrise
2020-04-25, 23:32:30
Thema "weil sie es nicht müssen", siehe auch die Heatspreader-Thematik. Die Dinger wurden sowieso gekauft und wer sich das dann selbst antun will/wollte (ist ja aber auch kein Thema mehr heutzutage), der verliert eben wohl die Garantie, was mich damals aber auch nicht aufgehalten hat, wenn es ohne Beschädigungen vertretbar möglich war.

Genau diese Haltung hat AMD ja dementsprechend beantwortet und Intel ist dann mitgezogen. Dieser Konzern ist einfach Gift für alles, sobald keine Konkurrenz mehr da ist, allein schon deshalb freue ich sehr über den erneuten Aufstieg, der hoffentlich auch beim Wiederaufstehen von Intel (7nm and beyond) nicht nachlassen wird. Solange Lisa dabei ist, hoffe ich mal nur das Beste.

robbitop
2020-04-26, 10:50:53
Bzw. wieso macht Intel das nicht so?

Also welche Gründe sprechen dagegen? Intels große Produktepalette?

Das wirds wohl sein.

Wurde doch schon x mal geschrieben: es kostet maximale Taktraten. Intel hat genug Manpower um das nicht zu nutzen und ihnen sind Taktraten wichtiger als Packdichte.
Für AMD passte das hervorragend. Weniger Manpower, weniger Kapazität und weniger Marge (man muss die Dice also klein halten).

Die hdlibs kamen damals übrigens vom GPU Team.

@sunrise
So ist Kapitalismus eben bei Monopolen. Jeder Konzern optimiert dann sich selbst (Gewinne hoch, Innovationen runter)
AMD würde sich an Intels Stelle wahrscheinlich auch so verhalten. Man braucht also grundsätzlich Wettbewerb. AMD tut der x86er Branche gut.

LadyWhirlwind
2020-04-26, 12:09:45
Weil es grundsätzlich etwas Performance und/oder Effizienz kostet, allerdings zugunsten massiv geringeren Designaufwands. Letzteres war der Grund, warum AMD umgestiegen ist, weil sie nur so eine Chance hatten, mit ihren begrenzten Ressourcen zumindest bei IPC und vor allem Time-to-Market wieder konkurrenzfähig zu werden.

Der Grund, warum Intel es nicht macht, ist lapidar ausgedrückt "weil sie es nicht müssen".
Sie haben/machen halt so viel Kohle, dass sie es sich leisten können am alten, manuellen Ansatz festzuhalten und dadurch ein paar Prozent mehr Takt/Effizienz rauszupressen.

Intel muss vermutlich auch, weil sie sonst nicht die hohe single core Leistung der aktuellen Generation erreichen würden. Intel braucht derzeit eher eine gute Effizienz als AMD.

HOT
2020-04-26, 12:33:33
Wurde doch schon x mal geschrieben: es kostet maximale Taktraten. Intel hat genug Manpower um das nicht zu nutzen und ihnen sind Taktraten wichtiger als Packdichte.
Für AMD passte das hervorragend. Weniger Manpower, weniger Kapazität und weniger Marge (man muss die Dice also klein halten).

Die hdlibs kamen damals übrigens vom GPU Team.
[...]
Ich glaub, dass das so nicht stimmt. Das kann man einfach nicht so pauschal behaupten, denn ein Computerdesign wird anfangs zwar vom Takt her nicht so gut sein wie von Hand, aber die Verfeinerung der Algorithmen wird dafür sorgen, dass es irgendwann besser wird als von Hand, denn die Signallaufzeiten lassen sich z.B. viel besser automatisch optimieren, wenn die Blöcke größer sind und alles ineinander optimiert wird. Du wirst irgendwann einfach festlegen können, bei welchem Takt das Ganze herauskommen soll. Wenn man sich ansieht, wie gering die Maximaltaktvarianz von Zen über 2 1/2 Generationen hinweg ist, klappt das schon ziemlich gut.

Ich denke es könnte durchaus passieren, dass du irgendwann einfach den Anschluss verlieren kannst mit von-Hand-Designs. Intel müsste eigentlich dringend handeln und ähnliche Tools für die eigene Chipentwicklung entwickeln.
Man sieht ja jetzt schon wie mächtig das ist - das holt aus Zen1 bei einem eigentlich nicht konkurrenzfähigen Prozess zu Intels 14nm mehr Packdichte und konkurrenzfähige Taktraten heraus bei nur einem Teil der Entwicklungskosten.

Bzw. wieso macht Intel das nicht so?

Also welche Gründe sprechen dagegen? Intels große Produktepalette?

Das wirds wohl sein.
Weil das jahrelange Erfahrung erfordert. Intel hat EUV verschlafen und dauernd behauptet, dass das nicht klappt und nicht nötig ist, jetzt haben die den Salat und brauchen >3 Jahre, bis die den Rückstand bei EUV aufgeholt haben. Wenn Intel jetzt anfangen würde, HD-Libs zu entwickeln würde das Jahre dauern, bis man bessere Ergebnisse herausbekommt als von Hand optimiert.

Zossel
2020-04-26, 14:38:23
aber die Verfeinerung der Algorithmen wird dafür sorgen, dass es irgendwann besser wird als von Hand, denn die Signallaufzeiten lassen sich z.B. viel besser automatisch optimieren, wenn die Blöcke größer sind und alles ineinander optimiert wird.

Leider ist dieses Problem alles andere als linear. Und vor dem Routing kommt zusätzlich das Placement.

Und was sollten Computern nicht schon alles irgendwann in den letzten Jahrzehnten mal besser können als Menschen .......

SKYNET
2020-04-26, 15:39:49
1.) Ich spreche vom All-Core-Takt der dauerhaft stabil anliegt und nicht vom Boost-Takt. AC schafft Zen 2, wenn man Glück hat, nur 4.4 GHz...

Die besten Intel-CPUs schaffen 5.2-5.3 GHz auf allen Kernen dauerhaft, der 8086K vielleicht sogar ein paar hundert MHz mehr!

2.) Deswegen sagte ich ja 1:1-Teiler;) Was nützt mir ein Speichertakt von 4600 MHz, wenn der Teiler dann aber 1:2 ist?

R2

Edit: Und ja, der Speichercontroller ist etwas besser als der von Zen 1, aber nicht viel besser;)

und, kannst ja die CCDs einzelnd takten bei zen2... beim 3950X kannst also davon ausgehen das ein CCD mit 1.35V 4700MHz macht, der nächste evtl. nur 4500, und die anderen beiden dürften wohl bei 4400 aussteigen...

und 4700 bei zen2 sind wie 5200 bei intel... passt also :)

das mit dem speichercontroller stimmt mal so garnicht, bei zen1/+ musstest noch aufpassen was für chips verbaut sind, um überhaupt 3200+ zu erreichen, beim zen2 isses vollkommen puppe, da geht mit jedem speicher(sofern der speicher es mitmacht) min. 3600 1:1, 1/3 macht 3733-3800 1:1 und 5% sogar 3900 1:1... 4000 habe ich -leider- erst ein sample gesehen das 1:1 mitmachte, war dazu leider nur nen 3600 :ulol:

desweiteren skaliert zen2 deutlich besser mit speichertakt und tuning als intel, mit 3800 + subtimings sind je nach game bis zu 30% mehrleistung drinnen, bei intel musst dafür schon von 2666 auf 4400+ & subtimings gehen um das zu haben.

Linmoum
2020-04-26, 15:55:11
und, kannst ja die CCDs einzelnd takten bei zen2... beim 3950X kannst also davon ausgehen das ein CCD mit 1.35V 4700MHz macht, der nächste evtl. nur 4500, und die anderen beiden dürften wohl bei 4400 aussteigen...

und 4700 bei zen2 sind wie 5200 bei intel... passt also :)
CCX, nicht CCD.

Davon ab sind 4.7GHz reinste Fantasie, genauso wie die 4.5GHz. Man muss nicht ständig maßlos übertreiben. Wenn ihr Glück habt, gibt's das mit Zen3, was ich aber ebenfalls bezweifle.

CrazyIvan
2020-04-26, 16:01:00
CCX, nicht CCD.

Davon ab sind 4.7GHz reinste Fantasie, genauso wie die 4.5GHz. Man muss nicht ständig maßlos übertreiben. Wenn ihr Glück habt, gibt's das mit Zen3, was ich aber ebenfalls bezweifle.
Doch, CCD und nicht CCX. Zumindest habe ich SKYNET so verstanden, dass es ihm um Binning und Selektion geht - und das geschieht ja auf CCD-Ebene.
Und zum Rest: Wie meinen?
https://www.anandtech.com/show/15043/the-amd-ryzen-9-3950x-review-16-cores-on-7nm-with-pcie-40/2

BlacKi
2020-04-26, 16:18:21
und 4700 bei zen2 sind wie 5200 bei intel... passt also :)
das stimmt so nicht, die kerne wechseln sich alle durch, es gibt da nicht nur einen kern der 5.3 macht, das machen alle mit, aber nicht alle gleichzeitig. manche einzelne könnten auch nochmals was drauflegen, da aber die prozesse die kerne wechseln, würde ein einziger kern mit 5.5 wohl keine leistungssteigerung bringen.

man schließlich auch schließlich alle kerne auf 5.0 bei 9900k takten, wenn das board die leistung zuließ und man die temperatur im griff hatte.

bei zen2 hat amd den takt so krass ans limit gebracht, das man sogar einzelne kerne nicht besser OCen kann.

robbitop
2020-04-26, 18:26:49
@HOT
5.X GHz sagen aber etwas anderes. ;)
Die erreicht Intel mit handgelayouteten CPUs und AMD schaffte das mit Vishera auch. Das scheint zumindest Einfluss zu haben.

@Taktraten
Bei 9900K sind 5 GHz All Core grundsätzlich drin. Und zwar sustained. Bei Zen 2 sind allcore sustained (irgendwelche Golden samples mit 4.5-4.6 mal ausgeklammert - weil da gibt es beim 9900K ja auch welche mit 5.5 GHz) bei der Mehrheit nicht mehr als 4.4 GHz drin. Das kurze Rumgepeake zählt da nicht... ;)

HOT
2020-04-26, 18:55:38
@HOT
5.X GHz sagen aber etwas anderes. ;)
Die erreicht Intel mit handgelayouteten CPUs und AMD schaffte das mit Vishera auch. Das scheint zumindest Einfluss zu haben.
[...]
Das ist doch kein Argument. Das hängt doch immer davon ab, wo die Architektur rauskommen soll.

robbitop
2020-04-26, 19:32:51
Klar ist das ein Argument. Handgelayoutete uArchs erreichen höhere Taktraten als automatisierte. Auch die extrem hoch taktenden POWER CPUs sind handgelayoutet.

Carizzo hat auch direkt ein paar 100 MHz gegen Steamroller verloren. Prozessnormiert. Piledriver, Steamroller und Excavator sind in Bezug auf uArch ähnlich genug. Ein Zufall ist das alles sicher nicht.
Dass das Taktrate kostet war auch schon x mal im Netz zu lesen.
Packdichte und Frequenz sind nunmal diametrale Kriterien. Es ist halt immer so in der Natur und Technik. Ohne Nachteil gibts eben keinen Vorteil.

SKYNET
2020-04-26, 19:54:09
@HOT
5.X GHz sagen aber etwas anderes. ;)
Die erreicht Intel mit handgelayouteten CPUs und AMD schaffte das mit Vishera auch. Das scheint zumindest Einfluss zu haben.

@Taktraten
Bei 9900K sind 5 GHz All Core grundsätzlich drin. Und zwar sustained. Bei Zen 2 sind allcore sustained (irgendwelche Golden samples mit 4.5-4.6 mal ausgeklammert - weil da gibt es beim 9900K ja auch welche mit 5.5 GHz) bei der Mehrheit nicht mehr als 4.4 GHz drin. Das kurze Rumgepeake zählt da nicht... ;)


du vergleichst eine CPU(9900k) mit dem kompletten portfolio von AMD(alle zen2)... :freak:

"jeder 2019er porsche 911 GT fährt 350, aber nicht jeder 2019er VW kann das schaffen, da ist bei den meisten bei 180 schluss" :ulol:

Unicous
2020-04-26, 20:06:01
@robbitop

Das stimmt nur halb. Ja, bei Carrizo sind die Taktraten der CPU runtergegangen, dafür wurden die Taktraten bei der GPU deutlich erhöht, bei den kleinsten SKUs wurden da zum Beispiel die GFLOPs verdoppelt (von 533MHz auf 800MHz, von 3 CUs auf 4 CUs).

Die niedrigen CPU-Taktraten von Carrizo und Bristol Ridge sind also mitnichten nur den "HD Libs" zu verdanken. Eher ist es dem Umstand geschuldet, dass die Kerne extrem viel schluckten AMD nicht einmal ansatzweise zu Intels IPC und Effizienz aufschließen konnten und dann bei Carrizo darauf gesetzt haben, die GPU noch mehr zu pimpen und dabei bezahlbares Silizium zu produzieren. AMDs Marketingmaterial, dass sich auf die GPU konzentriert und nicht müde wird zu erklären, dass die CPU TDP headroom an die GPU abgibt scheint das auch zu bestätigen. Warum aus "AMD verwendet eine höhere Transistordichte bei Carrizo" "AMD opfert Taktrate weil sie nicht von Hand layouten" wird kann ich irgendwie nicht nachvollziehen?:confused:

Und ich bin mir auch nicht so sicher ob die Geschichte des von sorgsamer Hand eines Intel-Ingenieurs in Verilog eingetragenen Transistors wirklich Wasser hält. Ich weiß leider nicht mehr wer das vor langer Zeit in die Welt gesetzt hat, aber ich habe daraufhin dann gelesen, dass auch Intel schon lange nicht mehr alles "von Hand" layouted und AMD wiederum nicht alles automatisiert macht, wie behauptet wird.

Daher würde ich gerne mal ein paar Quellen für die Behauptungen haben.


edit:

LOL

Das habe ich nach 2 Sekunden googlen gefunden:



Kursad Albayraktaroglu, Ph.D EE, microprocessor design engineer at Intel

[...]
I have work experience at both companies, and can assure you that both companies still do physical implementation of most of their high-performance CPUs "by hand". In particular, the second reference you listed (allegedly by a former AMD engineer) is almost pure fiction and has been widely discredited. Huge chunks of the Bulldozer core were hand drawn by very experienced and talented engineers; and the perceived performance problems of this core have little, if any, to do with the method of implementation used in its design.

Note that I specifically said "high performance CPUs". I am not at liberty to talk about how the Atom cores are implemented, but AMD's lower performance "Cat cores" (Bobcat / Jaguar etc.) were mostly synthesized; with the exception of some performance-sensitive paths and analog/mixed signal circuitry. The percentage of blocks generated through synthesis was certainly much higher than that in a high-performance core such as Bulldozer.

So the answer is that the manual design effort for high-performance x86 cores is still very important; and it is not likely to change anytime soon. Lower power/performance level cores intended for quick integration to other SoCs is another story, and synthesis is definitely the way forward for these.

https://www.quora.com/How-large-is-the-effort-of-hand-design-for-modern-AMD-or-Intel-PC-processors-in-addition-to-usual-automatic-software-layout#


Jetzt fällt mir auch wieder langsam ein, woher das kam. Als AMD davon sprach, dass Bobcat so gut wie komplett synthetisiert war, hat man das dann einfach so mal auf AMDs andere Designs übertragen ohne das kritisch nachzufragen. Jetzt wird bei AMD natürlich alles synthetisiert.:rolleyes:

robbitop
2020-04-26, 20:13:18
Danke für die Quelle. :) IMO ist das intuitiv aber auch klar.

Unicous
2020-04-26, 20:23:01
Quora ist an sich ist keine gute Quelle, weil da natürlich Hinz und Kunz antworten können, aber da es papers von ihm gibt und ich nicht davon ausgehe, dass jemand sich als er ausgibt, denke ich, dass man hier mal eine Ausnahme machen kann.:wink:

Nun stellt sich mir die Frage, was ist dir intuitiv klar? Die Bulldozer-Familie ist eine high performance CPU, daher ist deine Argumentation, dass AMD hier Synthetisierung angewandt hat nicht stichhaltig.

Die Atoms und Bobcats wurden zum Großteil synthetisiert, weil TTM in dem Segment wohl wichtiger ist/war als die Performance. Das man damit keine Blumentöpfe gewinnt und die Kundschaft damit nicht zufrieden ist hat man bei AMD und Intel dann auch irgendwann gemerkt.

Nightspider
2020-04-26, 22:13:23
Sind die organisch aussehenden Strukturen vom Zen 2 Dieshot nun durch Synthetisierung entstanden oder nicht?

Manuelle Optimierung in allen Ehren aber das sind doch Millionen von Transistoren und Leiterbahnen, die kein Mensch überblicken kann. Für mich klingt es da schlüssiger das die organisch angeordneten Dinge diversen Optimierungsprozessoren folgen. Bei Intel sieht das alles kantiger aus wie Lego und das sieht nach meinem Verständnis halt weniger optimiert aus.

:confused:

Berniyh
2020-04-26, 22:21:49
Manuelle Optimierung in allen Ehren aber das sind doch Millionen von Transistoren und Leiterbahnen, die kein Mensch überblicken kann. Für mich klingt es da schlüssiger das die organisch angeordneten Dinge diversen Optimierungsprozessoren folgen. Bei Intel sieht das alles kantiger aus wie Lego und das sieht nach meinem Verständnis halt weniger optimiert aus.
Naja, die Einheitszelle ist ja nicht bei jedem ein Transistor (bzw. eine logische Schalteinheit). ;)

Zossel
2020-04-26, 23:21:47
Sind die organisch aussehenden Strukturen vom Zen 2 Dieshot nun durch Synthetisierung entstanden oder nicht?

Manuelle Optimierung in allen Ehren aber das sind doch Millionen von Transistoren und Leiterbahnen, die kein Mensch überblicken kann. Für mich klingt es da schlüssiger das die organisch angeordneten Dinge diversen Optimierungsprozessoren folgen. Bei Intel sieht das alles kantiger aus wie Lego und das sieht nach meinem Verständnis halt weniger optimiert aus.

Damit überhaupt irgendeine Software was optimieren kann, müssen die einzelnen
Netze/Signale auch mit entsprechenden Constraints der Signale gesetzt werden z.b.:
Supply, Highspeed mit wenig induktiver/kapazitiver Last oder doch mit mit viel,
single ended, differential, Impedanz kontrolliert zu welchen Bezugpotenzial,
Gammelsignal, usw.

Gutes Layout wird immer ein Mischmasch aus Manuell, C&P und Automatisch sein.

Nightspider
2020-04-26, 23:26:14
Das ist klar.

Eldoran
2020-04-27, 00:06:31
Das widerspricht sich nicht wirklich. Bulldozer war war die erste Version der Serie, die Änderung zu weitgehend automatisiertem Layout war später. Es gab da dazwischen auch so seltsame Effekte wie, dass die reine CPU Version auf dem älteren Prozess gefertigt wurde, weil dieser unter anderem wegen SOI leistungsfähiger war, die APU aber am neueren Bulk Prozess.
Auch bei intel habe ich vor vielen Jahren (glaube Pentium 4 Ära) eine Slide einer Präsentation gesehen, dass die da als Neuerung auch computerunterstützt optimiert haben, mir kommt vor es waren die Stütztransistoren bei langen Leitungen.
Bei AMD ist es aber tatsächlich so, dass da eben vor einigen Jahren das klassische "händische" Design der Transistoren auf computergenerierte umgestellt wurde. Da gab es auch einen deutlichen Wechsel der Belegschaft in dem Bereich. Ich habe damals auch einen diesbezüglichen Artikel bei Semiaccurate gelesen. Bei Zen2 habe ich bei Wikichip einen Artikel gelesen, dass die da einiges bei der Software ändern mussten, da bei 7nm die Kosten bei den Leitungen sich deutlich von den Annahmen älterer Prozesse unterscheiden und das völlige Fehlen von zweidimensionaler Strukturen einige Auswirkungen hatte. Was aber nicht bedeutet, dass da nichts von Hand optimiert wurde. Das SRAM ist glaube ich noch ein handoptimiertes Makro und auch sonst sind die ganzen kritischen Pfade handoptimiert.
Ein weiterer Datenpunkt in die andere Richtung gibt es zB. von Koduri, der hat da einmal angemerkt, dass es sinnlos ist, die GPU wie bisher von Hand zu Layouten, weil das keine Hochfrequenzdesigns sind.
An anderer Stelle habe ich gelesen (glaube Semiaccurate), dass bei intel die Fertigungsprozesse auf Kante des möglichen optimiert sind, was dann viel mehr Einschränkungen beim Layout bedeutet, es wird also Komplexität von der Fertigung ins Design geschoben. Als Beleg wäre da unter anderem: https://www.realworldtech.com/intel-22ffl-process/.

HOT
2020-04-27, 08:03:09
Der SRAM ist Lizenz, nicht von AMD, genau wie das ganze I/O-Geraffel.

Uni, es ging doch gar nicht darum, dass BD handoptimiert ist, das ist doch klar. Erst Excavator war nicht mehr handoptimiert sondern in weiten Teilen synthetisiert. Das Ganze hat doch bis Zen nen riesen Entwicklungssprung gemacht und ist nicht mehr mit Bobcat-Synthese vergleichbar. Klar heißt "von Hand" auch viel automatische Optimierung, das ist überhaupt nicht die Frage i.Ü., wie will man sonst milliarden Transistoren im Griff halten. Synthese heißt es komplett dem Tools anzuvertrauen und da händisch nicht mehr durchblicken zu können, sondern nur noch in der Sache.

Und Robbi, ich glaub nicht, dass sich Excavator wesentlich schlechter takten lässt, das lag eher am 28 SHP-Prozesss, schon Kaveri ging nur knapp über 4GHz, genau wie Bristol. Man hat den Takt doch nur wegen der Ernergieeffizienz und der größeren GPU heruntergefahren.

Triskaine
2020-04-27, 09:12:03
High-Performance Hochtakt Designs nutzen schon lange in erhöhtem Maße Automatisierte Synthese und Layout Tools. IBM hat speziell für ihre 5+ GHz Mainframe CPUs eigenes Tooling entwickelt (Large Block Synthesis) um damit Produktiv arbeiten zu können. (Siehe hier (https://fuse.wikichip.org/news/941/isscc-2018-the-ibm-z14-microprocessor-and-system-control-design/3/), ab Abschnitt: Design Efficiency or Efficient Designer)

Auch Intel's "Big" Cores werden zum größten Teil automatisiert erzeugt, mit Ausnahme von Memories (Caches, Registerfiles etc.) und evtl. dem Datenpfad der Vektor Einheiten. Der Grund warum der Floorplan der Cores so "klötzenhaft" aussieht im Vergleich zu AMD, Apple usw. ist das Intel sehr viel mit manuell gesetzten Constraints, Rules usw. arbeitet um das Verhalten der Tools zu steuern. Damit kann der Takt/Verbrauch optimiert werden, kostet aber definitiv mehr Fläche als bei Implementierung des selben Designs wo die Tools über einen größeren Bereich Standardzellen plazieren können.

robbitop
2020-04-27, 09:19:36
Nun stellt sich mir die Frage, was ist dir intuitiv klar?
Dass Packdichte ein diametrales Kriterium (und genau das bringt das automatisiere Layouten ja nunmal und das nicht zu knapp IIRC) zur maximalen Taktrate ist. Bspw war die Reduktion der Packdichte ja einer der Maßnahmen für den 14nm+ Prozess. (dass das nicht 1:1 das gleiche ist, ist schon klar)

Dazu kommt dann sicherlich noch das Routing - wenn man da auf den kritischen Pfad optimieren möchte, wird das sicherlich nicht flächenoptimal gehen.


Die Bulldozer-Familie ist eine high performance CPU, daher ist deine Argumentation, dass AMD hier Synthetisierung angewandt hat nicht stichhaltig.

Wenn man wirklich sauber bleiben wollte, müsste es auf gleichem Prozess mit exakt gleicher uArch 2x Dies geben. Ein hand optimierten und einen automatisierten. Gibt es aber leider nicht. Insofern muss man sich leider auf Indizien stützen.

Wenn es keine Nachteile hätte, wäre es auch bei allen Hochtakt CPU Kernen so umgesetzt. So ist es nunmal ausnahmslos in Natur und Technik: Kein Vorteil ohne Nachteil.

Vermutlich ist es wie immer nicht schwarz/weiß. Zen/2 werden sicherlich anders optimiert sein als Jaguar/Atom und sicherlich ist eines der Optimierungskriterien auch Takt. Immerhin ist man ja nördlich von 4 GHz.
Und es gibt noch andere Kriterien. Fertigungsprozess und uArch. Aber es wird schon ein Baustein dazu sein.

High-Performance Hochtakt Designs nutzen schon lange in erhöhtem Maße Automatisierte Synthese und Layout Tools. IBM hat speziell für ihre 5+ GHz Mainframe CPUs eigenes Tooling entwickelt (Large Block Synthesis) um damit Produktiv arbeiten zu können. (Siehe hier (https://fuse.wikichip.org/news/941/isscc-2018-the-ibm-z14-microprocessor-and-system-control-design/3/), ab Abschnitt: Design Efficiency or Efficient Designer)

Auch Intel's "Big" Cores werden zum größten Teil automatisiert erzeugt, mit Ausnahme von Memories (Caches, Registerfiles etc.) und evtl. dem Datenpfad der Vektor Einheiten. Der Grund warum der Floorplan der Cores so "klötzenhaft" aussieht im Vergleich zu AMD, Apple usw. ist das Intel sehr viel mit manuell gesetzten Constraints, Rules usw. arbeitet um das Verhalten der Tools zu steuern. Damit kann der Takt/Verbrauch optimiert werden, kostet aber definitiv mehr Fläche als bei Implementierung des selben Designs wo die Tools über einen größeren Bereich Standardzellen plazieren können.
Ja bei Milliarden Transistoren ist da nichts mehr 100% handgemacht. Das ist klar. Das ist auch nur ein überzeichneter Begriff. Ich denke, dass das Maß an Eingriff per Hand bei der einen Variante höher ist als bei der anderen.
Man kann es ja auf den Die Shots erkennen. Kastenförmige Abgrenzung vs organische Strukturen. Das sind vermutlich PR Begriffe als die HD Libs bei AMD eingeführt wurden. Da Namen aber Schall und Rauch sind und alle wissen, was gemeint ist, spielt das nur eine untergeordnete Rolle.
Die Packdichte unterscheidet sich relativ stark zwischen den beiden Varianten IIRC.

w0mbat
2020-04-27, 09:45:39
Die Frage ist doch, wo AMD die verfügbaren Ressourcen lieber einsetzt: bei der Erhöhung der IPC oder bei der Erhöhung des Taktes. Ich glaube ja, dass die IPC im Fokus liegt. 15% mehr IPC gegenüber Zen2 bei 4,5GHz all-core würde vollkommen reichen um Skylake komplett nass zu machen. Dann wäre man >20% vor Skylake wenn es um die IPC geht und wohl in der Nähe von RKL, nur eben mit 50% mehr Kernen/Threads. Auch wenn RKL dann weiterhin mit 5GHz taktet (was aufgrund von Sunny/Willow Cove nicht sicher ist) wird dass nichts rausreißen.

HOT
2020-04-27, 10:03:39
Triskaine
Das da nix wirklich von Hand passiert war jedem hier klar. Dennoch ist der AMD-Ansatz eben auch für nicht-Standard gedacht, wie man sieht. Man schafft eben Hochtakt und Performancedesigns auch annähernd vollständig automatisert in großen Blöcken. Wenn man diesen Ansatz weiterspinnt und mit KI noch unterstützt (also mehr als jetzt schon) wird man irgendwann die "von-Hand-Designs" zumindest gleichziehen, oder gar überwinden.


Klar ist auch, dass SRAM, der eh lizenziert ist, nicht mit HD-Libs implementiert wird, was diesen krassen optischen Eindruck auf dem Dieshot hinterlässt.

robbitop
2020-04-27, 10:14:04
Die Frage ist doch, wo AMD die verfügbaren Ressourcen lieber einsetzt: bei der Erhöhung der IPC oder bei der Erhöhung des Taktes. Ich glaube ja, dass die IPC im Fokus liegt. 15% mehr IPC gegenüber Zen2 bei 4,5GHz all-core würde vollkommen reichen um Skylake komplett nass zu machen. Dann wäre man >20% vor Skylake wenn es um die IPC geht und wohl in der Nähe von RKL, nur eben mit 50% mehr Kernen/Threads. Auch wenn RKL dann weiterhin mit 5GHz taktet (was aufgrund von Sunny/Willow Cove nicht sicher ist) wird dass nichts rausreißen.
AMD hat IMO alles richtig gemacht. Taktraten sind halt überproportional abhängig zur Leistungsaufnahme.
Mit dem Budget und der Manpower die man bei der Entwicklung von Zen 1 nur noch hatte war ein synthetisiertes Design sicherlich goldrichtig. Hohe Packdichte (niedrige Kosten da Die kleiner bzw 8 Kerne im Mainstream möglich) und kürzere Dauer für's Layouten.
Es ist ja häufig so, dass das Gesetz des abnehmenden Grenzertrags die letzten 10% extra teuer macht. Dann doch lieber die Ressourcen nutzen und überall 90% abliefern.

Was IPC angeht. Die wird ja leider auch immer teurer. Sieht man ja bei Sunny Cove. Die 10...15% ggü Skylake haben ja richtig Transistoren (und somit auch Leistungsaufnahme) gekostet. Ein Shrink bügelt das dann wieder aus.
Aber die Fertigungsprozesse müssen immer länger leben und jedes Prozent IPC kostet immer mehr und mehr Transistoren. Auch die Skalierung der Kernanzahl wird irgendwann zur Herausforderung (Kohärenz/Fabric/Skalierbarkeit/Overhead). Das Wachstum der CPU Leistung wird vermutlich langfristig immer weiter stagnieren.

Complicated
2020-04-27, 10:34:21
Es gab damals diese Folie von AMD:
https://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1346191456



http://www.planet3dnow.de/photoplog/file.php?n=21310&w=o


Edit 29.08.2012: Laut Informationen von Anandtech (http://www.anandtech.com/show/6201/amd-details-its-3rd-gen-steamroller-architecture/2) handelt es sich bei obigen Schaubild nur um eine Demonstration des Möglichen, Steamroller bekäme dagegen noch eine hand-entworfene FPU.

Birdman
2020-04-27, 11:00:47
Also ist es genauso wie robbitop es gesagt hat.
Die HDLibs optimieren auf kompakteres Design und Stromverbrauch und die maximale Taktfrequenz ist kein (primäres) Kriterium --> dementsprechend gibt es dort dann halt Abstriche.

HOT
2020-04-27, 11:07:58
Das mag damals so gewesen sein aber noch 5x, das muss für heutige Designs nicht mehr zwingend gelten.

fondness
2020-04-27, 11:24:47
Sorry robbitop, aber du verläufst dich hier IMO völlig. Carrizo hat Takt verloren weil er von 32nm SOI auf 28nm bulk wechseln musste. Schon der Vergleich handgelayoutet vs. automatisiert ist IMO nicht zutreffend. Beide verwenden Libs, alles andere wäre absurd und optimieren da per Hand wo es Sinn macht. Ich bin ja gespannt was du sagst wenn Intel mit den ersten 10nm Chips kommt und die Taktraten dann unter denen von AMD liegen. Intel erreicht den hohen Takt aufgrund des 14nm+++++++++++ Prozesses, um Rückschlüsse aufs Design zu ziehen bräuchte es schon ein bisschen mehr Fakten.

Thunder99
2020-04-27, 11:33:38
So lange die Performance passt. Man verliert halt nur die Option den Konkurrenten doch noch zu schlagen wenn es knapp wird.

Berniyh
2020-04-27, 11:40:46
Die Frage ist doch, wo AMD die verfügbaren Ressourcen lieber einsetzt: bei der Erhöhung der IPC oder bei der Erhöhung des Taktes. Ich glaube ja, dass die IPC im Fokus liegt.
Da Zen ja ziemlich sicher mit Fokus auf Server optimiert wird dürfte die Erhöhung der IPC klar bevorzugt sein.

HOT
2020-04-27, 11:45:37
So lange die Performance passt. Man verliert halt nur die Option den Konkurrenten doch noch zu schlagen wenn es knapp wird.
Das stimmt. Schnelle Optimierungen im Nachhinein scheidet dabei aus. Aber das syntherische Design ist eben auf einen Zieltakt optimiert und das sieht man ja ganz gut am Taktwall bei Zen.

Complicated
2020-04-27, 12:18:11
Da geht es eigentlich weniger um Hand oder Automatisch. Hier wurde eine H(igh)D(enstity)-Lib(rary) verwendet, die ansonsten bei GPUs zur Anwendung kam, und dichter packen konnte, wegen den Strukturen einer GPU. Es beschreibt eigentlich die Synergien, die AMD durch GPU und CPU nutzt.

Kürzlich haben wir ja auch hören dürfen wie das Zen Team Verbesserungen zum Prozess an die Radeon-Abteilung weiter gibt.

Ravenhearth
2020-04-27, 12:20:43
Sorry robbitop, aber du verläufst dich hier IMO völlig. Carrizo hat Takt verloren weil er von 32nm SOI auf 28nm bulk wechseln musste.
Nope, Kaveri war zuvor schon 28nm bulk.

robbitop
2020-04-27, 12:57:08
Sorry robbitop, aber du verläufst dich hier IMO völlig. Carrizo hat Takt verloren weil er von 32nm SOI auf 28nm bulk wechseln musste. Schon der Vergleich handgelayoutet vs. automatisiert ist IMO nicht zutreffend. Beide verwenden Libs, alles andere wäre absurd und optimieren da per Hand wo es Sinn macht. Ich bin ja gespannt was du sagst wenn Intel mit den ersten 10nm Chips kommt und die Taktraten dann unter denen von AMD liegen. Intel erreicht den hohen Takt aufgrund des 14nm+++++++++++ Prozesses, um Rückschlüsse aufs Design zu ziehen bräuchte es schon ein bisschen mehr Fakten.
Steamroller war 28 nm und liess sich höher takten. Dazu hat AMD es in ihren Folien selbst so beschrieben.
Wie gesagt: wenn's keine Nachteile hätte, würden es alle machen.

Aber ja es ist nur eine von vielen Einflüssen. Und andere können dominanter sein. Völlig sauber könnte man das natürlich nur bei gleicher uArch und gleichem Prozess beurteilen. Gibt es aber leider nicht.

HOT
2020-04-27, 14:19:11
Der taktet nicht niedriger, so ein Quatsch. Der A12 9800 taktet auf 3,8/4,2GHz bei 65W, der Kaveri A10 7860k taktet mit 3,6/4.0GHz. Das Modell mit 4,0/4,3GHz (7890k) hat jedoch eine TDP von 95W und ist deshalb nicht direkt vergleichbar. Das würde Bristol auch packen, wenn er 95W hätte. Damit wäre diese ganze These einfach busted robbi - es kommt der gleiche Prozess zum Einsatz, 28nm SHP GloFo und die HDLibs haben defintiv keinen negativen Einfluss auf den Takt! Übrigens hatte schon der olle Carrizo-Athlon X4 845 3,6/3,8GHz, nur mal so als zusätzliche Info.

robbitop
2020-04-27, 16:25:52
Der taktet nicht niedriger, so ein Quatsch. Der A12 9800 taktet auf 3,8/4,2GHz bei 65W, der Kaveri A10 7860k taktet mit 3,6/4.0GHz. Das Modell mit 4,0/4,3GHz (7890k) hat jedoch eine TDP von 95W und ist deshalb nicht direkt vergleichbar. Das würde Bristol auch packen, wenn er 95W hätte. Damit wäre diese ganze These einfach busted robbi - es kommt der gleiche Prozess zum Einsatz, 28nm SHP GloFo und die HDLibs haben defintiv keinen negativen Einfluss auf den Takt! Übrigens hatte schon der olle Carrizo-Athlon X4 845 3,6/3,8GHz, nur mal so als zusätzliche Info.
Ja das stimmt. Wobei es natürlich sein kann, dass schon bei Kaveri/Godvari nicht mehr wirklich auf maximalen Takt optimiert wurde. Waren ja nur noch mobile und lower end Desktop APUs.

Unicous
2020-04-27, 17:05:05
Wie oft denn noch. Bei Carrizo/BR stand die GPU im Vordergrund. Wir sind jetzt bei den Desktop GPUs angelangt und es ändert dennoch nichts daran, dass die CPU nicht mehr im Vordergrund stand. Als kleiner Wink mit dem Zaunpfahl sollte auch der Umstand helfen, dass AMD keine reinen Steamroller CPUs (außer eben teildeaktivierten APUs) designed bzw. verkauft hat.

Und dort wird es noch klarer. Man konnte in etwa die Taktraten halten, gleichzeitig hat man die TDP bei 65W gedeckelt, weil darüber hinaus wahrscheinlich die Leistungsaufnahme explodiert wäre, man hat den RAM-Support auf DDR4 2400MHz erhöht (von DDR3 2133) und die GPU-Taktraten auch hier im Vergleich zu Kaveri bis zu 300MHz angehoben.

Man hat also mit Absicht die Taktbarkeit des CPU-Teils eingeschränkt um dem GPU-Teil eine deutlich höhere Taktbarkeit zu garantieren. Die Soutbridge wurde erstmals integriert und man hatte am Ende trotzdem einen ähnlich großen Die und musste im Großen und Ganzen dafür nur 2MB L2 opfern.

Skysnake
2020-04-27, 18:16:33
Sind die organisch aussehenden Strukturen vom Zen 2 Dieshot nun durch Synthetisierung entstanden oder nicht?

Manuelle Optimierung in allen Ehren aber das sind doch Millionen von Transistoren und Leiterbahnen, die kein Mensch überblicken kann. Für mich klingt es da schlüssiger das die organisch angeordneten Dinge diversen Optimierungsprozessoren folgen. Bei Intel sieht das alles kantiger aus wie Lego und das sieht nach meinem Verständnis halt weniger optimiert aus.

:confused:
Das hat doch erstmal rein garnichts mit dem Grad der Synthese zu tun, sondern eher damit, wie groß die Blöcke sind, über die synthetisiert wird.

Wenn ich 80% hand layout habe, aber die Blöcke nicht größer als 100x100µm sind, aber über einen Bereich von 1cm geroutet werden, dann sieht das nach 100% synthese aus.

Anders rum, wenn ich die Synthese auf 1x1mm Blöcke beschränke, darin aber 99% synthese mache, dann sieht das wie 80% handlayout aus...

Ich hoffe du vesrstehst was ich sagen will.

Und ist jetzt synthese mit sehr strengen constraints wirklich noch "synthese"? Je nachdem kann das vom Aufwand auch extrem werden.

Vor allem kann man ja auch bei "100%" synthese sich dumm und dämlich constrainen beim placement und routing.

Wirklich relevant ist handlyout doch nur bei SAchen wie Caches und vielleicht mal nem decoder und halt dem IO kram, weil man da mit den Standardzellen halt gar nicht hin kommt.

Locuza
2020-04-29, 18:46:18
Der taktet nicht niedriger, so ein Quatsch. Der A12 9800 taktet auf 3,8/4,2GHz bei 65W, der Kaveri A10 7860k taktet mit 3,6/4.0GHz. Das Modell mit 4,0/4,3GHz (7890k) hat jedoch eine TDP von 95W und ist deshalb nicht direkt vergleichbar. Das würde Bristol auch packen, wenn er 95W hätte. Damit wäre diese ganze These einfach busted robbi - es kommt der gleiche Prozess zum Einsatz, 28nm SHP GloFo und die HDLibs haben defintiv keinen negativen Einfluss auf den Takt! Übrigens hatte schon der olle Carrizo-Athlon X4 845 3,6/3,8GHz, nur mal so als zusätzliche Info.
https://images.anandtech.com/doci/9319/Slide%209%20-%20Power%20Frequency%20curve%20with%20libraries.png

Ab 20W pro Modul überholt das Steamroller-Design in Bezug auf Takt pro W das Excavator-Design.


Aber wie alle vermutlich zustimmen werden, dass ganze Thema ist wahnsinnig kompliziert und in der Praxis gibt es viele Stellschrauben, die man selektiv oder gemeinsam optimieren kann, um gewisse Ziele zu erreichen.
Einfach nur pauschal HDLib vs. HPLib oder Handtuned sagt einem soviel wie 10 TFLOPs vs. 12 TFLOPs bzw. noch besser, 7nm X vs. 7nm Y, ohne überhaupt über die Architektur oder sonstige Parameter Bescheid zu wissen.

Bezüglich Zen1 und Zen2 hat AMD ein paar Angaben gemacht, wie man versucht hat das Design über mehrere Spannungen und Frequenzen besser skalieren zu lassen:
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/42068-acht-kerne-und-16-threads-fuer-550-euro-amd-ryzen-7-1800x-im-test.html?start=1
https://fuse.wikichip.org/wp-content/uploads/2018/04/2018-amd-conf-optimization-points.png
https://fuse.wikichip.org/news/1177/amds-zen-cpu-complex-cache-and-smu/

Seite 29 F/V-Scaling Zen1 vs. Zen2:
https://de.slideshare.net/AMD/zen-2-the-amd-7nm-energyefficient-highperformance-x8664-microprocessor-core

w0mbat
2020-05-03, 19:47:16
Auf reddit gibt es gerade Spekus, dass Zen3 nicht mehr auf B350/450 bzw. X370/470 Mobos laufen wird. Dazu folgende Clips:

https://youtu.be/ii5PaoFO_FI?t=4011

https://youtu.be/ii5PaoFO_FI?t=11386

https://youtu.be/cwPOtPDUlU8?t=3518

Donnerstag wissen wir mehr.

das_Apo
2020-05-03, 20:12:10
Was ist Donnerstag?

Screemer
2020-05-03, 20:30:38
Auf reddit gibt es gerade Spekus, dass Zen3 nicht mehr auf B350/450 bzw. X370/470 Mobos laufen wird. Dazu folgende Clips:

https://youtu.be/ii5PaoFO_FI?t=4011

https://youtu.be/ii5PaoFO_FI?t=11386

https://youtu.be/cwPOtPDUlU8?t=3518

Donnerstag wissen wir mehr.
genau die befürchtung habe ich schon lange und die wan show hat mich da noch mal bestärkt. naja wenigstens hat b550 bifurcation.

reaperrr
2020-05-03, 20:34:08
Der taktet nicht niedriger, so ein Quatsch. Der A12 9800 taktet auf 3,8/4,2GHz bei 65W, der Kaveri A10 7860k taktet mit 3,6/4.0GHz.
Der 7860K war ein Mainstream-Modell, der A12-9800 dagegen scheinbar so hart selektiert, dass er schon nach wenigen Monaten (und LANGE vor dem Release von RR, sogar lange vor diversen Kaveris) nicht nur nicht mehr lieferbar, sondern nicht mal mehr gelistet (in keinem relevanten Shop) wurde.
Weiß ich daher, weil ich ein paar Monate nach Release auf geizhals gestöbert habe und völlig perplex war, dass der komplett vom Markt war, keine schlechte Lieferbarkeit, keine Restbestände zu überzogenen Preisen, sondern null, kaum Listungen und null Verfügbarkeit, wo 9700 und Kaveri/Godavari noch in zig Shops normal lieferbar verkauft wurden.
War scheinbar ein reines Marketing-Halo-Produkt, damit sich der 9700 besser verkauft. Ich meine, der 9800 hatte theoretisch deutlich mehr Marge, hätten sie den in Massen produzieren können, wäre der sicher nicht so schnell wieder vom Markt verschwunden.

Blediator16
2020-05-03, 20:35:14
Ich sage nur MSI und deren "neue" MAX Mainboards. AM4 und die Chipsätze sollten da absolut kein Problem sein.

Screemer
2020-05-03, 20:37:05
what?

Der_Korken
2020-05-03, 21:30:16
Wenn AMD wirklich Zen3 für die 400er Boards sperrt, frage ich mich, was der Grund dafür sein soll oder anders gefragt: Welche entscheidenden Features haben die 570er Boards gegenüber den 400ern? Zen2 läuft bis auf PCIe 4 ohne Einschränkungen auch auf 300er und 400er Boards, sofern der Hersteller ein BIOS bereitstellt. Es gab Probleme mit einigen Boards, bei denen der BIOS-Chip zu wenig Speicher hatte um sowohl Zen1 als auch Zen2 zu unterstützen. Aber das war sehr gemischt, d.h. es gab 300er Boards mit großem BIOS-Chip und 400er Boards mit kleinem. Irgendwelche TDP-Anhebungen, die nur X570 unterstützt, gab es auch nicht (so wie beim Z490 z.B.) und wären auch völlig unnötig gewesen.

Oder AMD droppt die Bombe, dass auch X570 kein Zen3 unterstützt. Das würde aber imho ziemlich nach hinten losgehen, weil Zen3 dann ausschließlich mit den vermutlich teuren X670-Boards läuft und sich jeder stattdessen ein altes Zen2-Sys bastelt, wenn mit Zen4 sowieso dann AM5 ansteht und das teure X670-Board dann auch wieder EOL ist. Vom Shitstorm all jener, die sich X570+3600/3700 gekauft haben, nur um eine bessere Zen3-Plattform zu haben, mal ganz abgesehen ...

Screemer
2020-05-03, 22:04:13
Es gab Probleme mit einigen Boards, bei denen der BIOS-Chip zu wenig Speicher hatte um sowohl Zen1 als auch Zen2 zu unterstützen. Aber das war sehr gemischt, d.h. es gab 300er Boards mit großem BIOS-Chip und 400er Boards mit kleinem. Irgendwelche TDP-Anhebungen, die nur X570 unterstützt, gab es auch nicht (so wie beim Z490 z.B.) und wären auch völlig unnötig gewesen.

Das war schlicht dem ganzen bloat geschuldet, den der ein oder andere boardpartner in seinem bios untergebracht hat. hier vor allem grafische elemente. dazu kam, dass auch die codebasis und die patchlevel von agesa 1.0.0.4 von amd nicht in einem paket waren sondern wohl einzelne codepfade waren. das hat sich jetzt mit 1.0.0.5 geändert und man konnte überall lesen, dass agesa alles in einen codepfad zusammenfast. ich gehe davon aus, dass die entscheidung zen3 nicht mehr mit 300-400 chipsets kompatibel zu machen ein goodie für die boardpartner ist und weniger technische unzulänglichkeit.

Hammer des Thor
2020-05-03, 22:54:29
Auf reddit gibt es gerade Spekus, dass Zen3 nicht mehr auf B350/450 bzw. X370/470 Mobos laufen wird. Dazu folgende Clips:

https://youtu.be/ii5PaoFO_FI?t=4011

https://youtu.be/ii5PaoFO_FI?t=11386

https://youtu.be/cwPOtPDUlU8?t=3518

Donnerstag wissen wir mehr.

Der Hersteller XMG hat doch von AMD die Info bekommen Zen 3 würde noch auf B 450 laufen?

SKYNET
2020-05-03, 22:59:13
Auf reddit gibt es gerade Spekus, dass Zen3 nicht mehr auf B350/450 bzw. X370/470 Mobos laufen wird. Dazu folgende Clips:

https://youtu.be/ii5PaoFO_FI?t=4011

https://youtu.be/ii5PaoFO_FI?t=11386

https://youtu.be/cwPOtPDUlU8?t=3518

Donnerstag wissen wir mehr.


quatsch, wird weiterhin auf A320, B350/450 X370/470 laufen...

Denniss
2020-05-03, 23:00:15
Warum sollte AMD Zen3 für die 300/400er-Chipsätze sperren? Das sind deren meistverkaufte Chipsätze. Auch der B550A würde keinen Sinn machen denn warum extra einen B450 mit PCIe4 für OEMs auflegen wenn der sowieso in Kürze obsolet wird?
Die Gerüchte passen hinten und vorne nicht.

w0mbat
2020-05-03, 23:04:48
Was ist Donnerstag?
B550 launch.

quatsch, wird weiterhin auf A320, B350/450 X370/470 laufen...
Ich fände es auch seltsam, aber die Kommentare von Leuten unter NDA sind schon komisch.

Linmoum
2020-05-03, 23:12:05
B550 launcht am 16. Juni, nicht schon kommende Woche.

w0mbat
2020-05-03, 23:16:12
Hm, was ist dann am Donnerstag über das alle YT reden?

chaospanda
2020-05-03, 23:26:56
Hm, was ist dann am Donnerstag über das alle YT reden?
Na offenbar vermutlich Infos zu Zen3 ^^ AMD kann ja genauso papern wie INTEL ;)

amdfanuwe
2020-05-03, 23:56:44
Donnerstag gibt es das "2020 Annual Meeting of Stockholders"
Viel BlaBla und keine neuen Announcements.
https://ir.amd.com/upcoming-events

chaospanda
2020-05-04, 00:02:06
Donnerstag gibt es das "2020 Annual Meeting of Stockholders"
Viel BlaBla und keine neuen Announcements.
https://ir.amd.com/upcoming-events
Wenn es nix Neues an Infos gäbe, müssten Person X oder Y kein NDA unterzeichnen...

Von daher kann da durchaus was dran sein. Normalerweise wedeln die Leute nicht mit ner Fahne im Wind, wo dick und fett NDA drauf steht.

maximus_hertus
2020-05-04, 00:12:26
Versteift euch nicht auf die Chipsätze.

Es gab nicht nur einmal schon der Fall, dass neuere CPUs zwar an sich kompatibel wären, aber die Stromversorgung nicht 100% passte.

Andere Möglichkeit: irgendein Feature (was auch immer), welches es aktuell noch nicht gibt @ Mainbaords.


Donnerstag ist ja fast um die Ecke und bis Zen 3 wird es ja noch einige Monate dauern ;)

Der_Korken
2020-05-04, 00:24:21
Versteift euch nicht auf die Chipsätze.

Es gab nicht nur einmal schon der Fall, dass neuere CPUs zwar an sich kompatibel wären, aber die Stromversorgung nicht 100% passte.

Andere Möglichkeit: irgendein Feature (was auch immer), welches es aktuell noch nicht gibt @ Mainbaords.


Wie schon gesagt, würde sowas auch die X570-Boards treffen, sofern AMD den Boardpartnern nicht vorher schon heimlich Vorgaben gemacht hat, mit denen X570 kompatibel zu Zen3 wird. Und wenn Zen3 nicht auf X570 läuft, will ich nicht AMDs Haut stecken.

Edit: Stromversorgung kann ich mir nicht vorstellen, weil Zen2 schon einen verrückten Boost hatte und Verbrauch selbst dürfte kein Problem sein. Selbst der 3950X würde mit 65/88W passabel laufen wenn nötig, so viel kann Zen3 nicht saufen, dass die bisherigen 105/140W ein Problem sein würden.

maximus_hertus
2020-05-04, 00:32:25
Coffee-Lake braucht ja jetzt auch nicht so viel Watt, dass ein gutes Z170er das nicht hätte liefern können.... Stromversorgung ist nicht nur die (TDP) Watt-Zahl ;)

Alternative Speku: AMD streicht alles unterhalb von 12 Kernen @ Zen 3. Darunter übernimmt Renoir Desktop bzw. später dann die Zen3 APU.

Twist: Nur x8 PCIe Lanes bei den APUs.

Ach, bevor ich jetzt weiter jede noch so schräge Idee aufschreibe => bis Donnerstag ist ja nicht mehr lange hin.

w0mbat
2020-05-04, 00:35:26
Speku: Zen3 wieder mit Bulldozer-Kernen, aber dafür 12GHz bei 325W TDP.

amdfanuwe
2020-05-04, 01:46:37
AM4 sollte nur bis 2020 unterstützt werden. Ab 2021 wäre dann eigentlich AM5 angesagt. Bis ZEN 3 kommt, ist das Jahr schon fast rum.
Ende des Jahres kommt wieder eine APU.
Spekuliere ich mal folgendes: 16 Core Die ZEN3 DDR5 auf AM5 Ende des Jahres für 12/16 Core, die nächste APU ZEN3/RDNA2 deckt dann 6/8 Core ab Frühjahr 2021 ab.
Dazu eine kleine 4Core APU für low End im laufe des Jahres 2021.
Server und Threadripper bekommen Chiplets.

EDIT: weiß jemand, wie die EPYC 3000 CPUs mit 16Core 64 PCIe bestehend aus 2 Summit Ridge Dies auf einem Träger von der Industrie aufgenommen wurde? Muß AMD da mal nachlegen oder ist die Nachfrage vernächlässigbar, das sich das Geschäft nicht lohnt?

genervt
2020-05-04, 06:26:45
Habe mir die verlinkten Videos angeschaut und höre da nichts raus, was darauf schließen lässt, dass alte Chipssets Zen3 nicht unterstützen würden. Einmal wird gesagt, dass man keinen 3600X mehr kaufen würde. Hört sich für mich eher so an, als würde der obsolet. Könnte mir auch eher vorstellen, dass AMD nun das untere Marktsegment konsequent mit APUs abdeckt, weil dies günstiger in der Fertigung ist und generell auch sinnvoller.

dildo4u
2020-05-04, 06:42:23
IGP verschlechtern die Yields zu sehr AMD kann z.b nicht genug 3400G liefern und der Nachfolger scheint noch Monate weg.
Intel hat nicht umsonst Modelle ohne IGP eingeführt und besser mit AMD konkurrieren zu können.

Lieferbarer 3400G kostet mehr als 3600x.

https://geizhals.de/amd-ryzen-5-3400g-yd3400c5fhbox-a2073698.html?hloc=at&hloc=de&v=e

Piefkee
2020-05-04, 07:35:40
Keine Ahnung ob das inbedingt mit dem Chipsatz etwas zu tun hat. Aber im Video spricht er von " wenn ihr euch einen 3600X zulegen wollt und auf Zen3 auffrüsten wollt...."

Könnte es nicht viel mehr damit zu tun haben, dass der Launch für Zen3 einfach früher als gedacht ist? Sprich August/September.

Deshalb das von 3600 auf Zen 3 auffrüsten? Wer sowas vor hat kann jetzt auch noch 2-3 Monate warten

genervt
2020-05-04, 07:42:56
Ich würde eher vermuten, dass der 3400G bereits EOL ist, da die Ryzen 4XXXG mobile gerade eingeführt werden. Würde auch Sinn ergeben die Lagerbestände abszubauen bevor der Nachfolger kommt.

CrazyIvan
2020-05-04, 07:55:21
Wie bereits weiter oben erwähnt, kann man eher mutmaßen, dass sich AMD mit Renoir auf dem Desktop noch Zeit lassen wird. Die brauchen derzeit jedes Die für Mobile - und erzielen da mit Sicherheit höhere Margen.

mironicus
2020-05-04, 08:22:23
Eine Renoir-APU kann mit nur 45 Watt TDP wohl bestimmt alles unter 3700x ersetzen, so effizient wie der Chip ist.

Windi
2020-05-04, 08:39:59
Das größte Problem bei Renoir sehe ich beim beschränkten 8x Pcie. Oder es ist wieder mehr integriert und nur bei der mobile Variante deaktiviert.

Ich kann mir aber gut vorstellen, das AMD die Zen2 Chiplets einstellt, sobald Zen3 flächendeckend verfügbar ist. In der Zwischenzeit kann AMD ja über den Preis steuern, ob nun APUs oder CPUs bevorzugt werden.

amdfanuwe
2020-05-04, 08:43:39
Picasso ist weder EOL noch hat der 12nm Chip schlechten Yield. Der wird in Notebooks mehr verbaut als AMD erwartet hat. Sieht man doch bei Geizhals (https://geizhals.de/?cat=nb&sort=p&xf=6763_Ryzen+3000~9690_Picasso#productlist) , 12 Seiten allein Picasso Notebooks. Letztes Jahr hat man noch alle AMD Notebooks auf 5 Seiten untergebracht.

nairune
2020-05-04, 08:53:31
Erschiene mir doch seltsam jetzt die Board-Abwärtskompatibilität zu kündigen, wenn man in Kürze für DDR5 schon wieder neue Boards braucht.

mironicus
2020-05-04, 08:55:38
>Das größte Problem bei Renoir sehe ich beim beschränkten 8x Pcie.

Renoir ist imho auch eher Lowend aber hat ein disruptives Potential für den gesamten Laptopmarkt. Highend-Leistung für schmales Geld.

Meint ihr, dass Zen3 für Desktop zwangsläufig wieder mit etwas mit Chiplet + IO ist? Könnte das nicht ein einzelner kleiner Chip sein wie Renoir? Sollte imho günstiger zu produzieren sein, wenn ich zumindest alles bis 8 Kerne abdecken will.

amdfanuwe
2020-05-04, 08:55:51
DDR5 ist eigentlich der einzige Grund auf einen neuen Sockel zu gehen. Also ZEN3 schon mit DDR5?

amdfanuwe
2020-05-04, 09:08:50
Meint ihr, dass Zen3 für Desktop zwangsläufig wieder mit etwas mit Chiplet + IO ist? Könnte das nicht ein einzelner kleiner Chip sein wie Renoir? Sollte imho günstiger zu produzieren sein, wenn ich zumindest alles bis 8 Kerne abdecken will.
für 12/16 Core Desktop gibt es eigentlich nur 5 Möglichkeiten:
1) Monolithischer 16 Core
2) Monolithischer 8 Core + 8 Core Chiplet
3) 8 Core APU + 8 Core Chiplet
4) 2 * Monolithischer 8 Core
5) I/O + 2 * 8 Core Chiplet

Am billigsten dürfte ein 8 Core Monolithischer Chip sein, ähnlich Summit Ridge mit ZEN1.
Chiplets wirds auf jeden Fall für Server weiterhin geben.
AMD hat nun mehr Geld und mehr Bedarf an Chips und kann dementsprechend mehr spezialisierte Varianten an Chips auflegen als es noch mit dem beschränktem Budget bei ZEN1 der Fall war.

maximus_hertus
2020-05-04, 09:09:08
DDR5 ist eigentlich der einzige Grund auf einen neuen Sockel zu gehen. Also ZEN3 schon mit DDR5?

Nein. Bzw. wenn, dann nur wenn sich ZEN3 massiv verspätet und ZEN4 direkt übernimmt.

DDR5 kann man bei ZEN3 ausschließen.

Denniss
2020-05-04, 09:15:44
Zudem sind die Zen3-Epyc noch für Sockel SP3 angekündigt als letzte Ausbaustufe dafür. Jetzt AM5 zu bringen wäre ein Schuß ins AMD-eigene Knie denn DDR5 ist nirgends verfügbar und wenn dann zu abartigen Preisen.
DDR5 ist frühestens nächstes Jahr im Serverbereich angesagt, möglicherweise zuerst bei Intel.

YfOrU
2020-05-04, 09:15:53
Renoir ist imho auch eher Lowend aber hat ein disruptives Potential für den gesamten Laptopmarkt. Highend-Leistung für schmales Geld.

Mit bis zu 8C+IGP wird Renoir auch am Desktop gehobener Mainstream. 8 statt 16 PCIe Lanes für eine optionale mittlere dGPU sind in dem Bereich (OEM Komplettsysteme) kein Problem.


Meint ihr, dass Zen3 für Desktop zwangsläufig wieder mit etwas mit Chiplet + IO ist? Könnte das nicht ein einzelner kleiner Chip sein wie Renoir? Sollte imho günstiger zu produzieren sein, wenn ich zumindest alles bis 8 Kerne abdecken will.

Der Markt für Consumer Desktop CPUs ohne IGP ist so klein das nicht mal Intel dafür eigene Chips auflegt. Mit sehr hoher Wahrscheinlichkeit ersetzt AMD praktisch nur die Zen2 durch Zen3 Chiplets und nutzt die beiden vorhandenen I/O Chiplets weiter.

Berniyh
2020-05-04, 09:33:27
Eine Renoir-APU kann mit nur 45 Watt TDP wohl bestimmt alles unter 3700x ersetzen, so effizient wie der Chip ist.
Der 3600/3600X ist bei Spielern sehr beliebt.
Renoir + dedizierte Grafikkarte ist aber mehr als suboptimal.
Und jetzt 100€ mehr zahlen zu müssen nur um eine dedizierte Grafikkarte vernünftig verwenden zu können? Naja …

CrazyIvan
2020-05-04, 10:03:07
für 12/16 Core Desktop gibt es eigentlich nur 5 Möglichkeiten:
1) Monolithischer 16 Core
2) Monolithischer 8 Core + 8 Core Chiplet
3) 8 Core APU + 8 Core Chiplet
4) 2 * Monolithischer 8 Core
5) I/O + 2 * 8 Core Chiplet

Am billigsten dürfte ein 8 Core Monolithischer Chip sein, ähnlich Summit Ridge mit ZEN1.
Chiplets wirds auf jeden Fall für Server weiterhin geben.
AMD hat nun mehr Geld und mehr Bedarf an Chips und kann dementsprechend mehr spezialisierte Varianten an Chips auflegen als es noch mit dem beschränktem Budget bei ZEN1 der Fall war.
Bedenke bitte die Kohärenz. Ich glaube nicht an einen Schritt zurück, bei dem Speicherzugriffe wieder derart verschieden wären.

w0mbat
2020-05-04, 10:05:56
Meint ihr, dass Zen3 für Desktop zwangsläufig wieder mit etwas mit Chiplet + IO ist? Könnte das nicht ein einzelner kleiner Chip sein wie Renoir? Sollte imho günstiger zu produzieren sein, wenn ich zumindest alles bis 8 Kerne abdecken will.
Zen3 ist 100% genauso I/O-die + chiplets wie Zen2, das wissen wir schon.

Berniyh
2020-05-04, 10:07:54
Am billigsten dürfte ein 8 Core Monolithischer Chip sein, ähnlich Summit Ridge mit ZEN1.
Wieso?

Wenn man am Ende doch eh einen Großteil der CPUs zusammenflanschen muss.
Der IO Die dürfte über die Zeit nur günstiger werden, wenn der weiterhin auf 12nm läuft.

Ne, die Wahrscheinlichkeit, dass es vom Konzept her bei Zen3 einen Schritt zurück geht ist verschwindend gering.
Gibt einfach keine Notwendigkeit, auch Zen 2 stampft ja fast alles von Intel ein, wozu ein monolithischer Core?

amdfanuwe
2020-05-04, 10:32:42
Wieso?
...
wozu ein monolithischer Core?
Billiger, schneller, effizienter.
8Core dürften nächstes Jahr im 200€ Segment ankommen und sich verkaufen wie aktuell der 3600. Da kommt es auf jeden Cent an. Und Intel sollte man nicht ganz außer Acht lassen. Mit Renoir hat man 7nm I/O "getestet" und Chiplets für Server dürften das nötige Volumen erreichen, dass sich Masken für einen eigenen Chip lohnen.

ZEN1 hats Geld gerade noch für einen Chip gereicht.
ZEN+ war günstiger Lückenbüßer wegen vorzeitigen Umstieg auf 7nm
ZEN2 optimiert für Server, Notlösung für Desktop
ZEN3 dank des Erfolges von ZEN2 nun auch für Desktop optimierbar.

Edit:
Ach, AMD hat so viele Möglichkeiten. Dann noch 7nm, 6nm, 5nm Fertigung, die sie sich nahezu aussuchen können.
Ich könnte mir vorstellen, dass TSMC die 6nm auf Betreiben von AMD ins Programm genommen hat und zumindest die Konsolenchips damit gefertigt werden. N6 soll ja billiger sein als die anderen 7nm Prozesse, wenn auch nicht ganz so gut wie N7+.

CrazyIvan
2020-05-04, 11:58:31
Glaube, Du verrennst Dich gerade. Monolithisch ist eben gerade nicht günstiger. Der Kostenvorteil ist neben mehr Flexibilität das Ziel der Übung gewesen. Im Mobile Bereich waren nur die Nachteile derzeit noch zu gravierend.

Der_Korken
2020-05-04, 12:08:00
Monolithisch würde bedeuten, dass man entweder nur bis 8C geht oder aber einen 16C-Die designt, obwohl man eigentlich hauptsächlich 6C und 8C verkauft - d.h. entweder teure 16C-Dies verramschen oder alles <=8C mit Renoir bedienen. Da halte ich die Zen2-Lösung auch für viel wahrscheinlicher.

HOT
2020-05-04, 12:10:02
Vor allem ist Zen2 ganz klar auch für Desktop optimiert. Man hat eben probiert, möglichst viele Synergien mitzunehmen.

w0mbat
2020-05-04, 12:12:03
Es gibt doch schon offizielle Präsentationen von AMD wo man sehen kann, dass Zen3 den gleichen Aufbau wie Zen2 hat, also I/O-die + CPU-chiplets.

Leonidas
2020-05-04, 12:25:23
Theoretisch könnte man für Zen 3 ein extra I/O-Chip mit DDR5 auflegen. Aber das entspricht wohl nicht AMDs Planung. Es würde wahrscheinlich auch die Sockel-Kompatibilität zerstören - wobei AMD natürlich beides anbieten könnte: CPU mit AM4 und DDR4 samt selber CPU mit AM5 und DDR5. Aber genau dieser Wechsel kommt zu 99% erst mit Zen 4, nicht bereits bei Zen 3. AMD muß weder seine Pläne vorerfüllen noch sind die sonderlich unter Druck bei Zen 3. Intel hat ja nur RKL dagegen - trotz neuer Kerne weiterhin ein 14nm-Produkt.

amdfanuwe
2020-05-04, 12:36:48
Vor allem ist Zen2 ganz klar auch für Desktop optimiert. Man hat eben probiert, möglichst viele Synergien mitzunehmen.
Vor allem der I/O Chip.
Optimieren kann man in mehrfacher Hinsicht. Kosten, Effizienz, Leistung, Aufwand etc.
Zwischen Chiplet und Monolithisch gibt es ab einer bestimmten Größe hinsichtlich der Kosten ein Crossover. Darunter lohnt monolithisch, darüber Chiplet.
Wie man an den Konsolenchips sieht ( die wirklich mit jedem Cent rechnen) sind 360mm² monolithische APU im Gesamtpaket wohl die bessere Lösung gegenüber einer Chiplet Lösung.

amdfanuwe
2020-05-04, 12:48:32
AMD muß weder seine Pläne vorerfüllen noch sind die sonderlich unter Druck bei Zen 3. Intel hat ja nur RKL dagegen - trotz neuer Kerne weiterhin ein 14nm-Produkt.
Die Pläne werden den Gegebenheiten entsprechend angepasst. Die haben eine Richtung aber keine Planwirtschaft.
Und wenn Intel wieder Erwarten mit 7nm schneller vorankommt werden die das nicht an die große Glocke hängen. Da kann RKL schnell getrichen werden. Auf Intels Roadmaps hin kann sich AMD nicht ausruhen.
AMD muß pushen bis es keine Konkurrenz mehr gibt. Ansonsten kann man auch schnell wieder in der Bedeutungslosigkeit versinken.

Brillus
2020-05-04, 13:25:03
Vor allem der I/O Chip.
Optimieren kann man in mehrfacher Hinsicht. Kosten, Effizienz, Leistung, Aufwand etc.
Zwischen Chiplet und Monolithisch gibt es ab einer bestimmten Größe hinsichtlich der Kosten ein Crossover. Darunter lohnt monolithisch, darüber Chiplet.
Wie man an den Konsolenchips sieht ( die wirklich mit jedem Cent rechnen) sind 360mm² monolithische APU im Gesamtpaket wohl die bessere Lösung gegenüber einer Chiplet Lösung.
Da spielt noch mehr rein warum Konsolenchips da mal ausen vor lassen würde.

Menge je mehr man macht umso weniger sind die Maskwnkosten/Chip.

Und dann I/O + GPU braucht man viel höhere Bandbreite als für I/O + CPU.

Und final sagen die Kunden da was sie wollen und in letzter Zeit sind die eher konservativ. Denk dran das Konsole längere Vorlauf hat als CPUs würde mich nicht wundern ob die Entscheidung ob monolithish oder Chiplet zur gleichen Zeit anstand als bei Zen2.

Edit: Final kommt es auch drauf an wieviel man raus werfen kann wenn wir von 250mm^2 für GPU ausgehen bringt den rest abzuschneiden nichtmehr soviel.

Berniyh
2020-05-04, 13:42:44
Billiger, schneller, effizienter.
8Core dürften nächstes Jahr im 200€ Segment ankommen und sich verkaufen wie aktuell der 3600. Da kommt es auf jeden Cent an.
Billiger halte ich für Zweifelhaft. Der IO Die aus der 12nm Fertigung dürfte weit günstiger als jedes mm² aus der 7nm (oder neuer) Fertigung sein.
Schneller … ist die Frage wie stark man den Effekt am Ende wirklich sieht. Klar, die Latenzen werden ein bisschen besser, aber mit der Masse an L3 die man verbaut wird das in vielen Fällen abgefedert.
Und effizienter spielt auf dem Level am Desktop keine große Rolle.
Ein typischer Desktop PC braucht im Leerlauf ja so 30-50W. Da machen die 10W des IO Die nicht viel aus, zumal ich hoffe, dass man da mit Zen 3 noch Verbesserungen einbringt, denn der IO Die wird aktuell gar nicht runter geregelt, der läuft praktisch konstant mit grob 1.09V.
Unter Volllast ist man Intel bei der Effizienz trotz Chiplet Design so weit voraus, da gibt es einfach keinen Druck was zu ändern.

Bei einem Produkt wie Renoir, das hauptsächlich für den mobilen Bereich vorgesehen ist, sieht das schon anders aus.
Bei einer TDP von z.B. 25W tun 10W Idle seitens IO Die schon richtig weh.
Ok, wäre im mobilen Bereich vermutlich etwas weniger, da man sicherlich eine abgespeckte Version verwenden würde, aber selbst 5W sind da schon signifikant.
Intel hat im mobilen Bereich bei den OEMs die Nase so weit vorne, dass man hier schon richtig gute Argumente liefern muss und sich so gut wie keine Schwächen erlauben darf um wirklich zu punkten.
Mit Chiplet Design wäre man im mobilen Bereich daher aktuell im Idle Verbrauch einfach nicht konkurrenzfähig und daher musste es da wohl monolithisch sein.
(+ eben die Sache mit der GPU)
Chiplets für Server dürften das nötige Volumen erreichen, dass sich Masken für einen eigenen Chip lohnen.
evtl. schon, aber es gibt halt keine Notwendigkeit dafür und dazu muss man bedenken, dass die Kapazitäten von TMSC nach wie vor beschränkt sind, vor allem wenn man immer einen sehr aktuellen Node haben will.
Aktuell kommt AMD für die Chiplets mit ca. 3000 Wafer/Monat hin, wenn man monolithisch baut würden das deutlich mehr werden, da der IO Teil halt schon viel Fläche frisst.
Wie man an den Konsolenchips sieht ( die wirklich mit jedem Cent rechnen) sind 360mm² monolithische APU im Gesamtpaket wohl die bessere Lösung gegenüber einer Chiplet Lösung.
Jein. Bedenke, dass es auch hier wieder um eine Kombination von CPU und GPU geht und bei den GPUs ist man wohl noch nicht so weit die in Chiplets zu bauen.
Dazu kommt, dass es sich bei den Konsolen um ein langfristiges Produkt mit großem Volumen über die Zeit handelt.
Da spielt die Designerstellung keine so große Rolle.
Und noch als letzter – und meiner Meinung nach wichtiger – Punkt:
es gibt hier keinen Konkurrenzdruck der einen zwingt immer eine sehr neue Node zu verwenden, d.h. man wird die Wechsel (auf N6 etc.) hier deutlich länger heraus zögern als man das beim Desktop kann.
Theoretisch könnte man für Zen 3 ein extra I/O-Chip mit DDR5 auflegen. Aber das entspricht wohl nicht AMDs Planung. Es würde wahrscheinlich auch die Sockel-Kompatibilität zerstören - wobei AMD natürlich beides anbieten könnte: CPU mit AM4 und DDR4 samt selber CPU mit AM5 und DDR5. Aber genau dieser Wechsel kommt zu 99% erst mit Zen 4, nicht bereits bei Zen 3. AMD muß weder seine Pläne vorerfüllen noch sind die sonderlich unter Druck bei Zen 3. Intel hat ja nur RKL dagegen - trotz neuer Kerne weiterhin ein 14nm-Produkt.
Wäre gut denkbar, dass AMD Zen3 auch für AM5 auflegt um ggf. weniger in 5nm fertigen zu müssen.
Zumindest wenn IO Die von Zen4 mit Zen3 kompatibel ist (wovon ich jetzt mal ausgehen würde).
Hat man ja auch schon früher in der Form gemacht.

Vermutlich werden die aber dann – wie aktuell bei AM4 Bristol Ridge – auf späteren Mainboards evtl. nicht mehr unterstützt.

amdfanuwe
2020-05-04, 13:43:44
Und dann I/O + GPU braucht man viel höhere Bandbreite als für I/O + CPU.

Deshalb hatte ich auch bis vor kurzem gedacht, es wird I/O mit GPU + einem CPU Chiplet.
Da die Konsolen auch ZEN2 Kerne haben, werden die ZEN2 Chiplets da auch schon in Planung gewesen sein.
War dann wohl der höhere Aufwand und damit Kosten für das Mainboard ausschlaggebend. Eventuell hätten sie es gar nicht geschafft den Chiplet mit den geringeren Kontaktabständen zu verlöten. Gibt ja nur wenige Firmen, die das können.

Die werden mehrere Möglichkeiten durchgerechnet haben und der monolithische Chip war dann die günstigste Lösung trotz schlechterem Yield.

Berniyh
2020-05-04, 13:56:01
Der Yield spielt halt bei solchen langfristigen Projekten keine so große Rolle.
Man hätte natürlich die von dir angegebene Variante wählen können, aber dabei muss man bedenken, dass der GPU/IO Teil wohl auch in 7nm gefertigt worden wäre.
In dem Fall dürfte der Unterschied in der Fläche zwischen all-integrated und GPU/IO + CPU Chiplet relativ gering sein, wobei dann im Chiplet-Fall oben drauf der Aufwand für die Verbindung kommt.
Sieht man ja auch in den Analysen die schon zum XBOX Chip vorhanden sind, dass der CPU Teil ziemlich wenig Platz einnimmt.

Dass das Packaging auch Geld kostet ist auch klar, aber nachdem man nun damit mal angefangen hat wird der Teil über die Zeit auch günstiger werden, da habe ich wenig Bedenken.

amdfanuwe
2020-05-04, 14:36:59
Billiger halte ich für Zweifelhaft. Der IO Die aus der 12nm Fertigung dürfte weit günstiger als jedes mm² aus der 7nm (oder neuer) Fertigung sein.
Schneller … ist die Frage wie stark man den Effekt am Ende wirklich sieht. Klar, die Latenzen werden ein bisschen besser, aber mit der Masse an L3 die man verbaut wird das in vielen Fällen abgefedert.
Und effizienter spielt auf dem Level am Desktop keine große Rolle.

Der reine 12nm IO dürfte günstig sein, aber betrachte mal das Gesamtpaket.
Mal sehen wie schnell Renoir im Desktop wird. Der hat keine Massen an L3. Vielleicht ist generell im Desktop weniger L3 nötig und man kann damit "teures" 7nm Silizium einsparen. Wenn 64 Kerne gleichzeitig werkeln, ist es wohl eher nötig die Zugriffe abzufedern.
Und Effizienz spielt im Desktop wohl eine Rolle, wenn dadurch der All Core Takt höher ausfallen kann. Der externe IF verschlingt ja auch einiges an Leistung.

...
Unter Volllast ist man Intel bei der Effizienz trotz Chiplet Design so weit voraus, da gibt es einfach keinen Druck was zu ändern.

Wie lange noch?

...
muss man bedenken, dass die Kapazitäten von TMSC nach wie vor beschränkt sind, vor allem wenn man immer einen sehr aktuellen Node haben will.
Aktuell kommt AMD für die Chiplets mit ca. 3000 Wafer/Monat hin, wenn man monolithisch baut würden das deutlich mehr werden, da der IO Teil halt schon viel Fläche frisst.

AMD bekommt die Kapazität, die sie bestellen. Also Kapazität ist genügend vorhanden, sonst wären die Konsolenchips garnicht machbar.
Natürlich läßt sich die Produktion nicht von heut auf morgen erhöhen, wenn mal größere Nachfrage aufkommt. Sieht man aktuell am 12nm Picasso, der als 3400G praktisch nicht verfügbar ist.



Und noch als letzter – und meiner Meinung nach wichtiger – Punkt:
es gibt hier keinen Konkurrenzdruck der einen zwingt immer eine sehr neue Node zu verwenden, d.h. man wird die Wechsel (auf N6 etc.) hier deutlich länger heraus zögern als man das beim Desktop kann.

Je billiger AMD die Chips herstellen kann, umso höher der Gewinn für AMD.

Berniyh
2020-05-04, 15:19:00
Mal sehen wie schnell Renoir im Desktop wird. Der hat keine Massen an L3. Vielleicht ist generell im Desktop weniger L3 nötig und man kann damit "teures" 7nm Silizium einsparen.
Wenn du ein monolithisches Design hast kommst du generell mit etwas weniger L3 zu Rande. d.h. Renoir hat hier gegenüber Matisse einen Vorteil.
Und ja, man spart damit natürlich Fläche im 7nm Prozess, aber auf der anderen Seite verspielt man wesentlich mehr Fläche für Teile die bei Matisse in 12nm im IO Die implementiert sind.
Letzteres dürfte deutlich überwiegen.
Ein monolithischer 7nm Chip dürfte immer noch deutlich größer sein als Matisse, selbst wenn man den L3 Cache auf Renoir-Niveau runter rechnet.
Hab dazu aber tatsächlich noch keine Rechnungen gesehen, wäre wirklich mal spannend sich das anzuschauen.
Und Effizienz spielt im Desktop wohl eine Rolle, wenn dadurch der All Core Takt höher ausfallen kann. Der externe IF verschlingt ja auch einiges an Leistung.
Naja, eine typische Zen 2 CPU verbrät unter Volllast zwischen 90 und 160W. Da fallen IO Die und IF nicht sooooo sehr ins Gewicht.
Und dazu kommt, dass es ja auch an der Stelle immer weiter in der Entwicklung gehen wird. Man wird hier sicher noch Möglichkeiten finden das effizienter zu gestalten.
Wie lange noch?
Also selbst wenn man der Roadmap von Intel blind Vertrauen schenkt noch eine ganze Weile.
AMD bekommt die Kapazität, die sie bestellen. Also Kapazität ist genügend vorhanden, sonst wären die Konsolenchips garnicht machbar.
Das stimmt, aber die Konsolenchips sind für AMD wichtige Aufträge und fressen nun mal Kapazitäten weg.
Man muss schon mit den Kapazitäten haushalten, denn das Interesse an 7nm bei TMSC scheint schon groß zu sein und entsprechend wird der Preis hoch sein.
Nvidia wird sich nicht ohne Grund für Samsungs 8nm Prozess entschieden haben.
Bei denen ist der Druck an der Stelle einfach nicht so groß, da sie noch ordentlich Vorsprung haben.
Wäre 7nm massig verfügbar und günstig würde sicher Nvidia auch auf den Zug aufspringen.
Je billiger AMD die Chips herstellen kann, umso höher der Gewinn für AMD.
Und somit werden die CPUs eben als Chiplets gebaut. Sehr wahrscheinlich auch in der Zukunft für Zen3 und auch Zen4.

Zossel
2020-05-04, 15:33:55
Naja, eine typische Zen 2 CPU verbrät unter Volllast zwischen 90 und 160W. Da fallen IO Die und IF nicht sooooo sehr ins Gewicht.
Und dazu kommt, dass es ja auch an der Stelle immer weiter in der Entwicklung gehen wird. Man wird hier sicher noch Möglichkeiten finden das effizienter zu gestalten.

Wobei die "Effizienz" in dem Segment für Rechenleistung draufgeht und nicht in Leistungsaufnahme.

Complicated
2020-05-04, 16:09:42
Renoir benötigt mehr als doppelt so viel 7nm Wafer als ein Zen2-Chiplet:
https://www.anandtech.com/show/15381/amd-ryzen-mobile-4000-measuring-renoirs-die-size

Das Die ist doppelt so groß+den Verlust durch den größeren Die (Verschnitt und Yield)

https://images.anandtech.com/doci/15381/best3-2awm.jpg

The Zen 2 chiplet on the left, measures 10.32 mm by 7.34 mm, which is a ratio of 1.406 to 1.
In our image, the chiplet measured 265 pixels by 189 pixels, which is a ratio of 1.402 to 1.

In our image, the Renoir SoC measured 282 pixels by 350 pixels, which is a ratio of 0.806 to 1.
If we take the corresponding pixel dimensions, that gives us 10.98 mm by 13.59 mm, a ratio of 0.808 to 1.

This means that the die size of an eight-core Renoir APU with eight 2nd Gen Vega compute units, according to our calculations, 149.27 mm2.

Edit: Was hier Gewinnmaximierend hinzu kommt für AMD ist das Binning.

Schlecht taktende Chiplets können durchaus in teuren Produkten unterkommen für EPYC. Das ist bei monolithischen APUs in keiner Form möglich.
Die Taktraten der Spitzen SKUs sind bei Chiplets durch das Binning um ca. 200 MHz höher als bei einem monolithischen Design.

Brillus
2020-05-04, 17:52:59
Deshalb hatte ich auch bis vor kurzem gedacht, es wird I/O mit GPU + einem CPU Chiplet.
Da die Konsolen auch ZEN2 Kerne haben, werden die ZEN2 Chiplets da auch schon in Planung gewesen sein.
War dann wohl der höhere Aufwand und damit Kosten für das Mainboard ausschlaggebend. Eventuell hätten sie es gar nicht geschafft den Chiplet mit den geringeren Kontaktabständen zu verlöten. Gibt ja nur wenige Firmen, die das können.

Die werden mehrere Möglichkeiten durchgerechnet haben und der monolithische Chip war dann die günstigste Lösung trotz schlechterem Yield.

Das war was ich noch mit meinem letzten post gemeint habe. Da kann man die CPU kerne raus scheiden und braucht dann die zusätzlichen Verbindung dann ist der Chip vielleich 300mm^2 + 76mm^2 CPU als monolitisch 350mm^2. Glaub nicht das sich das rechnet. Chiplet rechnet sich IMHO dann wenn man signifikante Teile dadurch in billigen Prozess bringen kann oder man mindestens die Größe halbiert um bessern yield zu bekommen.

Denkt dran das beim aufspalten du Inteefaces brauchst wodurch in Summe Chiplets immer mehr Platz als monolithisch brauchen. Damit ist es immer eine Frage von Waferfläche zu Yield, das geht auch mit redundanz.

HOT
2020-05-04, 17:59:33
Man sieht ja, dass das Konzept sehr gut funktioniert mit dem separaten I/O-Chip. Das ist aus leistungssicht kein Problem, Verbrauch ist auch kein Problem und aus kostensicht wird es sehr viel günstiger sein in der Produktion, als wenn das Ganze monolithisch wär. Hinzu kommt, dass die Chipentwicklung einen Bruchteil kostet ggü. monolithisch.

Du brauchst für die komplette Generation (Desktop, HDET und Server) genau 3 (!) Dies wovon 2 in 12nm hergestellt werden und keine großartigen Taktsprünge machen müssen, also auch deutlich billiger in der Entwicklung sind - und selbst hier ergeben sich erhebliche Synergien, da sie wirklich sehr ähnlich aufgebaut sind. Das Konzept ist ultimativ monolithischen Designs überlegen, denn hier hätte man mindestens 4 verschiedene, teils riesige 7nm-Dies benötigt.
Die paar € mehr für das MCM-Package sind ein geradezu lächerlicher Preis dafür. AMD wird sicherlich im CPU-Bereich mit monolithischen Designs fertig sein.
APUs sind ein bisschen was anderes, da hier jedes Watt zählt und das Powermanagement maximal austariert werden muss. Gleiches gilt für semi-Custom.

Eldoran
2020-05-04, 21:07:33
[...]
EDIT: weiß jemand, wie die EPYC 3000 CPUs mit 16Core 64 PCIe bestehend aus 2 Summit Ridge Dies auf einem Träger von der Industrie aufgenommen wurde? Muß AMD da mal nachlegen oder ist die Nachfrage vernächlässigbar, das sich das Geschäft nicht lohnt?

Das ist schwer zu sagen, allerdings kommt in dem Bereich noch hinzu, dass diese Modelle erst jetzt überhaupt in den Handel kommen.
https://www.servethehome.com/amd-epyc-3451-benchmarks-and-review/.
Mir ist da die Zukunft der Plattform auch nicht so recht klar. Allerdings scheint in dem Bereich kein deutlicher Druck auf eine höhere CPU Rechenleistung zu bestehen.

Eldoran
2020-05-04, 21:09:51
Man kann die Anforderungen zu Desktop Ryzen, Laptop APU, Server und Konsole nicht ganz vergleichen.
Es zeigt sich bei den GPUs und den Konsolen, dass auch grössere Dies in 7nm zu einem passablem Preis/Leistungsverhähltnis machbar sind. Offenbar sind 7nm einem äquivalenten (gösseren) Die in einer älteren Fertigungstechnologie vorzuziehen. Allerdings sind bei Chips die eine grosse Bandbreite zwischen den Dies eines hypothetischen MCP brauchen würden, da ein deutlich limitierender Faktor, was eben GPU, APU und Konsolen betrifft. Bei Konsolen kommt im Vergleich zu Desktop Prozessoren noch hinzu, dass es keine abweichenden Produktserien gibt, etwa mit halber CPU/GPU. Beim ersten EPYC (Naples) hat das etwa zu extrem deaktivierten Dies bei den 8 Core Varianten geführt. Das ist bei Rome in den meisten Modellen nicht mehr der Fall.
Ich würde deshalb auch bei Zen 3 eher Chiplets wie bei Zen 2 erwarten.

amdfanuwe
2020-05-04, 21:49:20
Beim ersten EPYC (Naples) hat das etwa zu extrem deaktivierten Dies bei den 8 Core Varianten geführt. Das ist bei Rome in den meisten Modellen nicht mehr der Fall.
Ich würde deshalb auch bei Zen 3 eher Chiplets wie bei Zen 2 erwarten.
Schau dir die Epyc 7F32 und 7262 an. 8C16T mit 128MB L3. Um auf die Menge L3 zu kommen, werden 4 Chiplets benötigt. Das heißt, in jedem CCX ist nur noch ein Kern aktiv. Das nenne ich schon extrem deaktiviert. Nur in knapp der Hälfte der Modelle werkeln unbeschnittene 8C Chiplets.
Für Server sind Chiplets ideal. Sieht man ja, welche Mühe Intel hat auf Kerne zu kommen mit den monolithischen Chips.

Complicated
2020-05-04, 21:56:59
Und die 7F* Modelle kosten alle über $2000. So etwas kannst du nicht mit monolithischen Dies machen. Hier macht AMD so viel Geld pro Fläche wie mit voll funktionierenden Chiplets im HEDT-Segment auf TRX4.

KarlKastor
2020-05-04, 22:01:49
@amdfanuwe
Naja, Hauptproblem ist wohl eher, dass sie immernoch auf 14 nm festhocken. Wäre 10 nm halbwegs geplant gekommen, wäre der core count auch schon viel höher.

Aber du hast schon recht. Den Hauptvorteil hat man im Serverbereich. Da wird man nur noch durch die TDP in den Möglichkeiten begrenzt.

amdfanuwe
2020-05-04, 22:18:24
Das ist schwer zu sagen, allerdings kommt in dem Bereich noch hinzu, dass diese Modelle erst jetzt überhaupt in den Handel kommen.
https://www.servethehome.com/amd-epyc-3451-benchmarks-and-review/.
Mir ist da die Zukunft der Plattform auch nicht so recht klar. Allerdings scheint in dem Bereich kein deutlicher Druck auf eine höhere CPU Rechenleistung zu bestehen.
Danke für den Link. Da sieht man wie langsam die Mühlen im embedded Bereich mahlen.
It has more PCIe Gen3 connectivity for modern NVMe storage, NICs, and accelerators.
Und interessant zu sehen, wofür die eingesetzt werden.

YfOrU
2020-05-04, 23:47:53
Hinzu kommt, dass die Chipentwicklung einen Bruchteil kostet ggü. monolithisch.
...


Zu der Betrachtung gehört auch das Volumen und damit die Relation. Rome ist praktisch Low Volume und wäre ohne Matisse für AMD trotz Chiplets einfach nur brutal teuer. Wobei eben auch Matisse kein so richtig großes High Volume Produkt ist sondern eine begrenzte Teilmenge des Desktops. Die APUs spielen bezogen auf Stückzahlen (Mobile+Desktop) in einer ganz anderen Kategorie. Also so Richtung Faktor 3+.

=Floi=
2020-05-05, 01:54:04
@amdfanuwe
Naja, Hauptproblem ist wohl eher, dass sie immernoch auf 14 nm festhocken. Wäre 10 nm halbwegs geplant gekommen, wäre der core count auch schon viel höher.

so lange man noch immer auf die kack igpu setzt hätten wir auch in 10nm eher max 6 kerne. Intel hat ja erst mit den zwei letzten generationen nachgezogen! Man muss sich mal bewusst machen, wie lange die noch 4 kerner (7700k) und 6 kerner als top produkt verkauft haben!


edit
bei den chiplets ist es erstaunlich, dass diese 8 cores besitzen! An sich ist die mindestmenge schon hoch.
Man merkt deutlich, wie dark das ganze nach oben skaliert. Je mehr cores, desto besser ist diese strategie.

Screemer
2020-05-05, 09:36:17
Danke für den Link. Da sieht man wie langsam die Mühlen im embedded Bereich mahlen.

wenn man sich dann noch folgenden satz ansieht, dann merkt man auch, dass in den köpfen da richtige blockaden vorhanden sein müssen:

It is an x86 part that is based on the same core as a popular desktop and server architecture so at this point, OSes just work on AMD.

das ist servethehome und nicht irgendein dau-blog im netz.

KarlKastor
2020-05-05, 09:42:26
so lange man noch immer auf die kack igpu setzt hätten wir auch in 10nm eher max 6 kerne.

Xeons haben weder eine GPU noch sind die auf 6 Kerne beschränkt gewesen.

Zossel
2020-05-05, 10:41:48
wenn man sich dann noch folgenden satz ansieht, dann merkt man auch, dass in den köpfen da richtige blockaden vorhanden sein müssen:

It is an x86 part that is based on the same core as a popular desktop and server architecture so at this point, OSes just work on AMD.

das ist servethehome und nicht irgendein dau-blog im netz.

Magst du bitte die vermeintlichen Blockaden etwas präziser beschreiben.

Entweder habe ich diese Blockaden selber im Kopf und weiß nichts davon oder ich hatte diese Blockaden nie und kann mir nicht vorstellen was bei anderem da blockieren könnte.

Brillus
2020-05-05, 11:29:43
Magst du bitte die vermeintlichen Blockaden etwas präziser beschreiben.

Entweder habe ich diese Blockaden selber im Kopf und weiß nichts davon oder ich hatte diese Blockaden nie und kann mir nicht vorstellen was bei anderem da blockieren könnte.

Es geht darum das extra erwähnt wird das AMD mit normalen Betriebssystemen funktioniert.

Zossel
2020-05-05, 11:37:57
Es geht darum das extra erwähnt wird das AMD mit normalen Betriebssystemen funktioniert.

Nun ja, Linux läuft doch ab Toaster aufwärts.

Felixxz2
2020-05-05, 11:42:25
Es geht darum das extra erwähnt wird das AMD mit normalen Betriebssystemen funktioniert.

Erinnert mich an eine „Warnung“ aus nem Audio Software Blog, dass man eher Intel kaufen sollte, weil Pro Tools zwar aktuell auf AMD funktioniert, dass könne sich aber mit jedem Update ändern :freak:

Screemer
2020-05-05, 11:47:10
Nun ja, Linux läuft doch ab Toaster aufwärts.
bei nem xeon würde kein mensch auf die idee kommen, dass man auf x86 und die lauffähigkeit eines entsprechenden os hinweisen zu müssen.

Berniyh
2020-05-05, 12:44:04
Erinnert mich an eine „Warnung“ aus nem Audio Software Blog, dass man eher Intel kaufen sollte, weil Pro Tools zwar aktuell auf AMD funktioniert, dass könne sich aber mit jedem Update ändern :freak:
Ach, das ist doch einfach nur das prophylaktische "Wir sind nicht Schuld wenn es schief geht" Gelaber.

unl34shed
2020-05-05, 13:31:47
Naja, es könnte auch nur wegen dem Embedded Focus extra klar gestellt werden, da hier doch eher ARM dominiert.

Opprobrium
2020-05-05, 14:45:44
Naja, es könnte auch nur wegen dem Embedded Focus extra klar gestellt werden, da hier doch eher ARM dominiert.
Würde ich hier auch vermuten: Es ist ein sehr spezielles embedded Produkt, da schadet der Hinweis, daß es sich im Kern um einen x86er handelt nicht.

mboeller
2020-05-05, 15:14:33
Renoir benötigt mehr als doppelt so viel 7nm Wafer als ein Zen2-Chiplet:


Ja, aber ob das Chiplet Design wirklich günstiger ist... ich würde eher auf einen Gleichstand tippen.

Zu den 75mm² Chiplet kommen ja noch die 125mm² für die I/O Chip. Klar, der ist in 12nm und deshalb pro mm² in etwa halb so teuer wie in 7nm aber insgesamt dürfte der Preis so in etwa gleich bleiben.

Milchmädchenrechnung:
Ein Renoir ohne GPU wären so 125mm² in 7nm: 125mm² x 100% = 125
ZEN2: 75mm² x 100% + 125mm² x 50% = 137,5

100% = 7nm
50% = 12nm

Der Preis sollte also incl. Yield in etwa gleich sein.

Screemer
2020-05-05, 15:21:11
in dem kompletten review wird intels xeon embedded lineup vergleiche. wie soll da nicht klar sein, dass das x86 ist? es gibt überhaupt keine zahlen zu mips-/arm-cpus, denn das würde in dem zusammenhang auch überhaupt keinen sinn ergeben.

Piefkee
2020-05-05, 15:26:58
Ja, aber ob das Chiplet Design wirklich günstiger ist... ich würde eher auf einen Gleichstand tippen.

Zu den 75mm² Chiplet kommen ja noch die 125mm² für die I/O Chip. Klar, der ist in 12nm und deshalb pro mm² in etwa halb so teuer wie in 7nm aber insgesamt dürfte der Preis so in etwa gleich bleiben.

Milchmädchenrechnung:
Ein Renoir ohne GPU wären so 125mm² in 7nm: 125mm² x 100% = 125
ZEN2: 75mm² x 100% + 125mm² x 50% = 137,5

100% = 7nm
50% = 12nm

Der Preis sollte also incl. Yield in etwa gleich sein.

Das ganze hat relativ wenig mit Kosten zu tun haben. Gibt ein interesantes Video von Ian Cutress (Anandtech) warum es im Mobile keine Chiplets gibt. Die Antwort ist ganz einfach Energieverbrauch. Daten außerhalb des Siliziums zu übertragen benötigt sehr viel Saft. Darum Mobile --> Monolithisch

Desktop, HEDT, Server --> hier ist der Energieverbrauch nicht so wichtig. Aber hier hat man eine extreme flexibiliät mit einen Chiplet alles zu bedienen. Besonders was das Bining angeht. AMD wird mit Zen2 wahrscheinlich 99% Yield haben obwohl early 7nm.

robbitop
2020-05-05, 15:29:28
So ist es. Und es wurde hier im Forum auch schon oft durchgekaut. :)

basix
2020-05-05, 15:54:44
Das ganze hat relativ wenig mit Kosten zu tun haben. Gibt ein interesantes Video von Ian Cutress (Anandtech) warum es im Mobile keine Chiplets gibt. Die Antwort ist ganz einfach Energieverbrauch. Daten außerhalb des Siliziums zu übertragen benötigt sehr viel Saft. Darum Mobile --> Monolithisch

Desktop, HEDT, Server --> hier ist der Energieverbrauch nicht so wichtig. Aber hier hat man eine extreme flexibiliät mit einen Chiplet alles zu bedienen. Besonders was das Bining angeht. AMD wird mit Zen2 wahrscheinlich 99% Yield haben obwohl early 7nm.

Energieverbrauch ist bei Mobile sicher der wichtigste Faktor. Aber wenn es Null Kostenvorteil bringt, wird man vermutlich niemals auf Chiplets setzen. Da ist monolithisch fast immer im Vorteil. Klar ergeben Chiplets Vorteile bezüglich Flexibilität, Binning und maximaler Performance. Aber man hat 2x Die (Logistikaufwand), aufwändigeres Packaging welches mehr Platz braucht usw.

fondness
2020-05-05, 16:09:20
Ja, aber ob das Chiplet Design wirklich günstiger ist... ich würde eher auf einen Gleichstand tippen.

Zu den 75mm² Chiplet kommen ja noch die 125mm² für die I/O Chip. Klar, der ist in 12nm und deshalb pro mm² in etwa halb so teuer wie in 7nm aber insgesamt dürfte der Preis so in etwa gleich bleiben.

Milchmädchenrechnung:
Ein Renoir ohne GPU wären so 125mm² in 7nm: 125mm² x 100% = 125
ZEN2: 75mm² x 100% + 125mm² x 50% = 137,5

100% = 7nm
50% = 12nm

Der Preis sollte also incl. Yield in etwa gleich sein.

Naja, das ist schon eine ziemliche Milchmädchenrechnung. Immerhin hat das Chiplet-Design zB mehr als doppelt so viele PCIe Lanes plus PCIe4.0 vs. PCIe3.0 bei Renoir.

Aber bei Renoir ging es natürlich ganz klar um Energieverbrauch, was bei mobile einfach sehr wichtig ist. Renoir schafft 8 Cores bei 15W und das bei relativ hohen Taktraten, das ist schon sehr beeindruckend und wäre so mit Chiplet-Design wohl kaum möglich. Bei einem Desktop-Design mit 95W TDP machen ~5W mehr das Kraut nicht fett, mobile sieht das naturgemäß anders aus.

Complicated
2020-05-05, 16:40:25
Ein kostengünstiges Design (warum sollte monolithisch eigentlich kostengünstiger sein wenn es doppelt so groß ist?) bringt nichts in einer Situation, wo es eine limitierte Zahl Wafer in 7nm gibt. Die Mehrkosten für einen 14nm Chip ermöglichen doppelt so viele 7nm 8-Core SKUs bei selber 7nm Wafer-Zahl.
Wer hier die Packaging-Kosten dagegen rechnet, der muss auch klar sehen, dass ich entweder 10.000 8-Cores und keine größeren Chips verkaufen kann oder 20.000 8-cores und größere Chips verkaufen kann - da brauch ich nicht über die Kosten einer einzelnen SKU, verglichen mit Chiplets, nachdenken als Unternehmen. Habe ich R&D für die zusätzlich optimierten monolithischen SKUs und habe ich da ein TAM das ich adressieren kann, dann mache ich das. Das bringt AMD dennoch in keiner Weise zu einer "Entweder/Oder"-Frage.

Chiplets sind gesetzt. Alles andere wird darum herum konzipiert und optimiert, wo nötig. Renoir ist dafür ein perfektes Beispiel. PCIe3, Vega, weniger Shader der GPU etc., stromoptimiert.

Gipsel
2020-05-05, 16:49:17
Naja, das ist schon eine ziemliche Milchmädchenrechnung. Immerhin hat das Chiplet-Design zB mehr als doppelt so viele PCIe Lanes:confused:
Renoir hat offenbar 20 aktive Lanes (die sind in 2 optisch unterschiedliche [und auch pro Lane flächenmäßig unterschiedlich große!] Gruppen eingeteilt [8+12], kann sein, daß ein Teil davon durchaus PCIe4 könnte, das aber für die Mobilteile aus Stromspargründen nicht aktiv ist), Matisse 24 (von AM4 nach außen geführt, auf dem IO-Die sind zwar 32 verbaut, hilft einem bloß nicht weiter, weil der Sockel keine Pins dafür hat).

Brillus
2020-05-05, 17:00:28
:confused:
Renoir hat offenbar 20 aktive Lanes (die sind in 2 optisch unterschiedliche [und auch pro Lane flächenmäßig unterschiedlich große!] Gruppen eingeteilt [8+12], kann sein, daß ein Teil davon durchaus PCIe4 könnte, das aber für die Mobilteile aus Stromspargründen nicht aktiv ist), Matisse 24 (von AM4 nach außen geführt, auf dem IO-Die sind zwar 32 verbaut, hilft einem bloß nicht weiter, weil der Sockel keine Pins dafür hat).

Sind Matisse nicht 24 + 4(für Chipsatz)?

unl34shed
2020-05-05, 17:17:23
Nein 24: 16 (GPU) + 4 (SSD) + 4 (Chipsatz)
Die alten APUs 16: 8 (GPU) + 4 (SSD) + 4 (Chipsatz)
Renoir hat 20: 8 (GPU) + 4 (SSD) + 4 (SSD2) + 4 (Chipsatz)

y33H@
2020-05-05, 18:19:49
Ich bin beeindruckt vom 3300X, gerade mit Blick auf den 1600[AF] ...

robbitop
2020-05-05, 18:24:04
Wie schlägt er sich denn eigentlich gegen Intel's 4C / 8T CPUs? Bspw den 7700K.

y33H@
2020-05-05, 18:29:33
Das siehst du am Donnerstag =) laut AMD ist 3300X > 7700K.

robbitop
2020-05-05, 18:32:51
Da bin ich aber gespannt. :) Der 7700K taktet ja leicht höher out of the box (4,5 GHz Turbo vs 4,3 GHz Turbo) und hat den schnellen Ringbus. Andererseits ist Zen 2 pro Takt etwas stärker, sofern ihm die IF nicht auf die Füße fällt.

y33H@
2020-05-05, 18:37:31
Ich sag mal Secret Sauce :tongue:

basix
2020-05-05, 19:26:50
Ich sag mal Secret Sauce :tongue:

Jiggahertz!!! ;D

Ravenhearth
2020-05-05, 19:30:29
Dass beim 3300X alle Kerne in dem selben CCX liegen, kanns allein nicht sein, oder? :uponder:

y33H@
2020-05-05, 19:32:51
Nun ... CCX zu CCX muss über das IOD ;-)

basix
2020-05-05, 19:45:33
Ein kostengünstiges Design (warum sollte monolithisch eigentlich kostengünstiger sein wenn es doppelt so groß ist?) bringt nichts in einer Situation, wo es eine limitierte Zahl Wafer in 7nm gibt. Die Mehrkosten für einen 14nm Chip ermöglichen doppelt so viele 7nm 8-Core SKUs bei selber 7nm Wafer-Zahl.
Wer hier die Packaging-Kosten dagegen rechnet, der muss auch klar sehen, dass ich entweder 10.000 8-Cores und keine größeren Chips verkaufen kann oder 20.000 8-cores und größere Chips verkaufen kann - da brauch ich nicht über die Kosten einer einzelnen SKU, verglichen mit Chiplets, nachdenken als Unternehmen. Habe ich R&D für die zusätzlich optimierten monolithischen SKUs und habe ich da ein TAM das ich adressieren kann, dann mache ich das. Das bringt AMD dennoch in keiner Weise zu einer "Entweder/Oder"-Frage.

Chiplets sind gesetzt. Alles andere wird darum herum konzipiert und optimiert, wo nötig. Renoir ist dafür ein perfektes Beispiel. PCIe3, Vega, weniger Shader der GPU etc., stromoptimiert.

Keiner sagt dass Renoir kostengünstiger als das Zen 2 CCD ist. Aber in etwa ähnlich teuer wie CCD+IOD, und dass sind total 200mm2 und höhere Packaging Kosten. Unter dem Strich wird sich das in $$$ nicht viel nehmen, das war die Aussage (zumindest habe ich so interpretiert). Limitierte 7nm Waferkapazität, Aufbau des Produktstacks sind ein ganz anderes Thema, das Stand gar nicht zur Diskussion. Es ist wohl allen klar, dass dort Chiplets einen grossen Vorteil bieten.

Monolithisch Renoir hat Vorteile bei Stromverbrauch, Package Grösse und man hat eine iGPU. Alles für Mobile sehr wichtige Parameter. Vergleichsbasis wäre ein mIOD ("Mobile IOD" mit iGPU) zusammen mit dem Zen 2 CCD. Das wäre wohl nicht günstiger als Renoir geworden (egal ob 7nm oder 12nm mIOD) und kommt noch mit Nachteilen bei den oben genannten Parameter daher. Solange man bei Mobile nicht auch mit mindestens 2x CCD arbeitet, ist monolithisch eben unter dem Strich nicht teurer und evtl. sogar günstiger. 7nm Waferkapazität mal ausgeklammert.

Bei Desktop und Server sieht das aber ganz anders aus. Hier macht das CCD Design auch ökonomisch Sinn und den Bonus, die 7nm Kapazität zu entlasten, kommt noch oben drauf (neben GloFo WSA etc. ;))

Nun ... CCX zu CCX muss über das IOD ;-)
Ich nehme dich wörtlich: 3D Die Stacking confirmed :D

(Oder langweiliger: Es ist dennoch das 1x CCX Design, optimierte Firmware, irgendwelche IF "Abkürzungen" durch den IOD...)

Ravenhearth
2020-05-05, 19:55:04
Nun ... CCX zu CCX muss über das IOD ;-)
Wenn das wirklich so viel ausmacht, könnte uns mit Zen 3, bei dem es ja nur noch ein 8C-CCX pro CCD geben soll, schon allein dadurch ein schöner Sprung bevorstehen...

basix
2020-05-05, 19:57:49
Wenn das wirklich so viel ausmacht, könnte uns mit Zen 3, bei dem es ja nur noch ein 8C-CCX pro CCD geben soll, schon allein dadurch ein schöner Sprung bevorstehen...

Das habe ich mir auch gedacht. Wäre natürlich nice

Complicated
2020-05-05, 20:20:32
Keiner sagt dass Renoir kostengünstiger als das Zen 2 CCD ist. Aber in etwa ähnlich teuer wie CCD+IOD, und dass sind total 200mm2 und höhere Packaging Kosten. Unter dem Strich wird sich das in $$$ nicht viel nehmen, das war die Aussage (zumindest habe ich so interpretiert). Limitierte 7nm Waferkapazität, Aufbau des Produktstacks sind ein ganz anderes Thema, das Stand gar nicht zur Diskussion. Es ist wohl allen klar, dass dort Chiplets einen grossen Vorteil bieten.
Ja genau das will ich ja damit sagen - die Diskussion um die Kosten mit Packaging und 14nm Diefläche ist eine, die sich bei AMD gar nicht ergibt. Eben wegen der limitierten 7nm-Waferkapazität - diese beiden Fakten nicht in Korrelation zu bringen führt zu dieser ständig wiederkehrenden und ermüdenden Spekulation rund um die Kosten einer einzelnen SKU.

Die Entscheidungsbasis ist nicht in den SKU-Produktkosten. Die Anzahl der Produkte um Marktanteile zu generieren und deren Endkundenpreis entscheiden. Als ob man darüber diskutiert ob man einen besseren Deal mit Äpfeln für 2.- oder 2 Birnen für 3,- macht, während man schon einen Käufer hat der mir für die Birnen das Stück 10,- bezahlt und für die Äpfel das Stück 5,-. Wie kompliziert muss denn meine Kalkulation sein um mir die Lager mit Birnen voll zu stopfen anstatt Äpfel nur weil die billiger im Einkauf sind?

aufkrawall
2020-05-05, 20:32:34
Wenn das wirklich so viel ausmacht, könnte uns mit Zen 3, bei dem es ja nur noch ein 8C-CCX pro CCD geben soll, schon allein dadurch ein schöner Sprung bevorstehen...
Es dürfte sehr wahrscheinlich sein, dass entweder das, oder die seltsame RAM-Schreibleistung für die extreme RAM-Performance-Geilheit in z.B. SotTR verantwortlich ist. Zen 3 8C könnte dann dort in 9900k-Sphären vorstoßen.

amdfanuwe
2020-05-05, 21:25:17
Da war doch was mit dem Packaging
https://www.techpowerup.com/img/QI2c37SbbGTGKPf3.jpg
-Substrate manufacture is challanged as well
- Only two vendors of microPGAs in the World

Chiplets direkt aufs billige Mainboard ist also nicht.
Chiplets diasqualifizieren sich somit erst mal für Projekte, die das Verlöten der Chips direkt aufs Mainboard forden (Notebooks, Konsolen) wegen der Höhe oder Kosten.

amdfanuwe
2020-05-05, 21:32:12
Das siehst du am Donnerstag =) laut AMD ist 3300X > 7700K.
Donnerstag, da war doch was?
Ah, ja. Sinngemäß: "Wenn man später plant auf ZEN3 aufzurüsten sollte man sich jetzt keinen 3600 kaufen ...."

es reicht auch ein günstigerer 3100 oder 3300X, der in Games die gleiche Leistung bringt.
Also Sockel Thema erledigt.

Berniyh
2020-05-05, 21:37:24
Da war doch was mit dem Packaging
https://www.techpowerup.com/img/QI2c37SbbGTGKPf3.jpg
-Substrate manufacture is challanged as well
- Only two vendors of microPGAs in the World

Chiplets direkt aufs billige Mainboard ist also nicht.
Chiplets diasqualifizieren sich somit erst mal für Projekte, die das Verlöten der Chips direkt aufs Mainboard forden (Notebooks, Konsolen) wegen der Höhe oder Kosten.
Ja ist definitiv so. Wobei sich hier sicherlich auch einiges in den nächsten Jahren bewegen wird.
War halt bislang auch wenig Bedarf da. ;)

Gipsel
2020-05-05, 22:23:24
Da war doch was mit dem Packaging
https://www.techpowerup.com/img/QI2c37SbbGTGKPf3.jpg
-Substrate manufacture is challanged as well
- Only two vendors of microPGAs in the World

Chiplets direkt aufs billige Mainboard ist also nicht.
Chiplets diasqualifizieren sich somit erst mal für Projekte, die das Verlöten der Chips direkt aufs Mainboard forden (Notebooks, Konsolen) wegen der Höhe oder Kosten.Du kannst immer die Chiplets auf ein Substrat löten, was dann auf das eigentliche (billige) Board gelötet wird. Das ist heutzutage sowieso praktisch schon bald die Standardprozedur (kleiner Pitch auf kleinem [ein paar cm²] Interposer PCB sind billiger, als das für ein großes Board zu ermöglichen) und dürfte um so mehr zutreffen, wenn man zu noch kleineren Pitches übergeht (130µm sind definitv nicht das Limit, deutlich weniger als das wurden getestet und sind auch verfügbar).

Screemer
2020-05-05, 23:27:16
Ich bin beeindruckt vom 3300X, gerade mit Blick auf den 1600[AF] ...
Ach komm man. Vor 6 Wochen hab ich nen af gekauft der sich nicht takten lässt ;(

amdfanuwe
2020-05-05, 23:29:11
Kann man, rechnet sich aber für die Konsolen wohl nicht.

Leonidas
2020-05-06, 10:29:13
Und wenn Intel wieder Erwarten mit 7nm schneller vorankommt werden die das nicht an die große Glocke hängen. Da kann RKL schnell getrichen werden.


Grundsätzlich hast Du ja recht - aber: Wann ist zuletzt mal etwas vorfristig fertiggeworden?

Und eine bereits derart nahe Architektur wie Rocket Lake streicht niemand mehr. Eher streicht man den Nachfolger unter 10nm (Alder Lake) und bringt Meteor Lake (7nm) früher.

Gipsel
2020-05-06, 10:31:35
Kann man, rechnet sich aber für die Konsolen wohl nicht.Da wird das schon längst so gemacht ;).
Schau Dir doch mal die Mainboards der Konsolen an! Chip wird (mit kleinem Pitch der Kontakte) auf ein kleines PCB gelötet (das trägt dann auch den Metallrahmen), welches wiederum (mit etwas größerem Pitch) auf das Mainboard gelötet wird. Das funktioniert da ganz genau so wie z.B. auch bei Grafikkarten (wo die GPU auch auf einem kleinen extra PCB sitzt, welches dann auf das GraKa-Board aufgelötet wird). Im Prinzip gibt es anstelle der Pins bzw. Kontaktpads bei CPUs unterhalb der kleinen PCBs einfach Lötpads. Das war es aber auch schon so ziemlich mit den Unterschieden. Die Flip-Chip-Dies werden praktisch nirgendwo direkt auf Mainboards gelötet.

Piefkee
2020-05-06, 11:17:54
https://youtu.be/JioP7tJIxd8?t=6851

Update zu Kompablität zu Zen3 und älteren MoBos...

Question war: Er hat ein B450 und einen 1700x den er gerne updaten möchte. Soll er 3900x oder auf Zen3 warten. Antwort: "Warte auf Donnerstag...Äh weil du B450 hast und naja Zen3...Warte einfach auf Donnerstag...

w0mbat
2020-05-06, 11:19:37
Darüber wird seit zwei Seiten diskutiert...

Piefkee
2020-05-06, 11:23:48
Darüber wird seit zwei Seiten diskutiert...

Ja aber das Video ist neu und die Frage beiziehungsweise die Antwort des TechDeal Kollegen etwas konkreter...

w0mbat
2020-05-06, 11:36:44
Ja, das stimmt, ist wirklich ziemlich klar, dass Zen3 nicht auf 300/400 Boards laufen wird. Ich bin gespannt was für ein Grund dafür wohl herhalten soll und ich muss sagen, das stört mich dann doch ziemlich (außer es gibt einen wirklich handfesten technischen Grund). Mein Plan war ein 8C/16T Zen3 auf mein B450 zu schnallen...

Piefkee
2020-05-06, 11:45:30
Ja, das stimmt, ist wirklich ziemlich klar, dass Zen3 nicht auf 300/400 Boards laufen wird. Ich bin gespannt was für ein Grund dafür wohl herhalten soll und ich muss sagen, das stört mich dann doch ziemlich (außer es gibt einen wirklich handfesten technischen Grund). Mein Plan war ein 8C/16T Zen3 auf mein B450 zu schnallen...


Ehrlich gesagt denke ich wird die Sache etwas anders kommen.
AMD wird Zen3 Support nur auf X570,X670, B550, B650, A620 garantieren. Via BIOS Update auf den 500 Brettern. Ob auch B450, X470 Support erhalten wird an den Mainboard herstellern liegen.

Es ist denke ich ein ziemlicher Aufwand z.b. Support bei einen B350 Board für Zen, Zen+ ,Zen2 und Zen3 via Bios sicherzustellen. Darauf werden die Mobo Hersteller keinen Bock haben. Wahrscheinlich werden nur die Top 470 und 450 Support erhalten.

JVC
2020-05-06, 11:48:20
Ja, das stimmt, ist wirklich ziemlich klar, dass Zen3 nicht auf 300/400 Boards laufen wird....
Das überrascht mich jetzt doch etwas... will ich noch nicht so recht glauben...

Naja, da werde ich wohl nach nem guten 550/650 suchen müssen :(
PCIE 4.0 für eine SSD und die GPU hätt ich ja sowieso gerne ;)

Werden halt 2 Rechner aus dem ursprünglich geplanten :biggrin:

M.f.G. JVC

w0mbat
2020-05-06, 11:55:47
In 27 Stunden wissen wir mehr.

Brillus
2020-05-06, 12:09:20
Was hab ich verpasst was ist am Donnerstag?

unl34shed
2020-05-06, 12:10:28
300er Boards hatten teils noch kleinen Flash und schon bei Zen2 Probleme. Wird vermutlich noch schwerer da dann Zen3 rein zu quetschen.

Ravenhearth
2020-05-06, 12:13:49
Ja, das stimmt, ist wirklich ziemlich klar, dass Zen3 nicht auf 300/400 Boards laufen wird. Ich bin gespannt was für ein Grund dafür wohl herhalten soll und ich muss sagen, das stört mich dann doch ziemlich (außer es gibt einen wirklich handfesten technischen Grund). Mein Plan war ein 8C/16T Zen3 auf mein B450 zu schnallen...
Das hatte ich auch vor.

x-dragon
2020-05-06, 12:27:50
300er Boards hatten teils noch kleinen Flash und schon bei Zen2 Probleme. Wird vermutlich noch schwerer da dann Zen3 rein zu quetschen. Hab bisher nur von MSI gehört, die ja dafür ihre MAX-Bretter aufgelegt haben, aber ansonsten fand ich war es da relativ ruhig bisher ...Oder hab ich was verpaßt?

Noebbie
2020-05-06, 12:33:58
Auf meinem MSI B450M Gaming Plus ist jetzt schon kein Platz mehr (16mb) im Bios. Es ist abgespeckt und ältere CPUs werden im aktuellen Bios nicht unterstützt. Denke mal das ist dann okay.

Die Hersteller müssten dann über Jahre ettliche Boards supporten die ggf. bei vielen schon wieder das Gehäuse verlassen haben.

Berniyh
2020-05-06, 12:37:13
Ich kann mir das ehrlich gesagt nicht so richtig vorstellen, aber mal schauen.

Wollte mir eigentlich ein B550 Brett kaufen und darauf dann zunächst einen Zen+ oder Zen2 und später Zen3 installieren.
Aber wenn es so kommen sollte, dann sehe ich vom Kauf erst mal ab …

TheAntitheist
2020-05-06, 12:39:21
Hab bisher nur von MSI gehört, die ja dafür ihre MAX-Bretter aufgelegt haben, aber ansonsten fand ich war es da relativ ruhig bisher ...Oder hab ich was verpaßt?
Ich dachte eher das mit dem letzten AGESA wieder deutlich mehr speicher frei wurde...

amdfanuwe
2020-05-06, 12:55:08
Da wird das schon längst so gemacht ;).

Danke, hab ich absolut übersehen. Ist bei GPUs ja auch üblich.

DeadMeat
2020-05-06, 13:24:05
Ich dachte eher das mit dem letzten AGESA wieder deutlich mehr speicher frei wurde...
Das neueste ist für die klein Chip Boards noch nicht raus, das vorhergehende Bios hat aber immernoch eine ähnliche größe in der abspeck Version. Mal sehen ob und wann das neueste überhaupt kommt, MSI ist bei den Zen2 Bios dingern teilweise Monate hinter Gigabyte.

Screemer
2020-05-06, 13:28:56
Ich dachte eher das mit dem letzten AGESA wieder deutlich mehr speicher frei wurde...
sollte zumindest so sein.


Es ist denke ich ein ziemlicher Aufwand z.b. Support bei einen B350 Board für Zen, Zen+ ,Zen2 und Zen3 via Bios sicherzustellen. Darauf werden die Mobo Hersteller keinen Bock haben. Wahrscheinlich werden nur die Top 470 und 450 Support erhalten.
mit agesa 1.0.0.5 muss man nur noch einen codepfad einpfelgen. vorher war es wohl so, dass man alle patches und codepfade einzeln im bios unterbringen musste. hoher pflegeaufwand und jedes mal mit neuem agesa der spaß von vorne. agesa 1.0.0.5 gibt's ja zumindest von msi schon für einzelne boards. die frage ist obs in 16mb passt.

https://www.reddit.com/r/Amd/comments/gafbd2/agesa_1005_community_update/

w0mbat
2020-05-06, 14:04:29
Es passt 100% in 16MB, wahrscheinlich würden auch 8MB reichen. Die Frage ist, wie viel anderes Zeugs die OEMs da noch drauf klatschen.

Zossel
2020-05-06, 17:41:20
Eigentlich gehört dieser ganze UEFI/Bios Kram auf den Müll und es muß endlich Coreboot her.

x-force
2020-05-06, 17:58:23
Es passt 100% in 16MB, wahrscheinlich würden auch 8MB reichen. Die Frage ist, wie viel anderes Zeugs die OEMs da noch drauf klatschen.

was wäre so ein optionaler bestandteil?

w0mbat
2020-05-06, 18:42:40
UI, apps (instant flash, RGB, "gaming-bs"), etc.

w0mbat
2020-05-07, 15:04:38
:mad:

Edit: ok, laut dieser Liste geht Zen2 auch nicht auf 300er boards, was nicht stimmt. Ich gehe daher davon aus, dass wir die gleiche Situation wie letztes Jahr haben, wenn es ein BIOS-Update gibt, dann läuft es auch.

Grendizer
2020-05-07, 15:13:33
Passend dazu:

https://www.heise.de/newsticker/meldung/AMD-Ryzen-3000-Luefterlose-B550-Mainboards-mit-PCI-Express-4-0-4716611.html

rentex
2020-05-07, 15:21:55
@Grendizer Dann ist es wohl offiziel. Kein ZEN3 auf 300/400 Boards. Ist ok.

w0mbat
2020-05-07, 15:24:15
Nochmal: die Angaben sind falsch, da laut AMD Zen2 nicht auf 300er Mobos läuft, was nicht stimmt.

Der_Korken
2020-05-07, 15:24:22
pffft

Dann wird im Zweifelsfall noch ein 3900X im Abverkauf ergattert. Mal schauen, woran es bei den 400er Chipsätzen wirklich hapert. Die meisten Boards haben einen 32MB-Chip für das BIOS, inklusive meinem, während einige (vor allem von MSI) nur 16MB haben und deswegen Probleme mit dem gleichzeitigen Support hatten. Wäre schon witzig wenn die Schnarchnasen bei Asus am Ende doch ein Zen3-BIOS für die 400er Boards stricken, weils einfach geht.

Grendizer
2020-05-07, 15:24:37
@Grendizer Dann ist es wohl offiziel. Kein ZEN3 auf 300/400 Boards. Ist ok.


Was nervt ist aber auch die Geschichte, das kein Xen 1 auf den B550 Boards.... ich habe noch einen 1700X und wollte mein B350 gegen ein 550 Board tauschen um dann in einem 2. Schritt dann mal die CPU zu tauschen.

Habe Probleme mit meiner DSLR und USB 3.0 an dem Asus B350 Prime Board...

Zitat heise.de:

Mit dem B550-Chipsatz nimmt AMD einen ungewohnt harten Schnitt vor: Auf entsprechenden Mainboards laufen ausschließlich Prozessoren mit Zen-2- und kommender Zen-3-Architektur, also keine Ryzen 2000 oder Ryzen 3000G (mit integrierter Grafikeinheit). Zudem gibt AMD die nächste Generation Zen 3 alias Ryzen 4000 nur noch für die 500er-Serie frei, nicht aber für 400er- und 300er-Mainboards. Konkrete Gründe für diesen Schritt nennt AMD nicht. Der Speicherplatz der BIOS-Chips dürfte in die Entscheidung hineinspielen, da es bei Ryzen 3000 auf X470 und B450 schon Platzprobleme gab.

TheAntitheist
2020-05-07, 15:25:36
@Grendizer Dann ist es wohl offiziel. Kein ZEN3 auf 300/400 Boards. Ist ok.
Ich finds nicht okay, da AMD von Anfang an versprochen hat das AM4 bis 2020 unterstützt wird. Und damit meinten die das Zen3 auf den 300er Boards läuft womit sie ja dann klar gelogen hätten. Wie bei den Features der RDNA GPUs die niemals liefen... Ich wollte mir fast ein 470er board für meinen 3900x kaufen wegen dem scheiss lüfter. Dann hätte ich ja jetz wieder ein neues Board kaufen müssen. Nö sowas ist ein Nogo was die da machen.

Bei jedem Produktrelease leistet nicht AMD immer einen riesen Schnitzer, die sind doch selber Schuld das sie so so bescheiden da stehen... Ich versteh die Leute da einfach nicht, immer falsche Versprechen.

HOT
2020-05-07, 15:25:50
Nochmal: die Angaben sind falsch, da laut AMD Zen2 nicht auf 300er Mobos läuft, was nicht stimmt.
Das ist offizieller Support und das stimmt sehr wohl. Es ist jedoch Mobo-Herstellern freigestellt, was wo läuft. So hat Gigabyte z.B. die RR 2k-CPUs mittlerweile auch offiziell für X570 freigegeben, obwohl AMD das offiziell nicht supportet. Auch die B550-Bretter werden sicherlich für R2k von einigen Herstellern freigegeben, jedenfalls könnt ich mir das gut vorstellen.

w0mbat
2020-05-07, 15:31:35
Offiziell unterstützen die 300er Mobos Zen2 nicht, die meisten haben trotzem updates bekommen.

Die Liste zeigt, welche Mobos welche CPUs unterstützen müssen, nicht welche untersützt werden können.

Das ist ein Unterschied, nur so als Info :)

Es war doch vollkommen klar, dass der offizielle Support endet, genauso wie es bei den 300er Mobos mit Zen2 geendet ist. Das wussten wir schon.

Es geht um die Frage ob es technisch nicht möglich ist.

Der_Korken
2020-05-07, 15:33:17
Was nervt ist aber auch die Geschichte, das kein Xen 1 auf den B550 Boards.... ich habe noch einen 1700X und wollte mein B350 gegen ein 550 Board tauschen um dann in einem 2. Schritt dann mal die CPU zu tauschen.

Das schöne ist ja, dass ein zum Zen3-Release neu gekauftes B550-Board wahrscheinlich noch ein altes BIOS ohne Zen3-Support haben wird. Genauso die X570er Boards. Theoretisch müsste man sich dann erst eine Zen2-CPU zum Flashen ausleihen, damit man anschließend die eigentliche CPU verbauen kann. Ich sollte mir für den Zen3-Release wohl etwas Popcorn bereitlegen ;D.

rentex
2020-05-07, 15:36:23
Ich finds nicht okay, da AMD von Anfang an versprochen hat das AM4 bis 2020 unterstützt wird. Und damit meinten die das Zen3 auf den 300er Boards läuft womit sie ja dann klar gelogen hätten. Wie bei den Features der RDNA GPUs die niemals liefen... Ich wollte mir fast ein 470er board für meinen 3900x kaufen wegen dem scheiss lüfter. Dann hätte ich ja jetz wieder ein neues Board kaufen müssen. Nö sowas ist ein Nogo was die da machen.

Bei jedem Produktrelease leistet nicht AMD immer einen riesen Schnitzer, die sind doch selber Schuld das sie so so bescheiden da stehen... Ich versteh die Leute da einfach nicht, immer falsche Versprechen.

Mal ehrlich, AMD hat in Sachen MB Kompatibilität, deutlich mehr geboten als der direkte Konkurrent. Das man nicht ewig, ältere CPUs mitziehen möchte ist verständlich und sinnvoll. Ich kann nur den Release von ZEN2 mit X570 bewerten und der war für mich unproblematisch. Was wollt ihr denn mehr?

x-force
2020-05-07, 15:38:14
UI, apps (instant flash, RGB, "gaming-bs"), etc.

kennst du ein zen mainboard, daß kein ui und kein instant flash hat?

HOT
2020-05-07, 15:42:19
Das schöne ist ja, dass ein zum Zen3-Release neu gekauftes B550-Board wahrscheinlich noch ein altes BIOS ohne Zen3-Support haben wird. Genauso die X570er Boards. Theoretisch müsste man sich dann erst eine Zen2-CPU zum Flashen ausleihen, damit man anschließend die eigentliche CPU verbauen kann. Ich sollte mir für den Zen3-Release wohl etwas Popcorn bereitlegen ;D.
MMn wird der neue AGESA auch mit Zen3 schon starten, die 0072 damals. Flashen wird man schon können.

aufkrawall
2020-05-07, 15:45:12
Das schöne ist ja, dass ein zum Zen3-Release neu gekauftes B550-Board wahrscheinlich noch ein altes BIOS ohne Zen3-Support haben wird. Genauso die X570er Boards. Theoretisch müsste man sich dann erst eine Zen2-CPU zum Flashen ausleihen, damit man anschließend die eigentliche CPU verbauen kann. Ich sollte mir für den Zen3-Release wohl etwas Popcorn bereitlegen ;D.
Es gibt Händler, die das Pre-Flashen für einen akzeptablen Betrag als Dienstleistung anbieten.

w0mbat
2020-05-07, 15:45:14
kennst du ein zen mainboard, daß kein ui und kein instant flash hat?
Es geht darum, wie das gelöst wird. ASRock braucht für die UI zB deutlich weniger Platz als z.B. MSI.

Piefkee
2020-05-07, 15:48:36
Das schöne ist ja, dass ein zum Zen3-Release neu gekauftes B550-Board wahrscheinlich noch ein altes BIOS ohne Zen3-Support haben wird. Genauso die X570er Boards. Theoretisch müsste man sich dann erst eine Zen2-CPU zum Flashen ausleihen, damit man anschließend die eigentliche CPU verbauen kann. Ich sollte mir für den Zen3-Release wohl etwas Popcorn bereitlegen ;D.


X570 und B550 bekomen AGESA...
Und zum Start von Zen3 gibt es A620 B650 und X670

x-force
2020-05-07, 15:49:07
Ich sollte mir für den Zen3-Release wohl etwas Popcorn bereitlegen ;D.

amd sollte aus der erfahrung gelernt haben und für käufer zumindest die erste packung kostenlos beilegen ;D

dildo4u
2020-05-07, 15:52:10
X570 und B550 bekomen AGESA...
Und zum Start von Zen3 gibt es A620 B650 und X670
Es kommt niemals B650 5 Monate nach B550,es gibt höstens ein neuen High-End Chipsatz der keine Lüfter mehr braucht.

Linmoum
2020-05-07, 15:53:51
Ich finds nicht okay, da AMD von Anfang an versprochen hat das AM4 bis 2020 unterstützt wird. Und damit meinten die das Zen3 auf den 300er Boards läuft womit sie ja dann klar gelogen hätten. Wie bei den Features der RDNA GPUs die niemals liefen... Ich wollte mir fast ein 470er board für meinen 3900x kaufen wegen dem scheiss lüfter. Dann hätte ich ja jetz wieder ein neues Board kaufen müssen. Nö sowas ist ein Nogo was die da machen.Source or it didn't happen bzgl. der Aussage für Zen3 und AM4. Davon ab wird AM4 ja auch weiterhin unterstützt. ;)

Ansonsten siehe w0mbats Aussage, laut AMD kein offizieller Zen2-Support für 3xx. Die Realität ist eine andere und (fast?) jedes Board läuft problemlos mit einem Zen2.

amdfanuwe
2020-05-07, 16:24:52
Ich finds nicht okay, da AMD von Anfang an versprochen hat das AM4 bis 2020 unterstützt wird.
Wir haben 2020 und AM4 wird immer noch unterstützt.
Wo ist das Problem?

Grendizer
2020-05-07, 16:30:34
Wir haben 2020 und AM4 wird immer noch unterstützt.
Wo ist das Problem?


Ich mag AMD, sonst hätte ich keinen 1700X aber das Zusammenspiel von AM4 Boards und CPUs war in den letzten Jahren echt ein Trauerspiel.

Das Thema X570 und Xen 1 war so richtig lustig... geht, geht lange nicht und dann kam der Athlon 3000G ....

Egal ... Intel war da in der Vergangenheit genauso ätzend, also warum besseres von AMD erwarten ?

amdfanuwe
2020-05-07, 16:31:43
Ich schätze, da wird einiges missverstanden.
AMD wirbt bei 500er Boards mit PCIe 4.0 und das wird nunmal erst ab 3000er CPU Serie geboten.
Ebenso werden sie mit PCIe bei der 4000er Serie werben und funktioniert dann nur auf 500er Boards.
Also mal abwarten, ob die Hersteller auf neuen Boards auch alte CPUs unterstützen bzw. auf alten Boards neue CPUs mit einschrämkung auf PCIe 3.0.

Spannend finde ich jetzt, wie das mit Renoir läuft. Hat der nun PCIe 4.0 oder nicht?
Hat der nur 8 Lanes für GPU wie die APUs bisher oder komplette 16 Lane GPU Anbindung?

amdfanuwe
2020-05-07, 16:50:13
Ich mag AMD, sonst hätte ich keinen 1700X aber das Zusammenspiel von AM4 Boards und CPUs war in den letzten Jahren echt ein Trauerspiel.


Ist das nicht eher ein akademisches Problem?
Man wechselt CPUs oder Boards ja nicht wie die Unterhosen.
Ich habe in den letzten 30 Jahren nur einmal die CPU aufgerüstet. Ansonsten wurde immer ein neues Sytem fällig.
Habe auch immer gedacht, ich könnte ja mal aufrüsten. Aber wenn es dann soweit war boten neue Prozessoren und Boards zuviele neue Features, die ein Aufrüsten nicht lohnenswert machten ( Speicher, USB etc.)
OK, kann auch daran liegen, dass ich nur aufrüste, wenn wirklich Bedarf besteht.
Aktuell habe ich ein 350er Board mit 1600X. Board extra mit dem Gedanken ausgesucht später als zweit PC mal eine APU reinzustecken und daher auf DisplayPort geachtet.
Wird aber wohl nichts werden.

robbitop
2020-05-07, 17:12:54
Also mein steinaltes Billig B350 ASRock Board von 2017 unterstützt Zen, Zen+ und Zen2. Ich könnte da einen 16C einbauen... Das ist schon mehr als man von Intel gewohnt war. Mal schauen, ob ASRock auch ein Zen 3 BIOS schreibt. Deren BIOS Support ist mMn wirklich echt gut.

w0mbat
2020-05-07, 19:04:05
https://community.amd.com/community/gaming/blog/2020/05/07/the-exciting-future-of-amd-socket-am4

Das liest sich wiederum so, also ob AMD Zen3 support auf 300/400er Mobos verbieten würde. Wäre mal mega schäbig!

Linmoum
2020-05-07, 19:12:20
Steht doch klar und deutlich da, warum.
AMD has no plans to introduce “Zen 3” architecture support for older chipsets. While we wish could enable full support for every processor on every chipset, the flash memory chips that store BIOS settings and support have capacity limitations. Given these limitations, and the unprecedented longevity of the AM4 socket, there will inevitably be a time and place where a transition to free up space is necessary—the AMD 500 Series chipsets are that time.
Der Grund an sich ist nachvollziehbar/logisch, da das Platzproblem halt schlicht auch Realität ist.

Es würde mich aber nicht überraschen, wenn es auf entsprechenden Boards/bei entsprechenden Herstellern (z.B. den MSI MAX) trotzdem läuft und BIOS-Support gibt. Die MAX beispielsweise sind ja extra mit 32MiB ausgestattet worden.

Schnoesel
2020-05-07, 19:12:54
Wenn sie es verbieten würden, was nirgendwo steht, dürfte Zen 2 auch nicht auf meinem X370/B350 Board laufen, tut er aber... Es wird nicht supported, das ist schon ein Unterschied.

w0mbat
2020-05-07, 19:16:42
Steht doch klar und deutlich da, warum.

Der Grund an sich ist nachvollziehbar/logisch, da das Platzproblem halt schlicht auch Realität ist.

Es würde mich aber nicht überraschen, wenn es auf entsprechenden Boards/bei entsprechenden Herstellern (z.B. den MSI MAX) trotzdem läuft und BIOS-Support gibt. Die MAX beispielsweise sind ja extra mit 32MiB ausgestattet worden.
Genau das ist ja die Frage: dürfen die Hersteller, oder dürfen sie es nicht.

Blediator16
2020-05-07, 19:22:45
Genau das ist ja die Frage: dürfen die Hersteller, oder dürfen sie es nicht.


AMD has no plans to introduce “Zen 3” architecture support for older chipsets. While we wish could enable full support for every processor on every chipset, the flash memory chips that store BIOS settings and support have capacity limitations. Given these limitations, and the unprecedented longevity of the AM4 socket, there will inevitably be a time and place where a transition to free up space is necessary—the AMD 500 Series chipsets are that time.

Wir wissen bis heute garnichts über die neue Generation. Ich denke AMD würde gerne alle AM4 Boards/Chipsätze supporten. Könnte am Ende wirklich an den Pfennigfuchsern scheitern, die nur kleine Bios Chips verbaut haben.

TheAntitheist
2020-05-07, 19:29:35
Wir haben 2020 und AM4 wird immer noch unterstützt.
Wo ist das Problem?
ja ok AM4 wird noch unterstützt aber ich muss dennoch ein neues Board kaufen für Zen3... was bringt der AM4 support bis 2020 wenn ich dennoch immer wieder ein neues Board kaufen muss, dann können sie auch AM5 auflegen...
Fanboy gequatsche mal wieder.

w0mbat
2020-05-07, 19:30:44
Muss man halt AM4v2 kaufen ;)