Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3, 7 nm, 2020 (Vermeer, Cezanne, Genesis Peak & Milan)
Complicated
2020-09-12, 16:08:24
Die gibt es. Fraglich ist ob diese Leute das erzählen was du erzählst. Quellen helfen solche Behauptungen in Kontext zu bringen. Denn es gibt Leute die hauen in Foren einfach mal BS raus und schaffen es dann 3 Beiträge lang drumherum zu lavieren. Beleg doch mal deine Behauptung.
Zeig doch mal die EPYC Stromschlucker die du meinst...wo sollen die denn im Einsatz sein?
Armaq
2020-09-12, 17:42:10
Die gibt es. Fraglich ist ob diese Leute das erzählen was du erzählst. Quellen helfen solche Behauptungen in Kontext zu bringen. Denn es gibt Leute die hauen in Foren einfach mal BS raus und schaffen es dann 3 Beiträge lang drumherum zu lavieren. Beleg doch mal deine Behauptung.
Zeig doch mal die EPYC Stromschlucker die du meinst...wo sollen die denn im Einsatz sein?
Was er sagt klingt überhaupt nicht so verkehrt. Zumal man das mit einem Ryzen sogar nachvollziehen kann, wenn man mal weniger und mehr Speicher steckt. Der IO hat einen ordentlichen Bedarf. Hast du überhaupt einen 8 oder 12/16 Kerner?
Complicated
2020-09-12, 17:56:14
Da ich schrieb mit der skalierung über 16 Kerne hinaus zeigt sich dass Intel mehr Strom verbraucht ist das natürlich mit 8 Kernen eher nicht zu testen. Lies doch einfach den Test bei Anandtech den ich verlinkt habe. Alles andere ist ja bisher hier ohne irgendwelche Zahlen. Geh mal von verfügbaren Werten aus. Es ist der selbe IO. Erste Generation.
Es reicht um den Unsinn mit explodierendem Verbrauch zu widerlegen wenn die CPUs grösser werden.
Armaq
2020-09-12, 18:11:17
Da ich schrieb mit der skalierung über 16 Kerne hinaus zeigt sich dass Intel mehr Strom verbraucht ist das natürlich mit 8 Kernen eher nicht zu testen. Lies doch einfach den Test bei Anandtech den ich verlinkt habe. Alles andere ist ja bisher hier ohne irgendwelche Zahlen. Geh mal von verfügbaren Werten aus. Es ist der selbe IO. Erste Generation.
Es reicht um den Unsinn mit explodierendem Verbrauch zu widerlegen wenn die CPUs grösser werden.
Warst du jemals in einem Datacenter? Sorry aber ein Artikel verlinken und sich als Held hinstellen ist irgendwie arm.
Nimm mal an er hat recht, was wäre das nur für ein Wunder?
Und natürlich ballert der IO mehr bei 64 Kernen und bei mehr Kanälen, denn er arbeitet ja schon bei kleineren Stufen merkbar härter. Wenn bei 12 Kernen der Ramtakt MESSBAR Einfluss auf den Verbrauch hat (DDR2133 vs 3600), dann werden mehr Kanäle auch mehr Saft ziehen. Schau im Zen2 Thread, da hab ich alles davon mit Screenshots belegt.
Du hast die nicht unwichtigen Fragen übrigens ignoriert - ergo kannst du selbst nichts testen, kannst nichts beitragen außer deine Meinung breittreten indem du einen dir passenden Artikel verlinkst. PRIMA
Keiner hat dein Reizwort Intel erwähnt ...
eratte
2020-09-12, 18:19:01
Ist das jetzt die neue Masche das wenn man etwas selber nicht hat man nicht mit diskutieren oder gar spekulieren (dann hat es btw noch gar keiner) darf? Artikel von Leute die garantiert Ahnung haben zählen ja auch nicht.
Complicated
2020-09-12, 20:05:23
Warst du jemals in einem Datacenter? Sorry aber ein Artikel verlinken und sich als Held hinstellen ist irgendwie arm.
...
Irrelevante Frage. Aber ich bin seit 30 Jahren in Datacentern unterwegs.
Aktuell habe ich Zugriff auf über 5000 Server und über 10.000 Clients die zentral administriert werden.
Was ändert das an den Testwerten von Anandtech und der Möglichkeit Links als Quelle zu verlinken?
robbitop
2020-09-12, 20:18:43
Als wenn die Anwesenheit oder Arbeit im Datenzentrum (egal wie lange) zu diesem Thema besondere Qualifikationen bringen würde. Messungen, Zahlen, Daten, Fakten sind das Einzige was zählt.
Complicated
2020-09-12, 23:17:23
Im Gegenteil - die meisten die im Datacenter arbeiten haben leider erschreckend wenig Hardwarekenntnisse. Man sollte mal hören was für Unfug da teilweise kursiert. Erschreckend.
Armaq
2020-09-13, 00:15:42
Ist das jetzt die neue Masche das wenn man etwas selber nicht hat man nicht mit diskutieren oder gar spekulieren (dann hat es btw noch gar keiner) darf? Artikel von Leute die garantiert Ahnung haben zählen ja auch nicht.
Das passiert wenn man nicht auf den Diskussionspartner eingeht und stur poltert. Was gesagt wurde macht Sinn, da braucht man nicht rumflamen und Quellen fordern, weil es einem nicht in den Kram passt. Diese Fanboynummer ist einfach nicht mehr zum aushalten.
Damit vergrault man Leute, die durchaus was beisteuern können.
Edit: Es gibt Messungen die das bestätigen in kleinerer Skala hier im 3DC. Was für ne Quelle soll valider sein? IO braucht Saft und das gar nicht so unerheblich im Vgl. zu den Chiplets.
Als wenn die Anwesenheit oder Arbeit im Datenzentrum (egal wie lange) zu diesem Thema besondere Qualifikationen bringen würde. Messungen, Zahlen, Daten, Fakten sind das Einzige was zählt.
Per se nicht, aber das andere Forenmitglied hat doch plausibel etwas erläutert. Warum darf man da drüberpoltern? Es gibt auch genug Fleisch am Knochen, um das Thema auch zuzulassen. Ich mein der Spitzenausbau bei RAM auf der Epyc-Plattform ist nicht gerade klein, IO zieht auch auf Ryzen mitunter das doppelte an Watt (6 zu 11 bei meinem Vgl. so aus dem Kopf). Warum muss ich anandtech zitieren oder eine andere x-beliebige Seite, wenn er das bspw. auf Arbeit gemacht hat?
Edit: Das ist doch ein wirklich interessanter Punkt, den man btw. auch mit Google nicht einfach so findet als Test. Das ist doch worum es hier geht, ich versteh nicht, warum man da so abgeht und dann auch whatabout Intel ruft?
https://www.phoronix.com/scan.php?page=article&item=epyc-rome-power&num=9
Auf Phoronix finde ich nichts zu dem Thema.
https://www.nextplatform.com/2019/08/15/a-deep-dive-into-amds-rome-epyc-architecture/
Das hier spricht zum Teil dafür!
eratte
2020-09-13, 00:25:25
Ich sehe da keine Fanboykarte die du meinst ausspielen zu müssen, nur jede Menge Versuche von dir den anderen zu diskreteren anstatt sachlich darauf einzugehen. Und nicht nur in diesem Thread. Damit verschwinde ich wieder in meine Leserecke.
Complicated
2020-09-13, 00:52:31
Das passiert wenn man nicht auf den Diskussionspartner eingeht und stur poltert. Was gesagt wurde macht Sinn, da braucht man nicht rumflamen und Quellen fordern, weil es einem nicht in den Kram passt.
Du solltest dein Leseverständnis aufbessern. Ich habe eine seriöse Quelle verlinkt die das Gegenteil beweist. Da ist nichts gepoltert, während die Aussage zuvor frei erfunden war. Und du verteidigst eine unbelegte und falsche Behauptung ebenfalls völlig ohne einen technischen Fakt. Wenn du darin einen Sinn siehst, bist du nicht gut genug informiert um zu urteilen wer hier auf welche Weise sich äussern darf - ein Vorbild bist du nicht.
Armaq
2020-09-13, 01:03:49
Du solltest dein Leseverständnis aufbessern. Ich habe eine seriöse Quelle verlinkt die das Gegenteil beweist. Da ist nichts gepoltert, während die Aussage zuvor frei erfunden war. Und du verteidigst eine unbelegte und falsche Behauptung ebenfalls völlig ohne einen technischen Fakt. Wenn du darin einen Sinn siehst, bist du nicht gut genug informiert um zu urteilen wer hier auf welche Weise sich äussern darf - ein Vorbild bist du nicht.
Mir geht es nicht um die Korrektheit sondern: Du entscheidest nicht wer sich äußern darf, darum geht es.
Leseverständnis wird interessant...
Zitat: Betrifft Epyc 7601 (unter dem Load-Pic)
At low loading, out of a total package power of 74.1W, the non-core power consumes 66.2W, or a staggering 89% !
Wie widerlegt denn das jetzt seinen Punkt? Das bestätigt seinen Punkt sogar! Der IO Power Draw ist immens, in dem Test sehe ich noch nichts zu Anzahl der Memory-Channel, lese es mir gerade durch, wenn du dazu was hast, nehm ich gerne.
Ich hoffe stark auf ein neues IOD, denn zumindest was dieses bei den EPYCs an Strom zieht, ist nicht mehr feierlich.
Hier läge dann auch ein ziemlich grosses Potenzial für mehr "IPC" drin - einfach durch das umverlegen des vorhandenen Powerbudgets vom IOD auf die Cores.
Absolut korrekte Schlussfolgerung, wird ja auf deiner (Complicated) Quelle auch angesprochen...
Anandtech-Fazit:
Part of the problem relates to how power is distributed with these big core designs. As shown on page four, the more chiplets that are in play, or the bigger the mesh, the more power gets diverted from the cores to the internal networking, such as the uncore or Infinity Fabric. Comparing the one IF link in the 2950X to the six links in 2990WX, we saw the IF consuming 60-73% of the chip power total at small workloads, and 25-40% at high levels.
In essence, at full load, a chip like the 2990WX is only using 60% of its power budget for CPU frequency. In our EPYC 7601, because of the additional memory links, the cores were only consuming 50% of the power budget at load. Rest assured, once AMD and Intel have finished fighting over cores, the next target on their list will be this interconnect.
Ich versteh es nicht, der Punkt, dass der IO (zuviel) Saft zieht wird doch klar angesprochen. Birdman sagte nur, mehr MemChannel und das braucht noch mehr Saft. Auf diese Aussage finde ich nichts bei anandtech (oder woanders auf die Schnelle). Er hofft auch ein Rebalancing, sodass der IO weniger und die Cores mehr ziehen können. Warum ist das jetzt nicht valide?
TLDR: Die Aussage von Birdman wird auf anandtech im Fazit explizit bestätigt.
Edit:
Es reicht um den Unsinn mit explodierendem Verbrauch zu widerlegen wenn die CPUs grösser werden.
Den hier muss ich zitieren, denn im Fazit der eigenen Quelle steht das Gegenteil. So einen harten Schlag ins eigene Gesicht hab ich selten erlebt.
Anand-Quote²:Part of the problem relates to how power is distributed with these big core designs. As shown on page four, the more chiplets that are in play, or the bigger the mesh, the more power gets diverted from the cores to the internal networking
woodsdog
2020-09-13, 07:40:51
big oof :weg:
Complicated
2020-09-13, 08:18:56
Vielleicht solltest du meinen Beitrag nochmals lesen.
Zitat bitte wo ich jemanden das schreiben hier verbiete oder einschränke. Das ist frei erfunden.
Und dann bitte mein Ursprungsposting:
Bei Vollast ist bei EPYC der Stromverbrauch besser als bei Intels Mesh, schon bei der ersten Version ...
Also darfst du, um mich zu wiederlegen jedes Vollast-Szenario auspacken das du willst...machst du aber nicht. Von daher ist dein Argument am Thema vorbei. Leseverständnis?
Ebenso wie Birdman pickst du dir ein Niederlastszenario raus um über explodierenden Stromverbrauch zu schreiben.
Armaq
2020-09-13, 09:05:05
Vielleicht solltest du meinen Beitrag nochmals lesen.
Zitat bitte wo ich jemanden das schreiben hier verbiete oder einschränke. Das ist frei erfunden.
Und dann bitte mein Ursprungsposting:
Also darfst du, um mich zu wiederlegen jedes Vollast-Szenario auspacken das du willst...machst du aber nicht. Von daher ist dein Argument am Thema vorbei. Leseverständnis?
Ebenso wie Birdman pickst du dir ein Niederlastszenario raus um über explodierenden Stromverbrauch zu schreiben.
Das wird auch Volllast getestet, hast du hinter "at low load" direkt aufgehört meinen Beitrag zu lesen? Du hast das ganze Ding nicht gelesen und verstanden. Unter Volllast brauch der IO bei 2990 40% des Stroms und beim Epyc sogar 50 %.
Was dort nicht gemacht wird, ist genau was Birdman beschreibt: Der Einfluss durch die Anzahl bestückter Ram-Bänke auf den IO-Verbrauch.
Komm, du kannst Englisch nicht gut genug, um den Text zu verstehen. Jetzt man the fuck up und lass es gut sein.
Badesalz
2020-09-13, 09:29:28
Wenn bei dir bei einem Apfelvergleich die Birnen als belastbare Quelle herhalten, dann OK...
Im Gegegnsatz zu Dir hantiere ich täglich mit Epyc Servern rum und muss daher keine hirnrisse Hypothesen anhand von irgendwelchen Ryzen und Threadripper Berichten anstellen.Dann hast du da auch irgendwas gesehen/gemessen? Oder ist wirklich etwas "explodiert" und die CO2 Anlage ist angegangen?
Gibt es da nicht eh ein trade-off was Kerne/Threads und Speicherkanäle angeht? (*) Und man mit den jeweiligen Konfigs soviel pro Sockel erreicht, daß es immernoch ein großer Vorteil ist, als wenn man das sonst auf 2 Sockeln mit Konkurrenzprodukten bauen würde? Genau das beantwortet doch immer die Frage, was jetzt akzeptabel ist und was nicht. Oder nicht? Macht das denn Sinn das zu beurteilen ohne sich eben umzuschauen? (Fanboys hin oder her)
Kann man überhaupt irgendetwas beurteilen, ohne es mit etwas anderem zu vergleichen? Was wären dafür dann die Bezugspunkte? =)
(*) Ähnlich der bereits alten Laier daheim, daß man mit Ivy (oder auch schon Sandy) in späteren Jahren viel mehr als zu Anfang an Leistung gewann, wenn man Speicher-OC betrieb. Weil eben immer mehr Programme auch alle Threads nutzten und Speicherinterface zum echten Flaschenhals wurde.
edit:
Wobei ich das schon gerne wüsste wieviel dazu dann der Speicherinterface wirklich beiträgt und wieviel die viel intensiver ausgelasteten Kerne. Daheim jedenfalls kann ich auch Benches laufen lassen bei welchen alle Monitoringtools 100% Auslastung zeigen, aber die erreichten Temperaturen sprechen eigentlich eine recht klare Sprache, daß 100% und 100% sich schon ziemlich unterscheiden können...
Mangel76
2020-09-13, 09:51:43
Das wird auch Volllast getestet, hast du hinter "at low load" direkt aufgehört meinen Beitrag zu lesen? Du hast das ganze Ding nicht gelesen und verstanden. Unter Volllast brauch der IO bei 2990 40% des Stroms und beim Epyc sogar 50 %.
Was dort nicht gemacht wird, ist genau was Birdman beschreibt: Der Einfluss durch die Anzahl bestückter Ram-Bänke auf den IO-Verbrauch.
Komm, du kannst Englisch nicht gut genug, um den Text zu verstehen. Jetzt man the fuck up und lass es gut sein.
Ihr habt da sicher beide recht. Ein solcher Anteil ist schon massiv. Die Frage ist, ist es notwendig bzw. geht es besser? Und da ist der Einwand mit dem Vergleich zu Intel völlig berechtigt. Ohne Vergleichswert ist die Aussage, Anteil x% ist zu viel, völlig aus der Luft gegriffen. Das Verschieben vieler Daten benötigt nun mal Energie und was normal und was "explodiert" bedeutet, kann ich nur im Vergleich verschiedener Umsetzungen erkennen. Man könnte die Sache schließlich auch anders herum betrachten: AMD hat so sparsame Kerne, dass deren Anteil am Energiebedarf kleiner ist als bei Intel, deren Kerne massig saufen, wenn sie auf Touren kommen. Allein für sich genommen kann man solche Zahlen halt schlecht bewerten.
Badesalz
2020-09-13, 09:53:34
Danke ;)
Armaq
2020-09-13, 11:06:30
Ihr habt da sicher beide recht. Ein solcher Anteil ist schon massiv. Die Frage ist, ist es notwendig bzw. geht es besser? Und da ist der Einwand mit dem Vergleich zu Intel völlig berechtigt. Ohne Vergleichswert ist die Aussage, Anteil x% ist zu viel, völlig aus der Luft gegriffen. Das Verschieben vieler Daten benötigt nun mal Energie und was normal und was "explodiert" bedeutet, kann ich nur im Vergleich verschiedener Umsetzungen erkennen. Man könnte die Sache schließlich auch anders herum betrachten: AMD hat so sparsame Kerne, dass deren Anteil am Energiebedarf kleiner ist als bei Intel, deren Kerne massig saufen, wenn sie auf Touren kommen. Allein für sich genommen kann man solche Zahlen halt schlecht bewerten.
Nein, das ist nicht richtig. Ich werd hier kein Appeasement betreiben.
Große CPUs brauchen viel Saft für alles was Interconnect/DRAM etc. ist. 50% beim Epyc gem. Anandtech.
Macht hier einfach mal keine scheiß Intel/AMD Nummer draus, das wird auch ARM, PowerPC usw. betreffen. Das ist doch wirklich zum brechen. Es geht darum, dass hier noch Fortschritte zu erzielen sind.
Es reicht um den Unsinn mit explodierendem Verbrauch zu widerlegen wenn die CPUs grösser werden.
Anand-Quote²:Part of the problem relates to how power is distributed with these big core designs. As shown on page four, the more chiplets that are in play, or the bigger the mesh, the more power gets diverted from the cores to the internal networking
Wer sich den gesamten Test durchliest und nachvollzieht, kann klar ablesen, dass der Trend mit größer werdenden Chips zunimmt. Das hat der Tester ja auch klar so gewählt (von 8Kern Desktop bis hoch zur Server-CPU). Sich dann hinstellen und einfach lospoltern kann nicht der Weg sein.
Und nochmal: Das kann jeder 3900X Besitzer selbst testen, RAM Takt senken, RAM Bänke anders bestücken. Bei 2 Chiplets und 2 Kanälen verdoppelt sich der Verbrauch je nach Konfiguration. Epyc hat 8 und wenn der CoreCount weiter hochgeht, betrifft das auch Desktop-User.
Gipsel
2020-09-13, 11:29:43
Ich schlage vor, wir konzentrieren uns jetzt wieder auf Zen3 und lassen die Grabenkämpfe sein.
Danke.
Complicated
2020-09-13, 11:31:23
Edit: Ups sorry Gipsel hatte sich überschnitten.
Nein, das ist nicht richtig. Ich werd hier kein Appeasement betreiben.
Große CPUs brauchen viel Saft für alles was Interconnect/DRAM etc. ist. 50% beim Epyc gem. Anandtech.
Macht hier einfach mal keine scheiß Intel/AMD Nummer draus, das wird auch ARM, PowerPC usw. betreffen. Das ist doch wirklich zum brechen. Es geht darum, dass hier noch Fortschritte zu erzielen sind.
Es geht darum, dass hier mit der Bezeichnung "explodieren" Kritik an etwas geübt wird, was kein anderer besser macht derzeit. Deshalb ist es eine Vergleichsnummer und sonst gar nichts anderes. Dass AMD nachbessern kann wurde weder erwähnt und war auch nicht die Intention wie man sieht. AMD hat da schon die 3 Version IF mittlerweile, die auch hier schon längst effizienter ist.
Wie schon von anderen geschrieben, ist der Versuch etwas isoliert zu betrachten zu überhaupt nichts zu gebrauchen und schon gar nicht wenn man dann solche undifferenzierte Wertungen abgibt.
Hier ist noch nicht mal der Frage nachgegangen worden, warum hier Low-Load-Szenarien für Server diskutiert werden (ausser um ein "explosiv" unterbringen zu können), die auch nur eine theoretische Zahl sind, wenn ein Server für seinen Zweck produktiv ist. Das sind Test-Szenarien, die akademisch und für Erkenntnisgewinn ihren Nutzen haben, jedoch in einer produktiven Umgebung einen schlechten Job bei der Beschaffung und Planung indizieren sollten das die Dauerlast sein die anliegt beim Server. Server sollten so effizient wie möglich ausgelastet sein um ihr TCO zu verbessern. Dieser Frage muss man auch nicht weiter nachgehen, da das den meisten schon klar ist in der Praxis.
Badesalz
2020-09-13, 11:38:55
Macht hier einfach mal keine scheiß Intel/AMD Nummer draus, das wird auch ARM, PowerPC usw. betreffen. Das ist doch wirklich zum brechen. Es geht darum, dass hier noch Fortschritte zu erzielen sind. Ah so. Warte mal... Ist das nicht sowieso JEDEM GLASKLAR? Wozu macht man deswegen überhaupt so ein Fass auf? Wer glaubt denn, daß sich beim Zen3 nicht auch da was tun wird?? :|
Das Verhältnis bleibt doch aber eh größtenteils erhalten dann, also mind. Bestückung vs. alle Kanäle voll. Diese "Explosionen" bleiben doch, werden eben nur leiser =)
@Complicated
Ehrlich gesagt: Nicht zwangsläufig. "Explodieren" ist zwar beim Überfliegen grenzwertig neutral gewählt, ist aber eben nicht pauschal eine starke Kritik. Das muss man schon erstmal hineininterpretieren ;)
Haben wir es jetzt? Ich bin da bei Gipsel. wobei er die "Grabenkämpfe" dabei meinte und nicht das Thema an sich.
Ciao.
Armaq
2020-09-13, 11:40:34
Ich seh hier auch null OffTopic? Es geht doch um die Arch und was damit passiert?
Epyc hat laut einem der Schaubilder hier (wie Complicated sagt) schon Verbesserungen erhalten die genau auf das Thema abzielen. Was ich noch nicht gesehen habe, shrinken sie den IO Part jetzt auch? Auf Zen2 sind das ja noch 2 unterschiedliche Verfahren.
Und sorry, aber wenn du wirklich mit Servern @ scale zu tun hättest, dann wüsstest du das die mittlere Auslastung kein theoretisches Problem sondern der general use case ist - das Zeug ist sehr viel in Teillast.
Nochmal, das betrifft den Verbrauch unter FullLoad - Zen 2 spart sich hier schon einiges an Watt, wenn man das möchte und es hat Einfluss auf den Boost! Hab ich im Zen2-Thread auch alles dargelegt.
Complicated
2020-09-13, 12:24:44
@Complicated
Ehrlich gesagt: Nicht zwangsläufig. "Explodieren" ist zwar beim Überfliegen grenzwertig neutral gewählt, ist aber eben nicht pauschal eine starke Kritik. Das muss man schon erstmal hineininterpretieren ;)
Absolut richtig, und ich wollte hier lediglich Kontext klar stellen und habe niemanden angegriffen. Dazu habe ich Messwerte und eine seriöse Quelle angeführt.
Complicated
2020-09-13, 12:25:54
Nochmal, das betrifft den Verbrauch unter FullLoadExakt was ich schrieb. Daher ist es seltsam mich widerlegen zu wollen wenn man andere Lastszenarien zitiert, mit weniger als 16 Kernen, wie ich ja auch präzisiert habe.
Badesalz
2020-09-13, 12:51:20
@Complicated
Denke die Zahlen, Links und Beispiele sind schon ok gewesen. Was den Leser wohl leicht verwirren könnte ist wohl die Art der dazu mitgelieferten Prosa ;)
Was ich noch nicht gesehen habe, shrinken sie den IO Part jetzt auch?Wäre GF dann raus? Ich halte zwar deren 12LP+ in EUV (?!) für sehr gelungen (12FDX ist ja eine andere Baustelle), aber einem 5nm Node würde ein I/O Part aus 7nm schon gut zu Gesicht stehen :tongue:
Vielleicht ist das an der Stelle aber nicht so kritisch. Es kostet halt auch. Selbst für AMD, bei TSMC. Immerhin spielt da auch die Bestromung des RAMs selbst auch eine Rolle.
Armaq
2020-09-13, 13:25:38
@Complicated
Denke die Zahlen, Links und Beispiele sind schon ok gewesen. Was den Leser wohl leicht verwirren könnte ist wohl die Art die dazu mitgelieferten Prosa ;)
Wäre GF dann raus? Ich halte zwar deren 12LP+ in EUV (?!) für sehr gelungen (12FDX ist ja eine andere Baustelle), aber einem 5nm Node würde ein I/O Part aus 7nm schon gut zu Gesicht stehen :tongue:
Vielleicht ist das an der Stelle aber nicht so kritisch. Es kostet halt auch. Selbst für AMD, bei TSMC. Immerhin spielt da auch die Bestromung des RAMs selbst auch eine Rolle.
Genau das wissen wir nicht. Eigentlich wäre ein Test super spannend, der 1-n Bänke mit Ram bei Takt a und b im Verhältnis zum Stromverbrauch aufzeigt. Dadurch könnte man rausfinden, was wieviel Einfluss hat immer auf den Gesamtverbrauch bezogen.
DDR2133 bei 1 Bank und das Ding zieht xx Watt wäre sozusagen die Basis. Dann könnte man ableiten wieivel eine CPU durch Ram/takt gewinnt und verbraucht und hier mal den Grenznutzen bestimmen.
Edit: Wichtig! Der 3900x von mir boostet deutlich besser, wenn der Ram nur auf 2133 läuft (bei 4 Riegeln). Besser heißt ich seh die 4650 Mhz rel. regelmäßig. Weniger Ram-Takt heißt aber auch weniger Performance. Jetzt kann man sich entscheiden wie man das dreht, eigentlich wäre ein schlanker IO super für den Chip!
Complicated
2020-09-13, 16:32:48
@Complicated
Denke die Zahlen, Links und Beispiele sind schon ok gewesen. Was den Leser wohl leicht verwirren könnte ist wohl die Art die dazu mitgelieferten Prosa ;)
90% meines Beitrags war zitiert aus der Quelle - wenn du etwas konkretes meinst dann bitte zitieren - du darfst gerne mit Andeutungen und Interpretationen jetzt aufhören. Die Prosa haben hier andere fabriziert, was dir wohl entgangen ist.
Badesalz
2020-09-13, 21:51:31
@Complicated
Ich weiß nicht, ob man das so... kompliziert machen muss... Es ist doch letztendlich alles gut gelaufen und ich hatte zwar keinen Löwenanteil daran, hab aber schon bisschen was dazu beigetragen, daß DEINE Darstellung doch entsprechend objektiv beurteilt wurde. Damit also einen angenehmen Start in die neue Woche an dich :rolleyes:
@Armaq
Ich hab natürlich auch noch keine Ahnung was sie da basteln, aber daß es einen überarbeiteten I/O bei Zen3 geben wird und der auch weniger zum Powerbudget beiträgt, steht für mich betonfest. Es wundert mich, daß andere das vielleicht nicht kommen sehen.
Das wäre wie beim Speku zu Ampere, wenn alle meinen würden, es wird xy mehr Leistung haben und dann einige gibt die meinen, dei RT Leistung selbst könnte aber auf dem Level von Turing bleiben.
Sowas ist schon lächerlich, wenn man sich das nur 1x durchliest ;) Macht euch also keine Sorgen/Gedanken darüber.
Für mich trägt das auch dazu bei was sie bereits kommunizieren, Zen3 wird besser takten. Nicht nur ausschliesslich deswewgen, aber auf jeden Fall eben mit tatkräftiger Hilfe des neuen I/O ;)
Trotzdem bringt RAM wohl zu allermeist mehr als das was der I/O am Turbotakt runterziehen kann ;)
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12423074#post12423074
https://www.tomshardware.com/news/ryzen-4000-detailed-purported-amd-confidential-documents-outline-zen-3s-inner-workings
Damit ist der 8C CCX bestätigt. Ansonsten bleibt alles beim Alten, was für das gleiche IOD spricht.
BoMbY
2020-09-14, 09:01:19
Ich nehme an damit dürfte man dann auch eine andere Anordnung erwarten? Der gesamte Cache in der Mitte der CPU-Kerne? Also zum Beispiel so:
https://i.imgur.com/mCZ4TU9.png
Eldoran
2020-09-14, 17:02:26
@BoMbY: Ich bezweifle das, das wäre eine extreme Verschwendung von Silizium. Bezogen auf die Grafik würde der Cache des zweiten CCX quasi in ungenutzte Fläche überführt werden. Es ist auch fraglich wie die Anbindung der Datenleitungen ausschauen sollte. Das schaut in einer Grafik alles viel einfacher und effizienter aus als in der Realität.
Es hängt auch sehr von der gewählten Datentransfertechnologie ab. Vermutlich eher so als wenn man zwei Zen2 CCX mit halben Cache nebeneinander legt. Gefühlsmässig würde ich den Core auch etwas stauchen, dann schrumpft auch die Distanz zwischen oberem und unterem Rand (bezogen auf die übliche Darstellung des CCX - zwischen zwei Cores links und rechts das Cache).
BoMbY
2020-09-14, 17:36:23
Welcher zweite CCX? Jedes CPU-Chiplet hat ein CCX.
Die "freie" Fläche könnte für den Uncore/IF-Kram genutzt werden. Jedenfalls nur durch eine möglichst gleichmäßige Verteilung hätte man überall optimale Zugriffszeiten auf den Cache.
basix
2020-09-14, 17:51:06
Welcher zweite CCX? Jedes CPU-Chiplet hat ein CCX.
Die "freie" Fläche könnte für den Uncore/IF-Kram genutzt werden. Jedenfalls nur durch eine möglichst gleichmäßige Verteilung hätte man überall optimale Zugriffszeiten auf den Cache.
Genau. Und man hätte gut verteilte Hotspots.
Ich glaube aber nicht daran, das kursierende Bild mit Zen 3 hat keine quadratischen Chiplets. Eher wird man den Zen 2 Floorplan mehr oder minder beibehalten oder den I/O-Bereich auf eine Seite des Chips verlegen. Ist auch einfacher bezüglich Routing in den Metalstacks.
Der_Korken
2020-09-14, 18:24:15
In der Zeichnung oben werden 25% der Fläche nicht genutzt, das ist zu viel. Wenn man den Cache in der Mitte etwas größer macht und die Cores etwas länglicher, dann wird es weniger, aber trotzdem scheint mir dieses Layout flächentechnisch zu ineffizient. Ich glaube eher, dass die beiden CCX da bleiben wo sie sind und verschmolzen werden. So war das auf der vor Ewigkeiten geleakten Folie, wo die 8C-CCX erstmals zu sehen waren, bereits angedeutet.
w0mbat
2020-09-14, 18:40:36
Die Zeichnung ist doch nur ein grobes Schema, wie die Anordnung in etwas aussehen könnte.
Der_Korken
2020-09-14, 20:37:48
Schon klar, aber die Ecken bleiben bei dem Layout immer frei. Auf einer APU könnte man die vielleicht mit irgendwas anderem füllen, aber auf dem Chiplet ist außer den CCX im Wesentlichen nur den IF-Link, den man nicht über die Ecken aufteilen kann.
Badesalz
2020-09-14, 21:41:06
Damit ist der 8C CCX bestätigt. Ansonsten bleibt alles beim Alten, was für das gleiche IOD spricht.Ich kann bisher das eine aus dem anderen nicht ableiten :|
https://twitter.com/patrickschur_/status/1306352016457900034
Er schreibt, das er es zu 100% bestätigen kann. Vom 10 Kerner aber bisher keine Spur hat. Ein 5900X und 5800X liegt ja auch auf der Hand...
https://videocardz.com/newz/amd-ryzen-9-5900x-to-feature-12-cores-ryzen-7-5800x-gets-8
Videocardz schrieb ja:
- Zen3 will be the first major redesign of Zen, focusing on performance/watt and scalability
- Better IPC, 8 core per CCX, new IO chip with better memory controller, improved SMT, and more efficient boost
- The new boost is not focusing on getting much higher clocks, it is designed to manage long workloads, it can be sustained for several minutes
Verbessertes SMT? Statt -viel- höherem Takt war das Ziel den Takt unter langen workloads möglichst hoch zu halten. Klingt sehr interessant!
Bis zum 8. dauerts ja noch ewig, Verdammt!
Screemer
2020-09-17, 10:09:54
Also doch neuer io. Hätte ich nicht gedacht. Für ddr5 brauchen sie ja auch schon wieder einen neuen.
basix
2020-09-17, 10:10:03
Statt -viel- höherem Takt war das Ziel den Takt unter langen workloads möglichst hoch zu halten. Klingt sehr interessant!
Wenn man sich Zen 2 ansieht, macht das sehr viel Sinn. Die max. Taktraten liegen meistens nur sehr kurz an und dann droppt der Takt wieder.
Wie könnte man das verbessern? Angenommen ich habe nen 5900X. Wäre es denn eine Möglichkeit, bei einem Spiel welches nur 8 Kerne nutzt bsw. unter Last im laufenden Betrieb SMT abzuschalten um damit den Takt zu erhöhen?
oder was würde das bedeuten:
"Up to 8 cores where each core may run in single-thread mode (1T) or two-thread SMT mode (2T)"
Verbessertes SMT klingt interessant. Bin gespannt wie das umgesetzt wurde.
ShinyMcShine
2020-09-17, 10:18:50
https://twitter.com/patrickschur_/status/1306352016457900034
Er schreibt, das er es zu 100% bestätigen kann. Vom 10 Kerner aber bisher keine Spur hat. Ein 5900X und 5800X liegt ja auch auf der Hand...
https://videocardz.com/newz/amd-ryzen-9-5900x-to-feature-12-cores-ryzen-7-5800x-gets-8
Videocardz schrieb ja:
- Zen3 will be the first major redesign of Zen, focusing on performance/watt and scalability
- Better IPC, 8 core per CCX, new IO chip with better memory controller, improved SMT, and more efficient boost
- The new boost is not focusing on getting much higher clocks, it is designed to manage long workloads, it can be sustained for several minutes
Verbessertes SMT? Statt -viel- höherem Takt war das Ziel den Takt unter langen workloads möglichst hoch zu halten. Klingt sehr interessant!
Bis zum 8. dauerts ja noch ewig, Verdammt!
Also dann auch gleich eine 5000er Serie. Hoffentlich wird das Schema dann jetzt mal durchgehalten (gleiche Tausender für gleiche Zen-Generation)...
w0mbat
2020-09-17, 11:20:59
Das macht aber nur Sinn, wenn desktop + mobile ohne großen Abstand raus kommen. Sonst hat man wieder Ryzen 5k desktop im Oktober 2020 und dann Ryzen 5k mobile im Sommer 2021, wo Zen4 schon wieder vor der Tür steht.
AMD hat die "verschobenen" Bezeichnungen ja nicht ohne Grund angefangen. Wer würde sich schon eine, nach den Namen, "veralterte" CPU kaufen?
Complicated
2020-09-17, 11:23:04
Also doch neuer io. Hätte ich nicht gedacht. Für ddr5 brauchen sie ja auch schon wieder einen neuen.
Ein I/O-Die ist ja prädestiniert dafür sowohl DDR4 als auch DDR5 ansprechen zu können. Damit könnte man langfristig auch noch DDR4 nutzen in bestimmten Zielmärkten (Chromebooks/Lowend). DDR5 möglicherweise dann zum Start erst mal für Epiyc/TR und vielleicht APUs mit starker iGPU, wo es auch direkt Performance bringt und wo auch der höhere Preis erst mal auch Nutzen bringt.
Piefkee
2020-09-17, 11:29:06
Das macht aber nur Sinn, wenn desktop + mobile ohne großen Abstand raus kommen. Sonst hat man wieder Ryzen 5k desktop im Oktober 2020 und dann Ryzen 5k mobile im Sommer 2021, wo Zen4 schon wieder vor der Tür steht.
AMD hat die "verschobenen" Bezeichnungen ja nicht ohne Grund angefangen. Wer würde sich schon eine, nach den Namen, "veralterte" CPU kaufen?
Naja ich denke eher an sowas
Desktop 5000er Oktober -> November Launch
Laptop Ces Januar 2021 -> Feb launch
Tobalt
2020-09-17, 11:38:33
klingt für mich erstmal nur so, als ob man SMT pro Kern zu/abschalten kann.
Längerer boost klingt etwas sinnlos für mich. Wie lange der Boost gehalten werden kann, ist ja thermisch limitiert.
Screemer
2020-09-17, 11:55:20
Ein I/O-Die ist ja prädestiniert dafür sowohl DDR4 als auch DDR5 ansprechen zu können. Damit könnte man langfristig auch noch DDR4 nutzen in bestimmten Zielmärkten (Chromebooks/Lowend). DDR5 möglicherweise dann zum Start erst mal für Epiyc/TR und vielleicht APUs mit starker iGPU, wo es auch direkt Performance bringt und wo auch der höhere Preis erst mal auch Nutzen bringt.
Dual phys verschwenden doch nur unnötig Platz. Ja das gab es schon ob es heut noch sinnvoll ist lass ich Mal im Raum stehen. Low-end (chromebooks) werden keine chiplet Versionen der cpus bekommen und somit auch keinen Iod. Zumindest nicht in der gen zen4. Bei den apus halte ich dual phys schon für sinnvoller als beim Iod. Da kommen monolithische dice und lieber beschneidet man die salvage teile so weit es geht
Complicated
2020-09-17, 12:34:47
Müssen ja keine Dual-PHYs sein. Synopsis bietet einen DDR5/DDR4-PHY an:
https://www.synopsys.com/dw/ipdir.php?ds=dwc_ddr54_phy
The DDR5/4 PHY includes a DFI 5.0 interface to the memory controller and can be combined with Synopsys’ DDR5/4 controller for a complete DDR interface solution.
Ich habe bei Cadence nun auch den spezifischen TSMC 7nm PHY gefunden:
https://ip.cadence.com/uploads/1276/ddr5-4-phy-ip-tsmc-7nm-ds-pdf
DDR5/4 PHY IP for TSMC 7nm
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71486&stc=1&d=1600339242
Screemer
2020-09-17, 12:41:10
Der sicher mehr Platz braucht als ein reines ner DDR4 oder DDR5 phy. Wir gesagt halte ich sowas für apus durchaus für sinnvoll. Im Iod jedoch glaube ich nicht daran.
Complicated
2020-09-17, 12:44:33
Es könnten die selben Chiplets in DDR4 und DDR5 Systemen arbeiten wenn beide I/O-Pads auf dem IO-Die wären und je nach Konfiguration des Systems eben der eine oder der andere auf den PHY des Chiplets zugreift. Beide Protokolle funktionieren.
The DDR PHY IP is implemented with a slice-based architecture that supports a wide range of memory classes and data rates.
Screemer
2020-09-17, 12:51:39
Noch mal: es wird imho KEINE chiplet Versionen im lowend/lowpower geben. Da spricht bisher jede Ankündigungen von zen3 apus und ihrer Ausbaustufen dagegen. Dort sind dual issue phys sinnvoll. Im Iod aber imho nicht. So schwer verständlich?
basix
2020-09-17, 12:53:58
Ich habe bei Cadence nun auch den spezifischen TSMC 7nm PHY gefunden
Das wäre also eher was für die APU. Der Desktop IOD wird bei Zen 3 garantiert noch bei GloFo in 12nm (Derivaten) laufen. Bei Zen 4 könnte das anders aussehen. Das hängt aber stark vom WSA zwischen beiden ab. Eine mögliche Variante: TSMC fertigt die Chiplets und IOD und GloFo fertigt die Interposer in 12nm.
https://www.anandtech.com/show/13915/amd-amends-agreement-with-globalfoudries-set-to-buy-wafers-till-2021
Meanwhile, it's worth noting that while the latest WSA amendment lays out detailed volume and pricing plans through 2021, AMD's overall agreement with GlobalFoundries still runs through 2024. So in the next couple of years, AMD and GlobalFoundries will still need to decide how the fab will supply AMD over the final years of the agreement. Which will make for an intriguing situation to say the least given GlobalFoundries' recent change in direction. At a high level it's easy enough to see how AMD could utilize 12nm+ capacity through 2021, but AMD's needs for such a large node (or GlobalFoundries' other specialized nodes) in the 2022-2024 timeframe are not nearly as obvious.
Nightspider
2020-09-17, 13:02:37
Ich halte es in der Praxis eh für eine dämliche Idee einen IO-Chip über mehrere Generationen zu nutzen, das könnt ihr vergessen.
Maximal vielleicht für einen Zen 3+ Refresh aber das wars dann auch schon.
Die Technik ändert sich viel zu schnell als das man so eine "Altlast" mehr als 1,5 Jahre herumschleppt. So riesig ist der Kostenvorteil dadurch auch nicht und man versperrt sich jeder neuen Entwicklung und genau das muss AMD machen, an allen Fronten nach vorne pushen und Intel im Regen stehen lassen.
Screemer
2020-09-17, 13:10:56
Gerade der Iod macht AMD sehr flexibel für neue Technik. Gibt es aber keinen Sprung, dann kann man auch den alten über mehrere Generationen mitschneiden. Der nächste Hop kommt mit ddr5. Bis dahin ist im Iod alles drin was die Technik Grad hergibt. Pcie4, usb3.1, etc. Am fabric word denke ich trotzdem geschraubt.
Nightspider
2020-09-17, 13:21:18
Infinity Fabric und Speichercontroller werden bestimmt so gut es geht mit jeder Generation verbessert werden und das sind zwei wichtige Elemente für die Performance und Effizienz.
Und man kann auch beim IO Chiplet auf einen stromsparenderen, günstigen Prozess wechseln, was gerade im Server Segment mehr Energie den CPU Chiplets ermöglicht, die dann höher takten können.
basix
2020-09-17, 13:29:18
Infinity Fabric und Speichercontroller werden bestimmt so gut es geht mit jeder Generation verbessert werden und das sind zwei wichtige Elemente für die Performance und Effizienz.
Und man kann auch beim IO Chiplet auf einen stromsparenderen, günstigen Prozess wechseln, was gerade im Server Segment mehr Energie den CPU Chiplets ermöglicht, die dann höher takten können.
Ich hoffe ja auf 12LP+, aber der scheint erst Ende 2020 zu rampen.
Complicated
2020-09-17, 13:40:34
Noch mal: es wird imho KEINE chiplet Versionen im lowend/lowpower geben. Warum sollten R3 3100 und 3300X DDR5 Speicher mit AM5 nutzen? Es wird entsprechende R3-Modelle geben. Die Gesamtkosten der Plattform steigen enorm in diesem Preisbereich. Es ist eine einfache BWL-Rechnung und man kann erst einmal AM5 für 8-Core aufwärts anbieten und mit einer etablierten AM4-PLattform OEMs gut beliefern. Irgendwann wird DDR5 billiger werden als DDR4, doch die Transitphase muss ja auch mit neuen CPUs gedeckt werden.
mironicus
2020-09-17, 14:04:47
Ich hoffe ja das der neue IO-Die vielleicht auch nativ USB 4.0 unterstützt, dann braucht man natürlich auch neue Boards.
Platos
2020-09-17, 14:31:32
Welche Mainboards braucht es nun eig. für Zen 3? Hab das ganze nicht mehr verfolgt in letzter Zeit. Also Mainboards mit PCI-E 4.0 natürlich.
USB4 für Zen3 halte ich für extrem unwahrscheinlich. Ich bin auch immer noch davon überzeugt, dass das I/O-Die maximal ne neue Rev. des alten Dies ist. Gleicher Prozess, gleicher Funktionsumfang... das ist eher wie der Sprung von Zen auf Zen+ zu sehen nur ohne Fertigungsvorteil.
Berniyh
2020-09-17, 14:44:36
Man wird sicher am IO Die rumoptimieren und kleinere Änderungen übernehmen und in ein neues IO Die für Zen 3 gießen.
Die großen Änderungen kommen aber natürlich mit Zen 4, das sollte wohl klar sein.
Außer den Kosten für neue Masken gibt es aber halt einfach keinen wirklichen Grund das IO Die 1:1 zu übernehmen.
Die Arbeiten müssen ja im Hinblick auf Zen 4 eh gemacht werden.
Kleine, beständige Schritte führen zum Erfolg, das zeigt sich doch zuletzt immer wieder.
Genau so würde ich es auch von AMD erwarten.
Also dann auch gleich eine 5000er Serie. Hoffentlich wird das Schema dann jetzt mal durchgehalten (gleiche Tausender für gleiche Zen-Generation)...
Eher nicht … bzw. nicht, wenn es wirklich einen Zen 3 Refresh geben wird (Warhol).
Dann läuft das wohl nächstes Jahr wieder auseinander. Evtl. halt in die andere Richtung. Oder aber es gibt keine 6000er APUs, mal schauen.
Zumal van Gogh (Zen2) dann wohl auch keine 4000er APU wird, sondern eher wieder 5000 oder 6000.
Also sei unbesorgt, das Chaos wird auf jeden Fall bestehen bleiben.
In meinen Augen hätte man daher auch das aktuelle Schema beibehalten können.
Regen sich eh nur Leute drüber auf die über die Details informiert sind.
Für die aber braucht es auch kein durchgängiges Schema, weil die informieren sich ja.
Das macht aber nur Sinn, wenn desktop + mobile ohne großen Abstand raus kommen. Sonst hat man wieder Ryzen 5k desktop im Oktober 2020 und dann Ryzen 5k mobile im Sommer 2021, wo Zen4 schon wieder vor der Tür steht.
Im Sommer wird Zen 4 nicht vor der Tür stehen, sondern wohl eher Zen 3+, falls man den letzten Gerüchten Glauben schenken mag.
Problem bleibt aber natürlich trotzdem bestehen, da hast du schon Recht.
klingt für mich erstmal nur so, als ob man SMT pro Kern zu/abschalten kann.
Wenn SMT variabel wird (was ich ehrlich gesagt bezweifle), dann würde ich eher erwarten, dass es bei voller Auslast automatisch zugeschaltet wird oder ggf. sogar explizit vom OS oder einer Anwendung angefragt werden muss.
Letzteres wäre ggf. sogar – aus Sicht eines Desktop-Nutzers – zu bevorzugen, denn so würde es für genau die Anwendungen genutzt bei denen die Entwickler davon ausgehen, dass es von Vorteil ist.
Längerer boost klingt etwas sinnlos für mich. Wie lange der Boost gehalten werden kann, ist ja thermisch limitiert.
Eben dieses thermische Limit könnte man ja evtl. aufweichen.
Außerdem könnte es ja auch sein, dass man Möglichkeiten Gefunden hat Hotspots besser auszugleichen (also die Wärme besser abzuleiten), was sich dann auch in einem besseren Boost-Verhalten auswirken würde.
Mehrere Minuten klingt aber schon arg optimistisch. Außer natürlich die offiziellen Boost Taktraten sind deutlich weiter weg vom Limit als bei Zen 2.
Ich hoffe ja das der neue IO-Die vielleicht auch nativ USB 4.0 unterstützt, dann braucht man natürlich auch neue Boards.
Laut Gerüchten erst mit Raphael, d.h. Zen 4.
Welche Mainboards braucht es nun eig. für Zen 3? Hab das ganze nicht mehr verfolgt in letzter Zeit. Also Mainboards mit PCI-E 4.0 natürlich.
X570 oder B550 für "richtigen" Support.
Beta Support soll (und wird) es wohl für praktisch alle Boards geben.
Screemer
2020-09-17, 15:10:34
Warum sollten R3 3100 und 3300X DDR5 Speicher mit AM5 nutzen? Es wird entsprechende R3-Modelle geben. Die Gesamtkosten der Plattform steigen enorm in diesem Preisbereich. Es ist eine einfache BWL-Rechnung und man kann erst einmal AM5 für 8-Core aufwärts anbieten und mit einer etablierten AM4-PLattform OEMs gut beliefern. Irgendwann wird DDR5 billiger werden als DDR4, doch die Transitphase muss ja auch mit neuen CPUs gedeckt werden.
Weil man das auch mit dem alten Iod bestücken kann. Für solche Kisten ist das was der Iod neues kann doch völlig irrelevant.
X570 oder B550 für "richtigen" Support.
Beta Support soll (und wird) es wohl für praktisch alle Boards geben.
Ab x/b4xx ich glaube, dass die wenigsten Boards mit der ersten Chipsatzgeneration agesa V2 sehen werden.
Complicated
2020-09-17, 15:16:36
Weil man das auch mit dem alten Iod bestücken kann. Für solche Kisten ist das was der Iod neues kann doch völlig irrelevant.
Deine Argumente sind einfach nicht schlüssig. 2 IO-Dies dauerhaft parallel zu produzieren ist teurer als einen Kombi-PHY zu nutzen und den selbe IO in allen Produkten zu verwenden. Es geht darum eine möglichst große Zahl von Plattformen, möglichst günstig abzudecken. Bisher hast du mich nicht überzeugt, dass das keine Option mit Vorteilen ist.
Screemer
2020-09-17, 15:27:09
Du mich anders herum auch nicht. Falls du zurück blättern möchtest sind meine Annahmen auch mit imho oder mmn gekennzeichnet.
Complicated
2020-09-17, 15:49:35
Deshalb liebe ich das Spekulationsforum - mal sehen was kommt :)
Screemer
2020-09-17, 15:51:12
Absolut :up:
basix
2020-09-17, 16:00:48
Wenn Zen 3+ nächstes Jahr kommt, ist ein neues IOD schon nicht schlecht. Zen 4 käme dann eher im Frühlung 2022 als schon 2021. Und bei 1.5 Jahren Laufzeit ein neues Die aufzulegen und davon profitieren zu können ist schon sinnvoll. An Kombi-PHY mit DDR5 glaube ich bei AM4 aber nicht. Bei AM5 wäre es sinnvoll in der Übergangsphase zu DDR5. An zwei verschiedene IOD für den selben Sockel glaube ich erst recht nicht, da bin ich bei Complicated.
Wieso kombi-PHY billiger sein sollten:
Ur-Skylake kann DDR3/DDR4. Ampere kann GDDR6 und GDD6X. GP108 kann DDR4 und GDDR5. Tiger Lake-U soll LPDDR4 und LPDDR5 unterstützen. Zumindest hat man hier kein separates Die aufgelegt ;)
Berniyh
2020-09-17, 16:29:45
Wenn Zen 3+ nächstes Jahr kommt, ist ein neues IOD schon nicht schlecht. Zen 4 käme dann eher im Frühlung 2022 als schon 2021. Und bei 1.5 Jahren Laufzeit ein neues Die aufzulegen und davon profitieren zu können ist schon sinnvoll. An Kombi-PHY mit DDR5 glaube ich bei AM4 aber nicht. Bei AM5 wäre es sinnvoll in der Übergangsphase zu DDR5. An zwei verschiedene IOD für den selben Sockel glaube ich erst recht nicht, da bin ich bei Complicated.
Ist halt die Frage ob Warhol für AM4 oder AM5 kommt (so denn er überhaupt kommt).
Mein Tipp wäre, dass der – im Stile von Bristol Ridge – den Einstieg bei AM5 begründet und damit ein neues IO Die benötigt (welches dann DDR5 unterstützt).
Das wäre zudem auch für AMD gut um den IO Die in einer ersten Version zu testen bevor dann mit Zen 4 AM5 so richtig Fahrt aufnimmt (zumindest nach AMD).
Dann ggf. schon mit der zweiten Revision des IO Die mit DDR5 Unterstützung (sowie USB4 und evtl. ja auch schon PCIe 5.0).
Warhol auf AM4 wäre natürlich auch möglich, aber da sehe ich nicht so richtig die Motivation für. Zen 3 wird auch 2021 wohl keine so große Konkurrenz haben, dass man unbedingt einen Refresh bringen müsste.
Klar, neue/optimierte Prozesse wie N7e/N6 (falls nicht schon Zen 3 in N7e gefertigt wird) könnten eine Motivation sein, aber das ist bei den Chiplets nun auch nicht so kritisch, da die ja nicht so viele Wafer fressen.
Zossel
2020-09-17, 17:46:45
Wenn SMT variabel wird (was ich ehrlich gesagt bezweifle), dann würde ich eher erwarten, dass es bei voller Auslast automatisch zugeschaltet wird oder ggf. sogar explizit vom OS oder einer Anwendung angefragt werden muss.
Kann Windows kein CPU Hotplug, so das man die entsprechenden CPUs im Betrieb abschalten bzw. einschalten kann?
basix
2020-09-17, 17:59:20
Ist halt die Frage ob Warhol für AM4 oder AM5 kommt (so denn er überhaupt kommt).
Mein Tipp wäre, dass der – im Stile von Bristol Ridge – den Einstieg bei AM5 begründet und damit ein neues IO Die benötigt (welches dann DDR5 unterstützt).
Das wäre zudem auch für AMD gut um den IO Die in einer ersten Version zu testen bevor dann mit Zen 4 AM5 so richtig Fahrt aufnimmt (zumindest nach AMD).
Dann ggf. schon mit der zweiten Revision des IO Die mit DDR5 Unterstützung (sowie USB4 und evtl. ja auch schon PCIe 5.0).
Das würde schon Sinn machen (als Low Cost Einstieg und R&D Frontloading). Aber dann müsste man doch AM5 schon ziemlich fertig spezifiziert haben. Wäre das nicht etwas früh? Ausserdem macht teurer DDR5 nur mit teuren CPUs Sinn. Und dass AM5 DDR4 unterstützt halte ich für ziemlich unwahrscheinlich. Da lässt man doch lieber die alten CPUs auf alten Boards weiterlaufen, oder nicht? B550 kann PCIe 4.0 und ist auch sonst für alles gut genug. Ausnahme ist USB 4.0, aber das könnte man mit einem Zusatzchip auf dem Board regeln.
Warhol auf AM4 wäre natürlich auch möglich, aber da sehe ich nicht so richtig die Motivation für. Zen 3 wird auch 2021 wohl keine so große Konkurrenz haben, dass man unbedingt einen Refresh bringen müsste.
Klar, neue/optimierte Prozesse wie N7e/N6 (falls nicht schon Zen 3 in N7e gefertigt wird) könnten eine Motivation sein, aber das ist bei den Chiplets nun auch nicht so kritisch, da die ja nicht so viele Wafer fressen.
Es gab Zen+ als auch den Zen2-XT Kicker. 1.5 Jahre zwischen Zen 3 und Zen 4 wären halt schon etwas lange und Intel released Rocket Lake in H1/2021. Mit Zen 3+ hätte man einen Gegenspieler, der wie der XT Refresh günstig machbar ist und Intel in die Suppe spuckt. Ausserdem hätte man mit N6 einen günstigen Path forward.
Berniyh
2020-09-17, 19:22:40
Kann Windows kein CPU Hotplug, so das man die entsprechenden CPUs im Betrieb abschalten bzw. einschalten kann?
Keine Ahnung, aber auch wenn es das kann würde ich nicht erwarten, dass es (ohne signifikante Änderungen) gut damit klar kommt, wenn man in kurzen Abständen CPUs entfernt/hinzufügt, auch wenn das nur logische Cores sind.
Berniyh
2020-09-17, 19:26:39
Wäre das nicht etwas früh?
Ja, wahrscheinlich schon, allerdings auch nur ein 1/2-3/4 Jahr vor Zen 4, also so groß ist der Abstand auch wieder nicht.
Ist letztendlich aber das wesentliche Gegenargument, da stimme ich schon zu.
Ausserdem macht teurer DDR5 nur mit teuren CPUs Sinn.
Schon, aber dennoch hat man das Gleiche ja im Prinzip mit AM4 auch gemacht.
Es gab Zen+ als auch den Zen2-XT Kicker. 1.5 Jahre zwischen Zen 3 und Zen 4 wären halt schon etwas lange und Intel released Rocket Lake in H1/2021. Mit Zen 3+ hätte man einen Gegenspieler, der wie der XT Refresh günstig machbar ist und Intel in die Suppe spuckt. Ausserdem hätte man mit N6 einen günstigen Path forward.
Ja, das stimmt alles, aber dennoch ist fraglich, ob das den Zusatzaufwand rechtfertigt nur um für eine "sterbende" Plattform noch mal einen Refresh zu releasen.
Eben deshalb wurde so ein Refresh ja nicht erwartet (bzw. Warhol nicht erwartet).
Machen kann man es aber definitiv und es gibt – wie du ja bemerkst – auch Argumente dafür.
Complicated
2020-09-17, 19:48:20
Ja, wahrscheinlich schon, allerdings auch nur ein 1/2-3/4 Jahr vor Zen 4, also so groß ist der Abstand auch wieder nicht.
Ist letztendlich aber das wesentliche Gegenargument, da stimme ich schon zu.Allerdings könnte Zen4 noch ein 1/2-3/4 Jahr nur den TR/Epyc-Plattformen vorbeahlten bleiben um dort Stückzahlen zu liefern, während Zen3/DDR4 noch bis 16-Core/APU die Stellung solange hält bei den Consumern. Die 5nm/Zen4/DDR5 werden sicherlich eine Weile brauchen um das gesamte Portfolio abzudecken und in kostengünstigeren Plattformen zum Einsatz zu kommen. Wirtschaftlich wäre die Strategie gut und man würde das eigene Wachstum nicht mit der Verfügbarkeit/Rampup von 5nm-Wafern zu stark koppeln. Wie gesagt, sollte man das derzeit strategisch nicht zu starr sehen.
basix
2020-09-17, 19:59:16
Haha, Lisa Su hat ja selbst gesagt: Seit sie viel mehr Optionen haben, fällt die Entscheidungfindung für die richtige Strategie viel schwieriger aus ;)
Es kann so oder andersrum kommen. Ich persönlich würde Zen 4 aber gerne möglichst bald im Desktop begrüssen ;) Mit DDR5, USB4 und hoffentlich PCIe 5.0 wäre das mein nächstes System.
Complicated
2020-09-17, 20:12:28
Da Renoir schon DP über USB-C anbietet ist USB 4.0 nicht mehr so dringend, denke ich.
PCIe5 wird eigentlich nur in Servern benötigt - auch in 2-3 Jahren noch. Und DDR5 wird die bekannte Preisentwicklung von DDR4 durchlaufen müssen um im Desktop auch für OEMs interessant genug zu sein, bevor es in der Breite Sinn macht.
Orientiert man sich am Transit DDR3->DDR4 ist die Spanne ca. 1 Jahr bei Servern und 1,5 in Desktops:
https://images.anandtech.com/doci/10058/intel_ihs_dram_forecast_ddr4_adoption_1.png
Edit: Und genau betrachtet erfolgte dies auch hintereinander.
Berniyh
2020-09-17, 20:20:15
Mit DDR5, USB4 und hoffentlich PCIe 5.0 wäre das mein nächstes System.
Ja, das stimmt schon, wobei mir persönlich PCIe 5.0 gestohlen bleiben kann.
Ich laste nicht mal PCIe 4.0 an den SSDs, geschweige denn an der Grafikkarte, aus.
Werde aber am Spiele-PC dann auch möglichst bald auf Zen 4 upgraden, aber weniger wegen der CPU, sondern weil das ASUS Board das ich für Zen 2 habe, scheiße ist. :freak:
basix
2020-09-17, 21:34:05
Ja, das stimmt schon, wobei mir persönlich PCIe 5.0 gestohlen bleiben kann.
Ich laste nicht mal PCIe 4.0 an den SSDs, geschweige denn an der Grafikkarte, aus.
Werde aber am Spiele-PC dann auch möglichst bald auf Zen 4 upgraden, aber weniger wegen der CPU, sondern weil das ASUS Board das ich für Zen 2 habe, scheiße ist. :freak:
Naja, ich bin noch bei HSW-E :D Die Plattform hat sich sehr lange gut gehalten (macht sie immer noch), 6-8C, DDR4 und sogar m.2 konnte man nachrüsten. Bei DDR5, PCIe 5.0 und USB 4.0 wäre es halt optimal, da die Nachfolger nicht gleich um die Ecke stehen würden. Ebenfalls wären zukünftige Aufrüstoptionen mit hoher Wahrscheinlichkeit gegeben (z.B. nachrüsten von CPU und PCIe 5.0 SSD, schnellere GPUs sowieso).
Das ist einfach mein Wunsch und leider (noch) nicht der Plan von AMD. Allenfalls wird Zen 4 Threadripper das alles bieten, aber so viele Cores brauche ich nicht.
Platos
2020-09-17, 22:13:56
@ basix:
Zen 4 ist so ne Sache.
PCI-E 5.0 kann man vermutlich vergessen mit Zen4 (Ryzen).
DDR5 kommt vermutlich erst Ende 2021, mit Pech vlt. auch erst knapp Anfang 2022 (Consumer). Zen 4 kommt wahrscheinlich spätestens Mai 2022.
Meistens gehts aber so 12-18 Monate, bis neuer Speicher auf normale Preise fällt. D.h mit Zen 4 werden DDR5 Preise mit ziemlicher Sicherheit noch wucher sein. D.h bis DDR5 nicht mehr wucher ist, wird schon ein hypothetisches Zen4+ launchen (oder wie man es dann nennt). 12-18 Monate nach DDR5 Launch wird es etwa Anfang bis mitte 2023 sein.
Also vlt. wartest du gleich auf Zen 4+/5. Dann hast du vlt. auch wirklich PCI-E 5.0, DDR5 mit normalen Preisen & USB 4.0.
Ne GPU als Zwischenlösung kann man ja auch noch für die alte Plattform gebrauchen.
Zossel
2020-09-17, 22:49:42
Dual phys verschwenden doch nur unnötig Platz
Brauchen Kombi-PHYs wirklich signifikant mehr Platz? Gibt es belastbare Infos dazu?
Opprobrium
2020-09-21, 11:56:22
Ist zwar nich wirklich Spekulation, aber erfreulich:
Linux 5.10 Adding Support For AMD Zen 3 CPU Temperature Monitoring (https://www.phoronix.com/scan.php?page=news_item&px=Linux-5.10-AMD-Zen3-k10temp)
While CPU temperature monitoring support may seem mundane and not newsworthy, what makes this Zen 3 support genuinely interesting is that it's coming pre-launch... This is the first time in the AMD Zen era we are seeing CPU temperature reporting added to the Linux driver pre-launch. Not only is it coming ahead of the CPUs hitting retail channels but the support was added by AMD engineers.
Bedeutet dann mittelfristig evtl. sogar, daß auch die APUs quasi von Tag 1 problemlos unter Linux laufen könnten :smile:
Berniyh
2020-09-21, 12:04:47
Bedeutet dann mittelfristig evtl. sogar, daß auch die APUs quasi von Tag 1 problemlos unter Linux laufen könnten :smile:
Zumindest für die aktuelle Generation leider eher unwahrscheinlich.
Das Zeug ist in 5.10 drin (wo auch noch viel für RDNA2 dazu kommt) und jetzt wird erst mal 5.9 in ca. 3-4 Wochen released.
Die meisten Distributionen branchen aber eher jetzt oder in den nächsten Wochen, d.h. sind dann eher bei 5.8 oder – wenn es gut läuft – 5.9.
5.10 kommt dann vermutlich so Mitte Dezember, also viel zu spät für die meisten Distributionen.
Edit: wobei 5.9 oder 5.10 wohl wieder ein LTS Release werden wird. Da wäre es natürlich schon cool, wenn das 5.10 wäre. Langfristig betrachtet, aus AMD Sicht. ;)
Opprobrium
2020-09-21, 12:50:57
Zumindest für die aktuelle Generation leider eher unwahrscheinlich.
Jo, deshalb schrub ich ja extra mittelfristig.
Natürlich wird man auch dann jeweils den aktuellen Kernel benötigen, was ja bei einigen der LTS Versionen nicht immer unbedingt gegeben ist, aber zur Not lässt sich sowas ja auch zeitnah backporten.
Jedenfalls erfreulich das AMD sich da mehr Mühe zu geben scheint. Bei meiner Vega damals hat es trotz Rolling Release noch ewig gedauert bis die unter Linux halbwegs fehlerfri lief (ja ich weiß, GPU |= CPU, aber auch da geht es ja mittlerweile schneller)
Berniyh
2020-09-21, 16:50:24
Bei meiner Vega damals hat es trotz Rolling Release noch ewig gedauert bis die unter Linux halbwegs fehlerfri lief (ja ich weiß, GPU |= CPU, aber auch da geht es ja mittlerweile schneller)
Das war aber ein spezieller Fall.
Das Problem bei der Vega war, dass man hier nicht die Unterstützung in dem "alten" amdgpu umsetzen wollte (was man dann so halb doch noch gemacht hatte), sondern über DAL (Display Abstraction Layer) bzw. später DC (Display Code).
Das ist im Prinzip eine bereinigte und offengelegte Version des amdgpu-pro (und damit auch des Windows-) Treibers und war/ist entsprechend umfangreich.
Daher hat das eine Ewigkeit gebraucht den Quatsch zu bereinigen, zunächst intern, bis es überhaupt mal in einem Zustand war zum Review zu gehen.
Das Review war dann auch erst mal ziemlich niederschmettern (da die Linux Kernel Leute halt schon recht hohe Standards haben, insbesondere bei Abstraktionsschichten) und hat dann auch noch mal einiges an Zeit im Kernelreview verbracht.
Bei den Prozessoren war das schon immer wesentlich entspannter. Zum Einen, weil die viel weniger hardwarespezifischen Code benötigen, zum Anderen, weil AMD das – genauso wie Intel – schon seit 20 Jahren oder mehr offiziell unterstützt.
Die Wahrscheinlichkeit irgendeinen neuen x86 Prozessor auch mit einem 2 Jahre alten Kernel ohne spezifische Unterstützung zumindest zum Laufen zu bringen ist ziemlich hoch.
Evtl. läuft der dann nicht ganz optimal, aber meistens sollte das nicht so groß stören.
Bei Grafikkarten sieht das schon anders aus. Ohne dedizierte Unterstützung geht da fast gar nichts.
Und die kann auch noch ziemlich aufwändig sein.
Brillus
2020-09-21, 17:06:19
Das war aber ein spezieller Fall.
Das Problem bei der Vega war, dass man hier nicht die Unterstützung in dem "alten" amdgpu umsetzen wollte (was man dann so halb doch noch gemacht hatte), sondern über DAL (Display Abstraction Layer) bzw. später DC (Display Code).
Das ist im Prinzip eine bereinigte und offengelegte Version des amdgpu-pro (und damit auch des Windows-) Treibers und war/ist entsprechend umfangreich.
Daher hat das eine Ewigkeit gebraucht den Quatsch zu bereinigen, zunächst intern, bis es überhaupt mal in einem Zustand war zum Review zu gehen.
Das Review war dann auch erst mal ziemlich niederschmettern (da die Linux Kernel Leute halt schon recht hohe Standards haben, insbesondere bei Abstraktionsschichten) und hat dann auch noch mal einiges an Zeit im Kernelreview verbracht.
Bei den Prozessoren war das schon immer wesentlich entspannter. Zum Einen, weil die viel weniger hardwarespezifischen Code benötigen, zum Anderen, weil AMD das – genauso wie Intel – schon seit 20 Jahren oder mehr offiziell unterstützt.
Die Wahrscheinlichkeit irgendeinen neuen x86 Prozessor auch mit einem 2 Jahre alten Kernel ohne spezifische Unterstützung zumindest zum Laufen zu bringen ist ziemlich hoch.
Evtl. läuft der dann nicht ganz optimal, aber meistens sollte das nicht so groß stören.
Bei Grafikkarten sieht das schon anders aus. Ohne dedizierte Unterstützung geht da fast gar nichts.
Und die kann auch noch ziemlich aufwändig sein.
Liegt auch dran das bei den neuen Top - GPUs die sich nicht so gerne in die Karten schauen lassen vor dem Release bei APUs ist das entspannter.
Berniyh
2020-09-21, 17:10:32
Liegt auch dran das bei den neuen Top - GPUs die sich nicht so gerne in die Karten schauen lassen vor dem Release bei APUs ist das entspannter.
Stimmt, wobei das auch nicht soooo kritisch ist. Beispiel Navi 12. Da stand der Treiber schon ca. ein 3/4 Jahr und trotzdem wussten wir fast nix über das Teil (z.B. nicht, dass der Chip HBM2 verwendet).
Die wesentlichen HW-spezifischen Infos sind nicht im Kernel, sondern in den Firmware Dateien enthalten und die laufen außerhalb des Kernel Release Zyklus (wurden für Navi 12 z.B. auch erst vor knapp einem Monat veröffentlicht).
Eben das macht es für AMD leichter die Patches relativ früh zu veröffentlichen, da man die Firmware Dateien bis zum Release der Karten zurück halten kann.
Entsprechend gibt es da auch noch nicht für Navi 2x.
Die Prozessoren hingegen brauchen noch nicht mal die Firmware Dateien um zu laufen. Da sieht man schon den krassen Unterschied.y
Es gibt zwar auch hier Firmware Dateien, aber das sind eher Microcode Patches.
Brillus
2020-09-21, 20:53:39
Stimmt, wobei das auch nicht soooo kritisch ist. Beispiel Navi 12. Da stand der Treiber schon ca. ein 3/4 Jahr und trotzdem wussten wir fast nix über das Teil (z.B. nicht, dass der Chip HBM2 verwendet).
Die wesentlichen HW-spezifischen Infos sind nicht im Kernel, sondern in den Firmware Dateien enthalten und die laufen außerhalb des Kernel Release Zyklus (wurden für Navi 12 z.B. auch erst vor knapp einem Monat veröffentlicht).
Eben das macht es für AMD leichter die Patches relativ früh zu veröffentlichen, da man die Firmware Dateien bis zum Release der Karten zurück halten kann.
Entsprechend gibt es da auch noch nicht für Navi 2x.
Die Prozessoren hingegen brauchen noch nicht mal die Firmware Dateien um zu laufen. Da sieht man schon den krassen Unterschied.y
Es gibt zwar auch hier Firmware Dateien, aber das sind eher Microcode Patches.
Navi 12 war auch keine Top GPU die war middle. Und ich bezieh mich hierbei auf Aussagen von den Leuten die da am Treiber rum arbeiten war so 1-2 im Phoronix forum.
Berniyh
2020-09-21, 21:06:00
Navi 12 war auch keine Top GPU die war middle.
Inwiefern ist das relevant?
Der Quellcode im Linux Treiber enthält einfach relativ wenig Informationen über die genaue Zusammensetzung der Hardware. Diese Information steckt in der Firmware.
Das ist der wesentliche Punkt, nicht wo eine GPU angesiedelt ist.
Unicous
2020-09-23, 00:25:31
Patrick Schur (@patrickschur_) behauptet Folgendes:
Update: Rembrandt with DDR5-5200 support, 20x PCIe 4.0 lanes and two USB4 (40 Gbps) ports.
https://twitter.com/patrickschur_/status/1308484619097042945
It's for desktop and laptop. But the notebooks chips will also support LPDDR5-6400.
Hört sich plausibel an, ist jetzt aber auch keine riesige Offenbarung. Dass DDR5 und PCIe 4.0 unterstützt werden sollte klar sein.
Für mich macht die roadmap im Moment eh nicht allzu viel Sinn. Van Gogh ist ein Produkt dass ich so gar nicht verstehe, außer es ist eine fette APU für "Content Creation" bzw. "Machine Learning" ( das CVML in der geleakten roadmap, wenn sie denn authentisch ist, gibt ja einen kleinen Hinweis wo die Reise hingehen könnte) das ja anscheinend auch eine neues Produktsegment einführt. 2021 oder 2022 folgt eine weitere APU mit dem Anfangsbuchstaben D und vermutlich Zen 3 und Navi 2.
Cezanne jedoch ist ein weirder Lückenbüßer mit Zen 3 und Vega und dann kommt vermutlich Rembrandt mit Zen 3 und Navi 2.
Raphael folgt dann 2022 und ist auch eine APU? mit Navi 3? (ausgehend vom veränderten Farbschema)
https://www.pcgameshardware.de/screenshots/1020x/2020/08/AMD-Ryzen-Roadmap-Videocardz-pcgh.jpg
Ich steige seit Langem mal wieder nicht durch, was AMD vor hat. Da fragt man sich ob sich AMD da nicht etwas übernimmt bei der Erweiterung der Produktpalette ( da fehlen ja auch noch die Dali-Nachfolger, die anscheinend unterhalb von Cezanne und Rembrandt angedeutet werden).
edit:
Lucienne ist vermutlich der Dali-Nachfolger. Zen 2 und Vega.
basix
2020-09-23, 07:28:13
Somit DDR5, PCIe 4.0 und USB4.0 für AM5?
Nightspider
2020-09-23, 07:58:34
Was willst du denn auch mit PCIe 5.0 bei einer APU?
Zossel
2020-09-23, 07:59:23
Somit DDR5, PCIe 4.0 und USB4.0 für AM5?
Im Internet steht immer die totale Wahrheit! Nein, das Internet ist die Wahrheit!
amdfanuwe
2020-09-23, 08:10:08
Van Gogh ist ein Produkt dass ich so gar nicht verstehe,
ZEN2 und Navi2 erinnert sehr an die Konsolenchips.
Womöglich starke GPU Leistung und mit LPD5 für günstige Gaminglaptops geeignet.
basix
2020-09-23, 08:18:38
Im Internet steht immer die totale Wahrheit! Nein, das Internet ist die Wahrheit!
:D
Was willst du denn auch mit PCIe 5.0 bei einer APU?
Die Weltherrschaft erreichen!
Piefkee
2020-09-23, 08:55:23
https://videocardz.com/newz/amd-rembrandt-to-feature-6nm-zen3-cores-support-ddr5-5200-memory
Hier das komplette Rembrandt Bildchen...
Interessant ist auf jedenfall 6nm und nicht 5nm...
Wahrscheinlich zu teuer
https://cdn.videocardz.com/1/2020/09/AMD-Rembrand-6nm-Navi2-2020-APU.jpg
Ist interessant, dass van Gogh zwischen Warhol und Cezanne steht. Da müsste doch eigentlich was Größeres stehen, nicht 4 Kerne. Oder ist das mehr so ne GPU mit kleiner CPU?
Auffällig ist auch, dass das Navi bei Raphael nicht nur eine andere Farbe bietet (Zen2 und Zen3 sowie Vega und Navi2 haben keine unterschiedlichen Farben), sondern auch noch gestrichelt ist. Sehr strange das Ganze bei genauer Betrachtung. Bei Cezanne und van Gogh ist übrigens kein PCIe4 eingetragen, dann gibts das wohl auch nicht.
CVML wird RDNA2 per se mitbringen mMn. Dann ist da auch noch Kasten im Kasten, gelber Kasten Desktop und Oranger Kasten mobile? Darunter sind ja auch noch Produkte, ich nehme an, diee ultra-Mobile-Sache, eingezeichnet.
Lucienne scheint übrigens nicht anderes als ein Spezial-Renoir für wichtige Kunden zu sein. Das dürfte identische Hardware sein.
Piefkee
2020-09-23, 09:08:35
Ich steige seit Langem mal wieder nicht durch, was AMD vor hat. Da fragt man sich ob sich AMD da nicht etwas übernimmt bei der Erweiterung der Produktpalette ( da fehlen ja auch noch die Dali-Nachfolger, die anscheinend unterhalb von Cezanne und Rembrandt angedeutet werden).
Du hast schon recht aber ich denke AMD mag sich etwas breiter aufstellen.
Van Gogh --> Ultra Notebook ohne dGPU --> Fokus auf Low-Power + GPU
Cezenne --> allg. Laptop vorallem mit dGPU (Gaming Notebook) --> Fokus auf CPU Perf.
basix
2020-09-23, 09:12:22
Van Gogh --> Ultra Notebook ohne dGPU --> Fokus auf Low-Power + GPU
Cezenne --> allg. Laptop vorallem mit dGPU (Gaming Notebook) --> Fokus auf CPU Perf.
Jupp, denke ich auch. Die Frage ist, ob Van Gogh die 8C behalten wird oder auf 4C zurück geht. Ich hoffe ersteres.
Dampf
2020-09-23, 10:05:01
Van Gogh ist sehr interessant. CVML könnte eine dedizierte KI-Einheit sein, ähnlich dem Intel GNA 2.0, Nvidia Tensor Cores und Smartphones NPUs.
KI ist die Zukunft und immer mehr Anwendungen werden profitieren, daher ist es deutlich effizienter, das über eine dedizierte low power KI-Beschleunigung zu lösen als über die Shader Cores.
Wer weiß, vielleicht ist die CVML ja auch sehr stark und ermöglicht damit DLSS style Rekonstruktion, in einem Ultra-Portable wäre das natürlich genial.
basix
2020-09-23, 10:19:40
Könnte CVML (Computer Vision, Machine Learning) nicht einfach aufgrund RDNA2 sein? RDNA2 bringt Raytracing (CV) sowie INT4/INT8 (ML) Beschleunigung
mboeller
2020-09-23, 10:26:15
Van Gogh ist ein Produkt dass ich so gar nicht verstehe, außer es ist eine fette APU ...
... für eine mobile Konsole. Sollte bei 7w alle XBox-One oder PS4 Spiele sehr leicht abspielen können. So als Konkurrenz zum Nintendo Switch.
Zumindest sehe ich Van Gogh so.
Edit: Warum? ZEN2 + RDNA2 kennen wir ja schon, von der XBoxSX/SS und der PS5. Deshalb würden IMHO die ZEN2-Kerne und RDNA2 GPU bei van Gogh Sinn machen; wenn es eine Art Konsole ist.
basix
2020-09-23, 10:33:47
Hmm, wäre eine Idee. Eine PS5 Vita ;)
Berniyh
2020-09-23, 10:54:10
Jupp, denke ich auch. Die Frage ist, ob Van Gogh die 8C behalten wird oder auf 4C zurück geht. Ich hoffe ersteres.
Es war doch gerade die Theorie, dass van Gogh Zen 2 ist, weil es sich um eine 4C APU handelt.
Für 8C eben dann Rembrandt.
Da der wesentliche Unterschied zwischen Zen 2 und Zen 3 eben die CCX Größe ist (4 Cores vs. 8 Cores) macht es in so einem Fall dann eben Sinn, dass van Gogh auf Zen 2 basiert, Rembrandt entsprechend auf Zen 3.
basix
2020-09-23, 11:36:09
4C wäre trotzdem schade wenn man sieht, wie schnell Renoir bei 15W ist. Mit 4C und schneller GPU steht man plötzlich in direkter Konkurrenz zu Tiger Lake. Bei 8C hätte man das deutlich bessere Angebot für Ultrabooks, vor allem im Prosumer Bereich. Das 4C CCX ist nur etwa 20mm2 gross.
davidzo
2020-09-23, 12:12:07
Ist interessant, dass van Gogh zwischen Warhol und Cezanne steht. Da müsste doch eigentlich was Größeres stehen, nicht 4 Kerne. Oder ist das mehr so ne GPU mit kleiner CPU?
Ich denke das ist nicht nach Technologie bzw. Performance gestaffelt, sondenr nach Marktsegmenten. Wir wissen das Van Gogh eine Ultramobile CPU ist. Und das ist ganz klar ein höheres Preissegment als Standards APUs wie Renoir/Cezanne die auch im Desktop unterhalt von Matisse/Vermeer kommen.
Insofern macht es schon sinn dass Highend Ultramobile über dem Bread and butter-mobile von Renoir/Cezanne einsortiert wird. Dafür ist egal ob es 4C oder 8C sind.
Jupp, denke ich auch. Die Frage ist, ob Van Gogh die 8C behalten wird oder auf 4C zurück geht. Ich hoffe ersteres.
Ich denke eher dass Van Gogh AMDs direkter counter zu Tigerlake ist. Deutlich bessere Grafikleistung bei gleichwertiger CPU performance und viel niedrigerer TDP als Intel. Vielleicht traut man sich dann ein eigenes OEM-Entwicklungsprogramm analog zu Projekt Athena aufzusetzen, welches dann mehr in Richtung ultradünn, ultramobile gehen sollte - wie das ursprüngliche Ultrabook-Programm. Das ist nämlich die offene Flanke von Tigerlake, der nur mit 28W so richtig auf Touren kommt.
RDNA2 hat anscheinend auch in der Minimalversion einen nicht zu unterschätzende Flächenbedarf. Sonst würde man nicht bei Cezanne, also APUs die in der regel sowieso noch eine dGPU bekommen, schon wieder auf Vega setzen anstatt auf die kleinste RDNA2 Auskopplung.
Insofern machen 4C im Ultramobile einfach Sinn, sonst würde das mit der fetten IGP noch eine Riesen-APU größer als Cezanne und für Ultramobile einfach zu fett.
Wer weiß, vielleicht kommt mit Van Gogh ja sogar der gemunkelte RNDA2 Infinity-Cache und hilft auch bei der CPU Performance der Zen2 CPU-kerne?
Complicated
2020-09-23, 12:21:47
4C wäre trotzdem schade wenn man sieht, wie schnell Renoir bei 15W ist. Mit 4C und schneller GPU steht man plötzlich in direkter Konkurrenz zu Tiger Lake. Bei 8C hätte man das deutlich bessere Angebot für Ultrabooks, vor allem im Prosumer Bereich. Das 4C CCX ist nur etwa 20mm2 gross.
Gerade für Chromebooks ist doch ein Nachfolger für die Zen/Zen+ Athlon 3000C-Serie ein geniales Upgrade.
https://www.planet3dnow.de/cms/wp-content/uploads/2020/09/AMD_3000C_Chrome_13.png
Ravenhearth
2020-09-23, 12:22:10
https://videocardz.com/newz/amd-rembrandt-to-feature-6nm-zen3-cores-support-ddr5-5200-memory
Hier das komplette Rembrandt Bildchen...
Interessant ist auf jedenfall 6nm und nicht 5nm...
Wahrscheinlich zu teuer
5nm also erst mit Zen 4? Rembrandt ist vielleicht auch einfach zu früh, wenn der Anfang 2022 kommt. Raphael scheint später dran zu sein, es kommt vorher auch noch Zen 3-Refresh.
... für eine mobile Konsole. Sollte bei 7w alle XBox-One oder PS4 Spiele sehr leicht abspielen können. So als Konkurrenz zum Nintendo Switch.
Zumindest sehe ich Van Gogh so.
Edit: Warum? ZEN2 + RDNA2 kennen wir ja schon, von der XBoxSX/SS und der PS5. Deshalb würden IMHO die ZEN2-Kerne und RDNA2 GPU bei van Gogh Sinn machen; wenn es eine Art Konsole ist.
Aber nimmt man ein Semi Custom-Design auf so eine Roadmap mit auf? Das wäre ja kein reguläres Produkt.
Berniyh
2020-09-23, 12:53:47
4C wäre trotzdem schade wenn man sieht, wie schnell Renoir bei 15W ist. Mit 4C und schneller GPU steht man plötzlich in direkter Konkurrenz zu Tiger Lake. Bei 8C hätte man das deutlich bessere Angebot für Ultrabooks, vor allem im Prosumer Bereich. Das 4C CCX ist nur etwa 20mm2 gross.
Rembrandt wird vermutlich auch als 15W Modell kommen, mit 8C.
Van Gogh könnte eher noch eine Leistungsklasse darunter sein, als Ultra Low Power Chip. Oder eben auch 15W, aber dann anders aufgeteilt.
Letztendlich heißt es hier nur, dass sich AMD einfach für die 4C Modelle einen eigenen Chip gönnt, da man so nicht unnötigen Ballast rumschleppt.
basix
2020-09-23, 13:13:11
Als Ersatz für Dali wäre Van Gogh sicher auch nicht schlecht.
Gerade für Chromebooks ist doch ein Nachfolger für die Zen/Zen+ Athlon 3000C-Serie ein geniales Upgrade.
https://www.planet3dnow.de/cms/wp-content/uploads/2020/09/AMD_3000C_Chrome_13.png
Ja, das ist so.
Complicated
2020-09-23, 14:15:54
AMD hat dort den Marktanteil von 8 auf 20% gesteigert und der Markt wächst rasant mit den Herstellern Lenovo, Acer, Asus und Dell. Gut möglich dass dies gezielt für diese OEMs aufgelegt wird als kommendes Lineup.
Ravenhearth
2020-09-23, 16:47:31
AMD Ryzen 7 5700U
https://twitter.com/TUM_APISAK/status/1308734011422904320
16 Threads?
reaperrr
2020-09-24, 01:21:06
https://twitter.com/TUM_APISAK/status/1308734011422904320
16 Threads?
https://twitter.com/MebiuW/status/1308747740218761218
Ist nur Lucienne (Renoir Refresh).
Ravenhearth
2020-09-24, 01:30:04
Und Zen 3 APUs sind dann Ryzen 6000 oder wie? :freak:
reaperrr
2020-09-24, 07:52:17
Und Zen 3 APUs sind dann Ryzen 6000 oder wie? :freak:
Nö (bzw. der Refresh vielleicht ;)), sieht wohl so aus, dass das 5000er Line-up gemischt sein wird. Die Cezanne-8C SKU als 5800U, Lucienne-8C as 5700U, CZ-6C als 5600U, LC-6C als 5500U usw.
Evtl. ist Zen2 etwas sparsamer je MHz und braucht ein paar mm² weniger Fläche, dann kann es schon Sinn machen, jedenfalls im mobilen Segment. Ist ja nicht wie im GPU-Segment, wo der eine Chip dann RT hätte und der andere nicht ;)
Piefkee
2020-09-24, 08:05:13
https://twitter.com/MebiuW/status/1308749328710873090
Laut MebiuW (der von dem wir die Roadmap haben) ist es bei den APUs so:
Ryzen 5 5500U : Lucienne (Renoir Refresh)(Config wie 4600U, 6C/12T)
Ryzen 5 5600U : Cezanne
Ryzen 7 5700U : Lucienne (Renoir Refresh)(Config wie 4800U 8C/16T)
Ryzen 7 5800U : Cezanne
Falls das stimmen sollte, einfach nur lol.
basix
2020-09-24, 08:19:07
So bekommt man auch eine Produksegmentierung hin. Iso Core/Threads aber Zen 3 ist einen Zacken schneller. Die am häufigsten verbauten SKUs sind der 4700U und 4500U (zumindest was ich so gesehen habe). Damit können die OEMs die selben Designs direkt weiterverwenden und ist früher mit den neuen Chips am Markt. Dass Cezanne immer noch Vega nutzt macht dann auch Sinn.
So zieht man SMT durchs gesamte Portfolio mit. Als Antwort auf Tigerlake U kann man das gut so machen, zumal Lucienne früher verfügbar sein dürfte als Cezanne.
LasterCluster
2020-09-24, 16:23:51
Als Ersatz für Dali wäre Van Gogh sicher auch nicht schlecht.
.
Van Gogh ist ne neue Plattform (FF3) und kommt nicht auf DT (AM4) und Normalo-NB (FP5). Es ist also KEIN Dalinachfolger, nicht mal als Zweitverwertung. FF3 wird offensichtlich eine Premium-ULP-Plattform. Mmn eine geniale Entscheidung, da 5-7 Watt TDP in Zukunft für so gut wie alles ausreichen.
Wenn man sich die Farbcodes auf der dem Leak anschaut, ergibt sich folgende Interepation:
-Grün: AM4
-Orange: FP6
-Gelb: FF3
-Weiß: AM5
-Blau FP7
-Rot: ?? Vielleicht alte FP5 für Dali. Es sieht aus als würde dieser Zweig aufhören. Vielleicht übernimmt FF3 irgendwann diese Rolle.
Warhol ist demnach wohl AM4 und noch mit DDR4
LasterCluster
2020-09-24, 16:42:20
Es war doch gerade die Theorie, dass van Gogh Zen 2 ist, weil es sich um eine 4C APU handelt.
.
Klingt logisch. Falls VG anständig Cache pro Core bekommmt, ist der IPC-Unterschied zu Cezanne vielleicht auch nicht so wild. Und wer weiß, vielleicht sind andere Verbesserungen von Zen3 zu Zen2 sogar eher hinderlich in Sachen Perf/Watt, da sie zu viel Transisitoren fressen. Unter Umständen ist VG ein Fork in der Entwicklung von Zen und der Beginn der little Cores.
LasterCluster
2020-09-24, 16:47:36
Interessant ist auf jedenfall 6nm und nicht 5nm...
Wahrscheinlich zu teuer
War doch schon lange klar.
1) Gab schon Mai einen Leak mit Rembrandt + 6nm.
2) Basiert Rembrandt auf Zen3 und damit war es schon immer quasi ausgeschlossen, dass 5nm zum Einsatz kommt
davidzo
2020-09-24, 17:46:46
War doch schon lange klar.
1) Gab schon Mai einen Leak mit Rembrandt + 6nm.
2) Basiert Rembrandt auf Zen3 und damit war es schon immer quasi ausgeschlossen, dass 5nm zum Einsatz kommt
Das war kein Leak letztes mal, sondern Speku.
Afaik ist es das erste mal das überhaupt bestätigt wurde das AMD irgendetwas auch in 6nm produziert, bisher waren nur 7e und N5(P) offiziell bestätigt (roadmaps).
pipin
2020-09-24, 18:51:22
https://twitter.com/MebiuW/status/1308749328710873090
Laut MebiuW (der von dem wir die Roadmap haben) ist es bei den APUs so:
Ryzen 5 5500U : Lucienne (Renoir Refresh)(Config wie 4600U, 6C/12T)
Ryzen 5 5600U : Cezanne
Ryzen 7 5700U : Lucienne (Renoir Refresh)(Config wie 4800U 8C/16T)
Ryzen 7 5800U : Cezanne
Falls das stimmen sollte, einfach nur lol.
Das macht doch Null Sinn und widerspricht dem Schema, das AMD sonst benutzt hat.
Unicous
2020-09-24, 19:22:18
Das macht schon "Sinn", wenn AMD die ganzen Chips ohne SMT rausschmeißt oder in ein anderes Segment verfrachtet und Lucienne (als Refresh von Renoir) und Lückenbüßer für Cezanne einsetzt, weil sie davon ausgehen nicht genügend Chips für das gesamte Portfolion produzieren zu können.
Cezanne selbst ist zwar imo auch nur ein Lückenbüßer um den entstandenen Abstand zu Tiger Lake auszugleichen, aber ich schätze mal AMD bräuchte deutlich mehr Kapazität um den Markt bedienen zu können und etwas besser gebinnte Renoir Chips könnten da zumindest anfangs eine Lücke füllen.
Erklärt natürlich immer noch nicht Van Gogh, auch wenn hier krampfhaft versucht wird es als Chip für Premium Note-/Ultrabooks zu verkaufen. Warum man nicht Zen 3 nutzt ist mir unbegreiflich.
Warum Van Gogh eine 4-Kern APU sein sollte mit RDNA 2 GPU erschließt sich mir nicht im Geringsten. Ich wüsste auch nicht warum Zen 2 hier effizienter sein sollte als Zen 3.:confused:
Der Cache ist mit der größte Energiefresser, diesen zu erhöhen und gleichzeitig die Kernzahl zu halbieren ist größtmöglicher Quatsch.
basix
2020-09-24, 19:39:59
Das mit Van Gogh wurde ja schon erwähnt. Ein 4C Zen 2 CCX zu nehmen + RDNA2 ist mit relativ wenig Aufwand verbunden (Renoir + Konsolen SoC Zwitter). Bei Zen 3 müsste man das CCX neu gestalten und in Richtung Low Power trimmen, was deutlich mehr Design und Validierungsaufwand nach sich ziehen würde. In dem vermuteten Marktsegment ist absolute Performance auch nicht so wichtig (die kriegt man dann mit Cezanne) sonderm möglichst niedriger Stromverbrauch, niedriger Designaufwand und niedrige Herstellungskosten (das bietet Zen 2 und RDNA2). Es soll ja eher ein Dali Ersatz sein und in Chromebooks, Multimedia-Stations, Casinos etc. wandern als auch <1kg Notebooks. Bei letzterem ist eher Portabilität als Performance wichtig (Excel Ritter und so ;)).
Und wieso kommst du auf mehr Cache? Das wird bei 4MB/CCX bleiben.
Unicous
2020-09-24, 20:11:31
Deutlich mehr Validierungsaufwand?:freak: Das ist ein komplett neues Design.:rolleyes:
Du tust so als ob sie ein paar IP-Steinchen auf der Die-Fläche verschieben, aber der Stein aus neuesten Kollektion nicht so wirklich dazupasst und sie es daher gelassen haben und dafür den Stein den sie davor auf der Fläche hatten einfach halbiert haben und das ganz einfach und ohne Probleme geht. Gleichzeitig haben sie mit Cezanne einen anderen Chip in der Pipeline wo genau das passiert.:freak:
Warum muss man Zen 3 auf Low Power trimmen? Ist Zen 3 im Gegensatz zu Zen 2 und dem Rest der Zen-Familie nur auf High Power ausgelegt? Wie kommst du zu dieser Behauptung? Warum ist es ein großer Aufwand Zen 3 auf Low Power zu trimmen. Warum ist es wenig(er) Aufwand Zen 2 auf Low Power zu trimmen?
Warum muss man bei Zen 3 das CCX neu gestalten wenn man es bei Van Gogh nutzen will während es bei Cezanne bereits geschehen ist?:confused::confused:
Ich gehe davon aus, dass Van Gogh weiterhin 8 Kerne hat und eine nominell kleinere GPU als Lucienne/Cezanne die dafür aber hoch taktet. Wenn sie auf 4 Kerne halbieren verspielen sie ihren "Kern"-Vorteil gegenüber Tigerlake-U mit einem Chip der vermutlich weniger CPU-Leistung bringt. Der Chip ergäbe für mich damit keinen Sinn mehr.
Complicated
2020-09-24, 20:13:55
Warum Van Gogh eine 4-Kern APU sein sollte mit RDNA 2 GPU erschließt sich mir nicht im Geringsten. Ich wüsste auch nicht warum Zen 2 hier effizienter sein sollte als Zen 3.:confused:
Zen2 kommt zum Einsatz, da es max 4-Kerne sein werden und das einem CCX bei Zen2 entspricht. Ich denke AMD kann da aus dem 4-Kern CCX mehr raus holen für eine solche SKU als einen Zen3-8-Kern CCX zu beschneiden. Der 4-Kern CCX wird sicherlich noch ein paar Optimierungen erhalten, da er ja keinen Zwilling anbinden muss, wie das bei Renoir der Fall ist. Wenn das Ziel ist, einen 4-Kern so Effizienz wie möglich zu machen, unter allen Gesichtspunkten, ist das schon die logische Wahl. Das kombiniert mit der effizienten RDNA2 GPU wird wohl sehr gut da stehen bei der Performance/Watt.
Unicous
2020-09-24, 21:04:14
Tigerlake dürfte so zwischen 15-30% höhere ST-Leistung haben als Renoir, liegt natürlich einerseits an höheren Taktraten, aber eben auch an generell höherer IPC.
AMD könnte jetzt den Takt deutlich erhöhen, die IPC wird das aber nicht tangieren, daher wüsste ich gerne konkret was für Optimierungen durch das Wegfallen eines CCX erreicht werden können und dadurch Leistungssteigerungen freigesetzt werden. Den Cache aufzublasen dürfte darunter kaum fallen.:freak:
Im Übrigen schafft es Tigerlake auch in der kolportierten 7(,5)-15(/18) Watt Sparte 4 Kerne und eine 96 EU große GPU unterzubringen mit insgesamt 12MB Cache. Nur leiden da die Taktraten deutlich beim Single-Core Turbo bewegt man sich aber trotzdem bei 4,4GHz.
Ich sehe daher nicht wie AMD hier auch nur den Hauch einer Chance hat mit Tigerlake gleichzuziehen. Da müsste man schon die 5GHz reißen und das halte ich für eher unwahrscheinlich wenn man auf Effizienz bedacht ist.:wink:
Ich habe das ungute Gefühl, dass AMD, zumindest was die mobile Sparte betrifft, deutlich zu viele Kompromisse eingeht und dadurch wieder Marktanteile einbüßen könnte. Dieses zerstückelte Portfolio, auch was Lucienne/Cezanne betrifft wirkt für mich nicht sehr stringent und eher nach Strickwerk. Leider zieht sich das wie ein roter Faden durch die APU-Generationen.
basix
2020-09-24, 21:48:47
Deutlich mehr Validierungsaufwand?:freak: Das ist ein komplett neues Design.:rolleyes:
Du tust so als ob sie ein paar IP-Steinchen auf der Die-Fläche verschieben, aber der Stein aus neuesten Kollektion nicht so wirklich dazupasst und sie es daher gelassen haben und dafür den Stein den sie davor auf der Fläche hatten einfach halbiert haben und das ganz einfach und ohne Probleme geht. Gleichzeitig haben sie mit Cezanne einen anderen Chip in der Pipeline wo genau das passiert.:freak:
Es geht vor allem darum, dass man 8C für Van Gogh anscheinend nicht braucht und das 8C CCX der integrale Baustein aller Zen 3 Produkte sein wird. Den auf 4C zu redesignen wird definitv mehr Aufwand sein, als schon bestehende und erprobte IP zu verwenden (4C CCX von Renoir, RDNA2 + Zen 2 von den Konsolen SoCs). Die CCX sind völlig unabhängige Bausteine, du musst die 2xCCX Konstruktion von Renoir nicht als eine Einheit sehen. Deswegen ist es dort ja einfacher, 4C anstatt 8C für die CPU zu nehmen.
Warum muss man Zen 3 auf Low Power trimmen? Ist Zen 3 im Gegensatz zu Zen 2 und dem Rest der Zen-Familie nur auf High Power ausgelegt? Wie kommst du zu dieser Behauptung? Warum ist es ein großer Aufwand Zen 3 auf Low Power zu trimmen. Warum ist es wenig(er) Aufwand Zen 2 auf Low Power zu trimmen?
APU != Desktop und Server. Schaue dir die Präsentation zu Renoir an. Dort ist einiges anders und deutlich stärker auf Low Power ausgelegt als beim Zen 2 CCD, nicht nur der deutlich verringert L3$. Zum Beispiel verdoppelte IF Breite und dafür halbierter Takt, erweiterte Power Management Features, Taktverhalten usw. Da kannst du das Zen 3 8C CCX nicht einfach vom Desktop CCD nehmen, in den Chip verfrachten und annehmen, Low Power ist automatisch erfüllt.
Warum muss man bei Zen 3 das CCX neu gestalten wenn man es bei Van Gogh nutzen will während es bei Cezanne bereits geschehen ist?:confused::confused:
Bei Cezanne sind 8C so gut wie sicher. Keine Reduktion auf 4C. Deswegen muss es nur halb umgestaltet werden (Low Power Omptimierungen) ;) Und ist die Umgestaltung bereits geschehen? Ich denke Cezanne kommt später als Lucienne und Van Gogh.
Ich gehe davon aus, dass Van Gogh weiterhin 8 Kerne hat und eine nominell kleinere GPU als Lucienne/Cezanne die dafür aber hoch taktet. Wenn sie auf 4 Kerne halbieren verspielen sie ihren "Kern"-Vorteil gegenüber Tigerlake-U mit einem Chip der vermutlich weniger CPU-Leistung bringt. Der Chip ergäbe für mich damit keinen Sinn mehr.
Ich hoffe ja das selbe ;) RDNA2 ist aber definitiv nicht kleiner als Vega. 2x 8C mit ähnlicher GPU-Performance macht einfach keinen Sinn. Van Gogh macht nur Sinn, wenn er mit 4C kommt oder mit 8C und einer deutlich performanteren GPU (deswegen auch LPDDR5).
Wir haben also 2 Möglichkeiten:
4C + 8CU RDNA2 --> klein, stromsparend
8C + 16CU RDNA2 --> Ultrabooks, Prosumer
Wenn letzteres kommt, ist halt einfach die Timeline dafür verantwortlich, dass es Zen 2 und nicht Zen 3 geworden ist.
Berniyh
2020-09-24, 22:02:20
8C + 16CU RDNA2 --> Ultrabooks, Prosumer
Bezweifel ich. Schlicht und einfach aus dem Grund, dass das nicht wirklich eine neue APU-Linie begründen würde, wonach es derzeit aber den Anschein hat.
Da würde es Renoir oder Cezanne auch tun und RDNA2 ist an dem Punkt einfach nicht soooo wichtig.
Da macht die 4C Variante irgendwo einfach mehr Sinn.
Und wie du (und andere vor dir ja schon ausgeführt haben) gibt das auch die exzellente Begründung dafür, dass Zen 2 und nicht Zen 3 zum Einsatz kommt.
reaperrr
2020-09-24, 22:53:02
Du tust so als ob sie ein paar IP-Steinchen auf der Die-Fläche verschieben, aber der Stein aus neuesten Kollektion nicht so wirklich dazupasst und sie es daher gelassen haben und dafür den Stein den sie davor auf der Fläche hatten einfach halbiert haben und das ganz einfach und ohne Probleme geht.
Äh, ja. Genau das, nur dass du hier den Denkfehler drin hast, die zwei CCX von Renoir wären ein Baustein.
VG braucht für das angepeilte Segment nur 4 Kerne, die ausreichend schnell sind. Ein Zen2-CCX hat 4 Kerne, ein Zen3-CCX 8. Nur für vG ein 4C-Zen3-CCX zu designen hätte vom Aufwand in keinem Verhältnis zum Ertrag gestanden.
Ich gehe davon aus, dass Van Gogh weiterhin 8 Kerne hat und eine nominell kleinere GPU als Lucienne/Cezanne die dafür aber hoch taktet. Wenn sie auf 4 Kerne halbieren verspielen sie ihren "Kern"-Vorteil gegenüber Tigerlake-U mit einem Chip der vermutlich weniger CPU-Leistung bringt. Der Chip ergäbe für mich damit keinen Sinn mehr.
Ääh... einfach nur nein.
Warum sollte AMD neben Renoir/Lucienne und Cezanne noch eine dritte 8C-APU bauen?
Und das mit der GPU siehst du genau falsch herum: Die von vG wird m.E. eher größer als die von Renoir und Cezanne sein, der Chip is m.E. nämlich primär für den Embedded-Bereich, low-cost Chromebooks, billige Notebooks ohne zusätzlichen Grafikchip etc. gedacht, wo 4 Zen2-Kerne reichen und für extra Grafikchips kein Platz/Power-Budget vorhanden ist. Es geht bei diesem Chip nicht darum, TGL bei der CPU-Leistung zu schlagen, sondern nur bei CPU ausreichend Leistung zu bieten und bei GPU-Leistung und -Perf/W vorn zu sein.
eccle
2020-09-25, 00:00:00
Das macht doch Null Sinn und widerspricht dem Schema, das AMD sonst benutzt hat.
Das widerspricht dem Schema, könnte aber Sinn machen, wenn man ein Problem mit der Kapazität hat.
Ein Beispiel: Lucienne ist ein Renoir-Refresh, sehr nah an Renoir. AMD stellt die Renoir-Produktion ein und erzeugt die Renoir SKUs aus den Lucienne-Dies. Für die Lucienne SKUs und die Renoir SKUs (die für "ältere" Notebooks, die V2000-Serie, Desktop-Rechner usw. weiterhin gebraucht werden) kann somit ein einziges (neues) Die verwendet werden. Je nach Nachfrage können die Chips, die vom Wafer fallen, Produkten zugeordnet werden - evtl. bis hin zur Ryzen 5000U/H/G Serie.
Cezanne macht dann die Sache notwendigerweise komplizierter. Aber da sowohl Lucienne als auch Renoir unter gleicher Flagge laufen (5000U) laufen würden, könnte man OEMs (im schlimmsten Fall bei Nichtverfügbarkeit) eine Alternative und Kunden ein Prozessor-Up- oder Downgrade anbieten und würde nicht mit leeren Händen dastehen.
Unicous
2020-09-25, 00:24:12
@reaperrr
Von allen Leakern wird der Chip als etwas Besonderes im lineup herausgehoben, einige Leaker denken es könnte diesmal ein echter semi-custom Chip für Surface-Laptops sein, es wird darüber hinaus aber auch als Nischenprodukt dargestellt und du kommst mit "primär für den Embedded-Bereich, low-cost Chromebooks, billige Notebooks ohne zusätzlichen Grafikchip etc. gedacht".:rolleyes:
Woher du das angepeilte Segment nimmst könntest du uns allen gerne verraten. Denn bislang sah es so aus, als würde man ein Segment über Renoir und Cezanne(/Lucienne) anpeilen, nicht darunter, die roadmap, sei sie denn zutreffend schätzt es ähnlich ein (könnte natürlich sein, dass der Leaker sich die Einordnung auch aus den Fingern gesaugt hat). Über Van Gogh ist wenig bis nichts bekannt, aber ihr habt euch schon eingeschossen auf etwas das durch nichts, keinen Leak oder ähnliches, bekräftigt wird.
Dali und Pollock sind die Chips die eben dieses Segment momentan bedienen.
AMD hat außerdem gerade diese Chips (und Raven Ridge) dafür auserkoren das Chromebook Segment zu bedienen:
https://www.computerbase.de/2020-09/notebook-amd-zen-architektur-chromebook/
Ich habe im übrigen nicht behauptet, dass die beiden CCX ein Baustein wären. Ich habe lediglich erläutert dass das alles nicht so einfach funktioniert wie es immer gerne so dargestellt wird. Durch das Entfernen oder Hinzufügen von IP-Böcken entstehen auch Abhängigkeiten im Design (Anbindung/Kommunikation Fabric, Uncore, GPU etc.). Anderseits wird dann wieder behauptet, man könnte Zen 3 nicht auf Low Power trimmen... weil... ein CCX aus 8 Kernen besteht?:freak:
AMD geht seit Jahren in die Breite und kann zum Teil prozessbedingt, zum Teil architekturbedingt die Taktraten nur moderat anheben. Jetzt wird auf einmal wieder ein hocheffizienter Speed-Demon aus Zen 2, weil ein CCX entfernt wird und es "Optimierungen" gibt. Welche Optimierungen das sein sollen wird zwar nicht erläutert, aber es folgt die logische Konsequenz daraus, dass Zen 2 so effizienter ist als Zen 3.:freak:
Das erinnert ein wenig an die AdoredTV Leaks wo für Zen 2 über 5GHz vorhergesagt wurden.
So wie es aussieht bedient man eben nicht das angesprochene Segment, bzw. tut das mit Chips der aktuellen Generation, während Cezanne vermutlich dafür ausgelegt ist mit dedizierten GPUs gepaart zu werden. Das macht Tigerlake-H dann aber deutlich "geschickter", denn hier hat man die GPU im Vergleich deutlich kastriert.
Sollte Van Gogh eine 4-Kern CPU sein mit einer 8 CU RDNA 2 GPU ist das eben nichts halbes und nichts Ganzes. Weder bedient man Premium Notebooks zufriedenstellend, denn da zählt vorrangig die CPU-Leistung und da kann man aller Voraussicht nach nicht mit Tigerlake konkurrieren, noch ist es genug sich gegenüber dedizierten GPUs zu behaupten.
Für Einsteiger-Laptops wiederum wäre die GPU überdimensioniert und man konkurriert mit den eigenen 4-Kern Chips die bereits auf dem Markt sind. Wie soll man dem Kunden kommunizieren, es gibt zwei 4-Kern Chips: beim einen ist die CPU nicht so gut, beim anderen Chip ist wiederum die GPU schlechter und.
Und wie vermarkte ich diese Chips? Zudem scheint es, dass DDR4 gar nicht erst unterstützt wird nur LPDDR4/5, allein das spricht nicht für Einsteigersegment.
Van Gogh macht als Consumer-Chip so keinen Sinn. Ich hoffe noch darauf, dass sie irgendetwas Spezielles mit dem Chip vorhaben, irgendeine Implementation mit speziellen Wifi/5G/AI/MachineLearning was auch immer Gedöns.
edit:
Da fällt mir gerade wieder ein: Van Gogh Lite als GPU Namen gibt es ja auch noch und Mero scheint auch mit Van Gogh verbandelt zu sein. Mero soll ein Custom Chip sein.
Ravenhearth
2020-09-25, 03:34:43
Van Gogh ist Premium Low Power, nicht Low Cost. Darauf deuten LPDDR4x/LPDDR5 eindeutig hin, wie Unicous schon richtig erkannt hat. Außerdem ist Van Gogh nicht umsonst die erste APU mit Navi. Van Gogh hat auch ein eigenes Package (FF3), das beim Nachfolger weiter verwendet wird, während Rembrandt auf FP7 geht. Natürlich bekommt Van Gogh auch 8 Kerne, den will AMD teurer verkaufen als Renoir. Zen 2 wird verwendet, weil Zen 3 bei den niedrigen Taktraten seinen Effizienzvorteil verliert und höheren area cost hat.
Da fällt mir gerade wieder ein: Van Gogh Lite als GPU Namen gibt es ja auch noch und Mero scheint auch mit Van Gogh verbandelt zu sein. Mero soll ein Custom Chip sein.
Es müsste eigentlich Miro sein: "His early art, like that of the similarly influenced Fauves and Cubists, was inspired by Vincent van Gogh and Paul Cézanne." (https://en.wikipedia.org/wiki/Joan_Mir%C3%B3) Hmm...
Eldoran
2020-09-25, 05:25:25
Lucienne als Renoir Refresh macht irgendwie nicht viel Sinn, das Ganze müsste dann zumindest so etwas wie Zen+ sein, ein Port auf einen anderen Fertigungsprozess. Das mag unter diesem Umständen noch irgendwie Sinn machen, wenn man so die Produktion erhöhen kann kann. Aber es bietet sich eigentlich kein Kandidat an, bei dem wie seinerzeit quasi ohne Aufwand portiert werden kann und die weitere Frage ist dann auch noch - wo kann man so sinnvoll Bedarf decken?
Ein wildes durcheinander der verschiedenen Dies kommt zwar vor - gerade bei intel war da in den letzten Jahren gerade bei mobile ein lustiges durcheinander der verschiedenen Skylake Iterationen üblich. AMD hat aber normalerweise (von Sondermodellen abgesehen) bisher eher nur die Billigschienen mit älteren Dies aufgefüllt. Das wäre da eher so ein Ersatz für die bisherigen Renoir Modelle.
Der zweite Punkt in dieser Hinsicht ist dann noch - wo bekommt AMD so zusätzliche Wafer starts? Schon die bisherigen 7nm Dies stammen von diversen Varianten bei TSMC.
basix
2020-09-25, 09:18:06
Ich habe im übrigen nicht behauptet, dass die beiden CCX ein Baustein wären. Ich habe lediglich erläutert dass das alles nicht so einfach funktioniert wie es immer gerne so dargestellt wird. Durch das Entfernen oder Hinzufügen von IP-Böcken entstehen auch Abhängigkeiten im Design (Anbindung/Kommunikation Fabric, Uncore, GPU etc.).
Stell dir vor: Zen 2 + RDNA2 gibt es bereits als APU. Was ist also einfacher: Deine angesprochenen Abhängigkeiten wie Uncore, Interfaces usw. mehr oder minder unangetastet zu lassen oder mit Zen 3 eine neue IP einzuführen, welche ebengenau zu deinen beschriebenen Problemen führen kann?
Anderseits wird dann wieder behauptet, man könnte Zen 3 nicht auf Low Power trimmen... weil... ein CCX aus 8 Kernen besteht?:freak:
Hier legst du Leuten Dinge in den Mund, die so nicht gesagt wurden ;) Natürlich kann man Zen 3 auf Low Power trimmen. Bei Zen 2 hat man dazu halt schon bestehende IP, bei Zen 3 noch nicht. Das erhöht die Timeline-Sicherheit enorm. Siehe Renoir und Vega. Dort hat man mit Vega auch die alte IP genommen.
Und wie gesagt, wenn Van Gogh nur 4C bieten wird, ist Zen 2 einfach naheliegender. Du musst auch folgendes berücksichtigen: AMD ist eine relativ kleine Firma verglichen mit Intel und Nvidia. Lohnt sich der Aufwand für die letzten 10-20% bei einer SKU, welche verglichen mit Server und Desktop niemals die selben Margen abwerfen wird? Oder konzentriert man den R&D Aufwand lieber auf etwas wichtigeres? Es wird dann nicht das maximal mögliche Produkt, wäre aber gut genug. Ich bin selbst Ingenieur und möchte oftmals das bestmögliche Design implementieren. Doch in vielen Fällen lohnen die letzten Prozent den Aufwand nicht. Aufwand an anderer Stelle zu spendieren ist dann effektiver.
AMD geht seit Jahren in die Breite und kann zum Teil prozessbedingt, zum Teil architekturbedingt die Taktraten nur moderat anheben. Jetzt wird auf einmal wieder ein hocheffizienter Speed-Demon aus Zen 2, weil ein CCX entfernt wird und es "Optimierungen" gibt. Welche Optimierungen das sein sollen wird zwar nicht erläutert, aber es folgt die logische Konsequenz daraus, dass Zen 2 so effizienter ist als Zen 3.:freak:
4C sind energiesparender als 8C, solange du nicht maximale Performance haben willst. Egal ob Zen 2 oder Zen 3. Oder willst du behaupten, dass Zen 3 doppelt so effizient sein wird wie Zen 2?
Bei Renoir hat man ausserdem bereits >1 Jahr Erfahrung mit Low Power Optimierungen. Die hat man bei Zen 3 noch nicht in diesem Umfang, da es ein neues Design ist. Das kann ein Vorteil pro Zen 2 sein.
4C Zen 2 wird mit hoher Wahrscheinlichkeit auch weniger Chipfläche beanspruchen als ein 4C Zen 3 Design (falls es sowas jemals geben wird). Wenn es also klein und günstig sein soll, ist Zen 2 eigentlich optimal.
Und wenn es 8C werden? Da gilt mein Punkt von oben: Bestehende IP, effektive Nutzung von R&D Ressourcen
davidzo
2020-09-25, 09:30:32
Lucienne als Renoir Refresh macht irgendwie nicht viel Sinn, das Ganze müsste dann zumindest so etwas wie Zen+ sein, ein Port auf einen anderen Fertigungsprozess. Das mag unter diesem Umständen noch irgendwie Sinn machen, wenn man so die Produktion erhöhen kann kann. Aber es bietet sich eigentlich kein Kandidat an, bei dem wie seinerzeit quasi ohne Aufwand portiert werden kann und die weitere Frage ist dann auch noch - wo kann man so sinnvoll Bedarf decken?
Ein wildes durcheinander der verschiedenen Dies kommt zwar vor - gerade bei intel war da in den letzten Jahren gerade bei mobile ein lustiges durcheinander der verschiedenen Skylake Iterationen üblich. AMD hat aber normalerweise (von Sondermodellen abgesehen) bisher eher nur die Billigschienen mit älteren Dies aufgefüllt. Das wäre da eher so ein Ersatz für die bisherigen Renoir Modelle.
Der zweite Punkt in dieser Hinsicht ist dann noch - wo bekommt AMD so zusätzliche Wafer starts? Schon die bisherigen 7nm Dies stammen von diversen Varianten bei TSMC.
AMD muss gar nichts portieren oder verbessern um eine neue SKU wie Lucienne zu bringen. Das kann einfach eine andere Produktionsscharge sein die anders gebinnt und gebrandet wird.
Das sind ja keine chiplisten bzw. Listen von Maskensätzen etc. sondern Product management Listen, also Sales/Marketingseitig. Was da technisch hinter steht ist beinahe egal. Da kann AMD gerne einen Chip als Branded Kestrel, Dali und Pollock zu gleich bringen - komplett andere Marktsegmente, gleiches Silizium, ggf. anderes binning.
Mehr Waferstarts sind doch seit Anfang September frei, weil Apple von 7nm weggegangen ist und der Huawei Bann seit dann greift. Würde mich aber nicht wundern wenn AMD wegen Zen3 und Navi sowieso schon langfristig größere Kapazitäten gebucht hatte.
amdfanuwe
2020-09-25, 16:40:31
https://twitter.com/MebiuW/status/1308749328710873090
Laut MebiuW (der von dem wir die Roadmap haben) ist es bei den APUs so:
Ryzen 5 5500U : Lucienne (Renoir Refresh)(Config wie 4600U, 6C/12T)
Ryzen 5 5600U : Cezanne
Ryzen 7 5700U : Lucienne (Renoir Refresh)(Config wie 4800U 8C/16T)
Ryzen 7 5800U : Cezanne
Falls das stimmen sollte, einfach nur lol.
Wenn da was dran ist, reim ich mir folgendes zusammen:
Cezanne: ursprünglich geplante Entwicklung mit ZEN3 CPU Perfomance
Lucienne: "Besser als gedachtes Renoir Design" in neuem Prozess mit nochmals verbesserten LowPower Eigenschaften.
Van Gogh: Vom XBOX S Chip abgeleitetes Design, evtl. Zweitverwendung?
mit starker GPU, evtl. eigenem VRAM?.
Lucienne und Van Gogh mit wenig Entwicklungsaufwand und durch die geänderten Prozesstechniken/Verfügbarkeit möglich.
AMD reagiert schnell auf geänderte Bedingungen und wenn etwas einfach machbar ist und Gewinn verspricht, warum nicht.
Berniyh
2020-09-25, 16:52:07
Van Gogh: Vom XBOX S Chip abgeleitetes Design, evtl. Zweitverwendung?
mit starker GPU, evtl. eigenem VRAM?.
Wozu? :confused:
Alles deutet bislang darauf hin, dass van Gogh ein Low Power Design wird und das ist doch auch ziemlich klar die Erklärung die am meisten Sinn macht.
Etwas weniger CPU als Renoir und Cezanne, sowie etwas weniger iGPU und fertig.
Damit kann man ggf. neue Märkte erschließen.
Das was du andeutest kann man auch mit Renoir, Cezanne und Rembrandt abdecken, dafür braucht man keinen neuen Chip.
Dank Smartshift wären die 8C da jetzt auch nicht so das große Problem.
amdfanuwe
2020-09-25, 17:09:09
Wozu? :confused:
Seh ich halt nicht so. Mich stört die Einordnung über Cezanne in der Roadmap.
Ein kleiner 4 Core Chip würde eher unten in der Roadmap stehen.
Ein starker Chip für Full HD Mobile Gaming macht da schon Sinn. Spart die Nvidia dGPU.
Für Desktop wenig sinnvoll, da steckt man eher eine GPU hinzu.
Renoir und Cezanne fehlt das Interface für VRAM.
Wie klein würde ein Chip mit 4C 3CU?
Dali 150mm²
Renoir 150mm²
Lohnt überhaupt noch ein Chip mit 4C?
Interessant auch, das die XBOX Chips PCIe 4 haben.
Berniyh
2020-09-25, 17:18:39
Lohnt überhaupt noch ein Chip mit 4C?
Kommt auf die Anwendung darauf an. In den typischen PC Anwendungsfällen dürfte nach Einführung von Renoir der Bereich mit 4C und weniger langsam aussterben, aber wenn eben van Gogh explizit für Low Power angedacht ist, dann gäbe es da schon Anwendungsfälle wie Phablets o.ä.
amdfanuwe
2020-09-25, 18:19:11
der Bereich mit 4C und weniger langsam aussterben, aber wenn eben van Gogh explizit für Low Power angedacht ist, dann gäbe es da schon Anwendungsfälle wie Phablets o.ä.
Nicht falsch verstehen. 2C und 4C Chips werden im embedded Bereich für viele Anwendungen reichen und lange nicht aussterben ( Fahrkartenautomaten, Geldautomaten, Kassenterminals, Steuerungen...).
Mit Lucienne hatte ich ursprünglich an einen 4C Dali Nachfolger gedacht. Lohnt sich die Flächeneinsparung gegenüber 8 Core aber überhaupt noch, wenn man mit 8C ein viel größeres Spectrum bedienen kann?
Müßte man jetzt die Mischkalkulation sehen und Verkaufszahlen haben.
Für Spezialanwendungen bei denen es um jeden Cent geht lohnt sich sicherlich bei entsprechender Menge ein eigener Chip.
Van Gogh hat mir zuviel Ähnlichkeit mit den Konsolen APUs.
Das nur LPDDR4/5 angegeben ist läßt mich eher an Premium Notebooks mit entsprechender Leistung denken. Also entweder Ultrabooks und/oder Gaming.
An Phablets denk ich da weniger. In dem Mobile Markt hat sich Intel schon die Finger verbrannt. Erstmal wird AMD zusehen im Notebook Markt weiter Marktanteile zu gewinnen.
Naja, bei den kleinen Häppchen, die angeblich "geleakt" werden, ist es kein Wunder, dass jeder zu anderen Schlußfolgerungen kommt.
Lassen wir uns überraschen. Ich lag schon oft genug mit meinen Phantasien daneben und wollte mich eigentlich mit Spekulationen zurückhalten :redface:
Berniyh
2020-09-25, 18:46:35
Lohnt sich die Flächeneinsparung gegenüber 8 Core aber überhaupt noch, wenn man mit 8C ein viel größeres Spectrum bedienen kann?
Solange man nicht auch an anderen Stellen schrumpft lohnt sich das sicherlich nicht.
Daher würde ich davon ausgehen, dass gegenüber Renoir auch der GPU Anteil kleiner werden würde.
Van Gogh hat mir zuviel Ähnlichkeit mit den Konsolen APUs.
Das ist aber nur auf Basis der Angabe Zen2 + RDNA2. Darunter kann man sehr viele Variationen verstehen, denn daher diskutieren wir ja auch darüber. ;)
Naja, bei den kleinen Häppchen, die angeblich "geleakt" werden, ist es kein Wunder, dass jeder zu anderen Schlußfolgerungen kommt.
Lassen wir uns überraschen. Ich lag schon oft genug mit meinen Phantasien daneben und wollte mich eigentlich mit Spekulationen zurückhalten :redface:
Wenn ich ehrlich bin ist es mir eigentlich sogar ziemlich egal was van Gogh wird, denn auf die eine (Low Power) oder andere (High Power) Variante ist der Chip vollkommen und gänzlich uninteressant für mich. :D
amdfanuwe
2020-09-25, 19:05:40
Wenn ich ehrlich bin ist es mir eigentlich sogar ziemlich egal was van Gogh wird, denn auf die eine (Low Power) oder andere (High Power) Variante ist der Chip vollkommen und gänzlich uninteressant für mich. :D
Ich hab nen Stapel AMD Aktien. Daher ist es schon für mich interessant, ob sie damit was verdienen können und ich die Aktien noch etwas länger halte. :biggrin:
Berniyh
2020-09-25, 22:44:19
Da wir gerade beim APU Thema sind …
van Gogh hat ein DDR5 Speicherinterface:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=49e18cec1833914a61d85d3935df469cdac1c537
drm/amdgpu: add uapi to define van gogh memory type
This patch adds van gogh memory type as DDR5.
Signed-off-by: removed
Signed-off-by: removed
---
include/uapi/drm/amdgpu_drm.h | 1 +
1 file changed, 1 insertion(+)
diff --git a/include/uapi/drm/amdgpu_drm.h b/include/uapi/drm/amdgpu_drm.h
index 8d416188ddb3..d98d4e6f311b 100644
--- a/include/uapi/drm/amdgpu_drm.h
+++ b/include/uapi/drm/amdgpu_drm.h
@@ -949,6 +949,7 @@ struct drm_amdgpu_info_firmware {
#define AMDGPU_VRAM_TYPE_DDR3 7
#define AMDGPU_VRAM_TYPE_DDR4 8
#define AMDGPU_VRAM_TYPE_GDDR6 9
+#define AMDGPU_VRAM_TYPE_DDR5 10
struct drm_amdgpu_info_device {
/** PCI Device ID */
Edit: und dürfte damit wohl der einzige Zen 2 Chip mit DDR5 Support sein. ;)
Device ID 0x163F, wie von Komachi vorhergesagt.
Unicous
2020-09-25, 22:55:38
Da die PHYs meist beide Protokolle (LP- und normales DDR) unterstützen war das erwartbar. Ob es am Ende auch Produkte gibt die DDR5 nutzen wird sich zeigen.
edit:
Van Gogh Support Patch.
https://lists.freedesktop.org/archives/amd-gfx/2020-September/054216.html?git=anzwix&show=1
Berniyh
2020-09-25, 23:01:34
Klar, LP-DDR5 ist auch an Bord:
https://cgit.freedesktop.org/~agd5f/linux/commit/?id=372eab8e753c91123e7530dc1a35db45f3f18a3a
diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_atomfirmware.c b/drivers/gpu/drm/amd/amdgpu/amdgpu_atomfirmware.c
index 17c010d0431f..e0e3a7e4774f 100644
--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_atomfirmware.c
+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_atomfirmware.c
@@ -149,6 +149,10 @@ static int convert_atom_mem_type_to_vram_type(struct amdgpu_device *adev,
case LpDdr4MemType:
vram_type = AMDGPU_VRAM_TYPE_DDR4;
break;
+ case Ddr5MemType:
+ case LpDdr5MemType:
+ vram_type = AMDGPU_VRAM_TYPE_DDR5;
+ break;
default:
vram_type = AMDGPU_VRAM_TYPE_UNKNOWN;
break;
diff --git a/drivers/gpu/drm/amd/amdgpu/amdgpu_object.c b/drivers/gpu/drm/amd/amdgpu/amdgpu_object.c
index 92fbbfb16cff..2ce79bccfc30 100644
--- a/drivers/gpu/drm/amd/amdgpu/amdgpu_object.c
+++ b/drivers/gpu/drm/amd/amdgpu/amdgpu_object.c
@@ -1063,6 +1063,7 @@ static const char *amdgpu_vram_names[] = {
"DDR3",
"DDR4",
"GDDR6",
+ "DDR5"
};
/**
Ehrlich gesagt hätte ich nicht gedacht, dass van Gogh auf (LP-)DDR5 setzt, sondern eben DDR4. Wahrscheinlich wird das dann das erste DDR5-Produkt von AMD.
Unicous
2020-09-25, 23:06:25
Auf der Roadmap wird explizit LPDDR 4/5 erwähnt.
Heute ist auf jeden Fall Van Gogh (edit: GPU) Tag.:wink:
Berniyh
2020-09-25, 23:16:46
Ah, das war mir gar nicht aufgefallen.
amdfanuwe
2020-09-26, 04:51:27
Die APUs lassen mich nicht in Ruhe :-(
Ich könnte fast Wetten, dass nur Cesanne für den Desktop erscheint.
Luzienne als Renoir Refresh in einem günstigen Prozess nicht so leistungsfähig als billigheimer verkauft wird.
Könnte Van Gogh AMDs Antwort auf Intels Foveros werden? Kleine APU mit LPDDR4/5 als POP Speicher obendrauf? https://www.anandtech.com/show/15877/intel-hybrid-cpu-lakefield-all-you-need-to-know/3
Wenn AMD da etwas vergleichbares aufstellt, könnten sie Intel ordentlich in die Suppe spucken.
Lucienne ist einfach nur früher dran, deshalb wird man das machen.
LasterCluster
2020-09-26, 10:11:21
Das war kein Leak letztes mal, sondern Speku.
Afaik ist es das erste mal das überhaupt bestätigt wurde das AMD irgendetwas auch in 6nm produziert, bisher waren nur 7e und N5(P) offiziell bestätigt (roadmaps).
War ein Leak von Expreview ausm Mai:
Cezanne= Zen 3+Vega 7(TSMC N7)
Rembrandt= Zen 3+( Zen 3 Refresh?) +RDNA 2(TSMC 6nm,DDR5/LPDDR5,USB4,PCIe 4.0)
Van Gogh= Zen 2+RDNA 2(TDP 9W)
Source:Expreview
Hat sich schrittweise alles bestätigt. Also kann man auch VG als Ultra Low
Power als gesetzt ansehen.
Und die LPDDR5-Unterstützung ist ein klares Signal, dass es KEIN reines
Budgetprodukt ist.
VG führt eine neue Prduktlinie ein (FFx-Package) und hat als erste APU ein Haufen neues Zeug (RDNA2,LPDDR5,CVML). Das Ding wird keine Nebensache und wegen <10 Watt sicherlich keine Highend-APU und kein 8-Kerner. AMD wird offensichtlich die ultramobilen Märkte angreifen. Fragt sich nur mit welchen Partnern. Samsung, Microsoft?
Berniyh
2020-09-26, 10:58:43
Auf CVML würde ich da jetzt nicht so viel geben, das ist vermutlich einfach ein Feature von RDNA2.
Ravenhearth
2020-09-26, 13:05:58
Van Gogh wird 8 Kerne haben, Zen 2 skaliert weit genug nach unten. Bei nur 4 Kernen hätte man auch Zen 3 nehmen können. Außerdem will AMD für Van Gogh mehr Geld sehen als für Renoir, das geht mit 4 Kernen nicht.
Man nimmt 4 Kerne für Zen2, weil es kein Zen3 CCX für 4 Kerne gibt.
Complicated
2020-09-26, 13:35:01
Da Zen3 einen 8-Kern CCX hat und Zen2 einen 4-Kern CCX ist Zen3 wohl nicht die bessere Variante. Das wurde jetzt aber auch oft genug durchgekaut. Das sind Gegner für Intels Tigerlake-4-Kern CPUs.
Optimierter 7nm Prozess und weglassen der IF für 2xCCX. Das ist ein Raven Ridge Nachfolger mit höherer GPU-Leistung (bei LPDDR5 Nutzung). Die Parameter sind offensichtlich als Tigerlake-Konkurrent konzipiert. Und wenn AMD hier im direkten Vergleich das bessere Paket bringt, dann wird Intel nicht mehr viel Marktsegmente beherrschen können. Aus diesem Die lassen sich deutlich günstiger auch 2-Kern Modelle fertigen als aus einen 8-Kern Die. Vor allem in der Situation, dass die nächsten 3 Jahre jeder mm² eines Wafers optimal genutzt werden muss.
Ich denke Zen2 wird noch länger mit seinem 4-Kern CCX auch in zukünftigen APU-Produkten auftauchen. (Chomebooks z.B. - da sind in der aktuellen C3000-Serie Zen und Zen+ Kerne verbaut)
Megamember
2020-09-26, 14:05:58
Gibts die CPUs am 8. Oktober eigendlich schon zu kaufen oder ist dann nur die Releaseveranstaltung von AMD wo die Modelle vorgestellt werden?
Ravenhearth
2020-09-26, 14:08:02
Als ob AMD bei einem neuen Premium-Design (!) weniger Kerne bietet als beim älteren und günstigeren Renoir. Van Gogh ist Low Power, aber nicht Low Cost. Mit 4 Zen 2-Kernen stünde man gegen Tiger Lake auch überhaupt nicht mehr so gut dar.
Complicated
2020-09-26, 14:12:24
Warum sollte man nicht so gut da stehen mit 4-Zen2-Kernen die monolithisch anstatt mit Chiplet verbaut sind?
CCX-IF auch noch weggelassen wird das in jedem Fall eine Steigerung zu Renoir geben, alleine wegen mehr Powerbudget für Takt+kleinerer Die.
w0mbat
2020-09-26, 14:27:25
Gibts die CPUs am 8. Oktober eigendlich schon zu kaufen oder ist dann nur die Releaseveranstaltung von AMD wo die Modelle vorgestellt werden?
Wahrscheinlich nur die Vorstellung und eine Ankündigung, wann der Verkauf startet.
horn 12
2020-09-26, 14:27:50
Vostellung von Zen 3 - Also Donnerstag den 08-ten Oktober
Launch womöglich 22 Oktober!
RDNA 2 - 28-ter Oktober - mit Verfügbarkeit 09.ten November?
Ravenhearth
2020-09-26, 14:32:01
Warum sollte man nicht so gut da stehen mit 4-Zen2-Kernen die monolithisch anstatt mit Chiplet verbaut sind?
CCX-IF auch noch weggelassen wird das in jedem Fall eine Steigerung zu Renoir geben, alleine wegen mehr Powerbudget für Takt+kleinerer Die.
Der Vorteil von Renoir gegenüber Tiger Lake sind die 8 Kerne, bei der gleichen Anzahl zieht Tiger Lake durch mehr IPC und Takt davon. Klar würden 4 Kerne höher takten als 8, aber das gilt für Renoir dank Turbo ja jetzt schon. Man gewinnt durch das Weglassen von 4 Kernen überhaupt nichts.
Dass es Zen 2 wird, deutet gerade nicht auf 4 Kerne hin, sondern auf 8. Denn mit nur 4 Kernen bräuchte man die höhere IPC von Zen 3, und ein CCX mit der Hälfte an Kernen zu bauen wäre jetzt nicht die Schwierigkeit (man hat das mit Zen+ ja sogar für Dali gemacht). 8 Kerne sind bei Multithread allerdings effizienter, und bei den niedrigen Taktraten von Van Gogh verliert Zen 3 seinen Effizienzvorteil, also wirds Zen 2. Außerdem steht Van Gogh wie gesagt über den normalen APUs wie Renoir, da kann man nicht plötzlich nur noch die Hälfte an Kernen bringen.
Complicated
2020-09-26, 14:40:59
Der Vorteil von Renoir gegenüber Tiger Lake sind die 8 Kerne, bei der gleichen Anzahl zieht Tiger Lake durch mehr IPC und Takt davon. Klar würden 4 Kerne höher takten als 8, aber das gilt für Renoir dank Turbo ja jetzt schon. Man gewinnt durch das Weglassen von 4 Kernen überhaupt nichts.
Doch das tut man - das zeigen ja schon Tests der 3100 /3300X-Modelle.
https://www.anandtech.com/show/15774/the-amd-ryzen-3-3300x-and-3100-cpu-review
https://images.anandtech.com/doci/15774/Ryzen%203_B550_Press%20Deck_NDA%20Until%20May%207th-page-017.jpg
https://images.anandtech.com/doci/15774/3300X%20Bounce.png
https://images.anandtech.com/doci/15774/3100%20Bounce.png
Ravenhearth
2020-09-26, 14:51:30
Ja, im CPU-Limit in Spielen. Mit Van Gogh wird niemand Spiele im CPU-Limit spielen, man hat ja nur die IGP. In Anwendungen ist das praktisch egal, da ist der 3300X ~10% schneller als der 3100, das entspricht dem Taktratenvorteil.
Complicated
2020-09-26, 14:55:42
Geringere Latenz ist nicht nur in Spielen von Bedeutung. Du kannst die Optimierungen gerne weiter klein reden, sind wohl alles Deppen bei AMD um so einen "sinnlosen" Die zu designen für einen Haufen Geld. *Seufz*. Du kannst mir gerne Quellen und Tests zeigen die das von dir behauptete belegen. Einfach nur "dagegen" ist an dem Punkt nicht mehr weiterführend sinnvoll. Wenn du deine Meinung auch mit technischen Fakten untermauerst, schreibe ich gerne wieder etwas dazu.
CCX-IF auch noch weggelassen wird das in jedem Fall eine Steigerung zu Renoir geben, alleine wegen mehr Powerbudget für Takt+kleinerer Die.
In Anwendungen ist das praktisch egal, da ist der 3300X ~10% schneller als der 3100, das entspricht dem Taktratenvorteil.Ach...
Edit: Und jetzt mal einen Schritt weiter gedacht, warum wohl für Google in Chromebooks Gamingperformance mit Low-Power wichtig sein könnte?
Da war doch noch etwas....
Der Kauf eines Chromebooks bietet derzeit Bonusvorteile, darunter drei Monate Stadia Pro (https://www.pocket-lint.com/de-de/notebooks/news/google/153217-wenn-sie-ein-chromebook-kaufen-erhalten-sie-drei-monate-lang-stadia-pro)
Gipsel
2020-09-26, 15:06:34
Nach den bisherigen Tests skaliert Tigerlake nur extrem mäßig zu niedrigen Powerbudgets. Schon in 15W sinkt der Takt unter das von Zen2. Bei noch weniger dürfte Zen2 (deutlich) höhere Takte halten können, was den IPC-Vorsprung egalisieren sollte.
Ravenhearth
2020-09-26, 15:07:37
Geringere Latenz ist nicht nur in Spielen von Bedeutung. Du kannst die Optimierungen gerne weiter klein reden, sind wohl alles Deppen bei AMD um so einen "sinnlosen" Die zu designen für einen Haufen Geld. *Seufz*. Du kannst mir gerne Quellen und Tests zeigen die das von dir behauptete belegen. Einfach nur "dagegen" ist an dem Punkt nicht mehr weiterführend sinnvoll. Wenn du deine Meinung auch mit technischen Fakten untermauerst, schreibe ich gerne wieder etwas dazu.
Okay, ein CCX ist gegenüber zwei vorteilhaft - bei der gleichen Kernzahl. Aber wenn es um 2x4 Kerne vs. 1x4 Kerne geht, ist ersteres überlegen. Im gleichen Powerbudget sind doppelt so viele Kerne bei etwas weniger Takt deutlich effizienter. Das kann auch der Wegfall des CCX-IF nicht ausgleichen. Wenn man jetzt strikt Anwendungen vergleicht, die nur 4 Kerne nutzen, könnte die 1x4-Lösung etwas schneller sein, aber wenn etwas über mehr Kerne skaliert, dann auch oft bis 8.
Ach...
Der 3300X verbraucht auch mehr (ca. 75W statt 60W) ;)
Edit: Und jetzt mal einen Schritt weiter gedacht, warum wohl für Google in Chromebooks Gamingperformance mit Low-Power wichtig sein könnte?
Da war doch noch etwas....
Der Kauf eines Chromebooks bietet derzeit Bonusvorteile, darunter drei Monate Stadia Pro (https://www.pocket-lint.com/de-de/notebooks/news/google/153217-wenn-sie-ein-chromebook-kaufen-erhalten-sie-drei-monate-lang-stadia-pro)
Stadia ist Spiele-Streaming. Da muss das Chromebook praktisch nur ein Video decodieren.
Nach den bisherigen Tests skaliert Tigerlake nur extrem mäßig zu niedrigen Powerbudgets. Schon in 15W sinkt der Takt unter das von Zen2. Bei noch weniger dürfte Zen2 (deutlich) höhere Takte halten können, was den IPC-Vorsprung egalisieren sollte.
Selbst wenn - Van Gogh steht nicht nur in Konkurrenz zu Intel, sondern auch zu AMDs eigenen Lösungen. Wieso sollte ein OEM mehr für Van Gogh mit 4 Kernen berappen, wenn er bspw. Renoir mit 8 Kernen kriegen und den auf 10W konfigurieren kann? Die GPU von Van Gogh alleine wird das nicht ausgleichen können, geschweige denn den Premium-Status rechtfertigen.
Complicated
2020-09-26, 15:19:08
Na und?
Welches würdest du dir kaufen:
https://global.techradar.com/de-de/news/die-besten-chromebooks-im-vergleich-finde-das-beste-chromebook-fur-dich
https://www.notebookcheck.com/Top-10-Chromebooks.149936.0.html
Oder vielleicht dieses?
https://www.notebookcheck.com/HP-praesentiert-das-Pro-c645-Chromebook-mit-AMD-Ryzen-und-optionalem-Enterprise-Upgrade.494931.0.html
Auch beim Prozessor lässt HP dem Käufer die Wahl zwischen einem günstigen AMD Athlon Silver 3050C, einem Athlon Gold 3150C, einem Ryzen 3 3250C, einem Ryzen 5 3500C oder sogar einem leistungsstarken Ryzen 7 3700C.
Ravenhearth
2020-09-26, 15:21:14
Was möchtest du damit jetzt sagen?
Complicated
2020-09-26, 15:23:03
Vermutlich nicht mehr als du mit "Stadia ist Streaming" und der 3300X "verbraucht mehr" - also Na und?
Gipsel
2020-09-26, 16:15:53
Selbst wenn - Van Gogh steht nicht nur in Konkurrenz zu Intel, sondern auch zu AMDs eigenen Lösungen. Wieso sollte ein OEM mehr für Van Gogh mit 4 Kernen berappen, wenn er bspw. Renoir mit 8 Kernen kriegen und den auf 10W konfigurieren kann? Die GPU von Van Gogh alleine wird das nicht ausgleichen können, geschweige denn den Premium-Status rechtfertigen.4 Kerne sind billiger als 8. Und bei 10W oder darunter läßt man kaum noch Dinge laufen, die wirklich von 8 Kernen profitieren würden. Zumal man dann mit 8 Kernen unter dem Sweetspot operiert, der Takt für jedes gesparte Watt also überproportional sinken muß (wie das beim Tigerlake 4Kerner offenbar schon unter 20W oder so losgeht). Der Performance/Watt Sweetspot eines einzelnen Zen2-Kerns liegt offenbar bei vielleicht 1,5-2W oder so. Will ich den ganzen SoC also in 8-10W quetschen, sind 4 Kerne deutlich besser geeignet. Und billiger, weil kleiner.
Ravenhearth
2020-09-26, 16:37:52
Billiger, ja etwas. Allerdings ist Van Gogh nicht Low Cost, sondern steht über den regulären APUs, weswegen Sparmaßnahmen bei den Kernen eher kontraproduktiv wären. Und Renoir performt mit 8 Kernen auch bei 10W noch sehr gut. (https://www.golem.de/news/ryzen-7-mobile-4700u-im-test-der-i7-ultrabook-killer-2008-149822-2.html) Wenn man nur 4 Kerne hätte, hätte man auch auf Zen 3 gehen können.
Complicated
2020-09-26, 16:49:17
Wie eine kaputte Schallplatte. Zen 3 hat einen 8-Kern CCX, warum sollte AMD eine schlechtere Wahl treffen? Alles Deppen dort...
AMD hat in den letzten 2 Jahren bei Chromebooks den Marktanteil von 8% auf 20% erhöht.
In einem massiv steigendem Markt.
https://www.gminsights.com/industry-analysis/chromebook-market
Chromebook market size was worth 5.3 million unit sales in 2014 and is anticipated to exceed 17 million units by 2023. Education sector alone accumulated 72% of the overall industry share in 2014.
Google kooperiert mit Valve: Umsetzung von Steam für Chrome OS in Arbeit (https://www.computerbase.de/2020-01/chrome-os-steam-unterstuetzung-chromebook/)
Leistungsstärkere Chrome-OS-Notebooks im Schlepptau
Das Zünglein an der Waage ist letztendlich nicht bei der Software, sondern vielmehr bei der Hardware auszumachen. Aktuell sind die Mehrzahl der angebotenen Chrome-OS-Geräte vornehmlich im unteren Leistungsbereich angesiedelt, weshalb die gebotene Spieleleistung für heutige Verhältnisse zu gering ausfällt. Diesen Umstand hat auch der Google-Manager Liu als mögliche Schwachstelle ausgemacht und deutet gegenüber Android Police an, dass zukünftig eine höhere Anzahl leistungsstärkerer Chromebooks auf Basis neuerer Prozessoren auch von AMD zum Spielen auf den Markt kommen könnten. Als ein Beispiel wäre das jüngst enthüllte Samsung Galaxy Chromebook zu nennen. Beiläufig finden auch noch etwaige Notebooks mit Chrome OS und einer optionalen Nvidia-GPU eine Erwähnung. Letztlich wird der Manager allerdings nicht konkret.
Höhere GPU-Leistung hält Nvidia aussen vor und ist immer noch günstiger wenn der diskrete Chip draußen bleiben kann. Die Konsolen machen es vor.
Gipsel
2020-09-26, 17:46:01
Billiger, ja etwas. Allerdings ist Van Gogh nicht Low Cost, sondern steht über den regulären APUs, weswegen Sparmaßnahmen bei den Kernen eher kontraproduktiv wären.Ganz im Gegenteil! Niedrigere Herstellungskosten bei hohem Verkaufspreis ergibt höhere Margen und mehr Gewinn am Ende. Daran ist AMD vermutlich schon interessiert. ;)
Und Renoir performt mit 8 Kernen auch bei 10W noch sehr gut. (https://www.golem.de/news/ryzen-7-mobile-4700u-im-test-der-i7-ultrabook-killer-2008-149822-2.html)Wenn man nur 4 Kerne hätte, hätte man auch auf Zen 3 gehen können.Mit 4 Kernen bei typischen Anwerndungen vermutlich sogar noch besser ;). Und mit einem 8C-CCX bei Zen3 muß man da umdesignen.
Complicated
2020-09-26, 18:03:53
Und die Chromebooks gibt es auch für 1.000,- €. Es ist auch kein Geheimnis, dass Google die Segmente weiter oben im Blick hat und ähnliches mit ChromeOS anstrebt wie Apple mit einem geschloßenen Ökosystem das Android-App kompatibel ist.
SKYNET
2020-09-26, 18:05:56
4 Kerne sind billiger als 8. Und bei 10W oder darunter läßt man kaum noch Dinge laufen, die wirklich von 8 Kernen profitieren würden. Zumal man dann mit 8 Kernen unter dem Sweetspot operiert, der Takt für jedes gesparte Watt also überproportional sinken muß (wie das beim Tigerlake 4Kerner offenbar schon unter 20W oder so losgeht). Der Performance/Watt Sweetspot eines einzelnen Zen2-Kerns liegt offenbar bei vielleicht 1,5-2W oder so. Will ich den ganzen SoC also in 8-10W quetschen, sind 4 Kerne deutlich besser geeignet. Und billiger, weil kleiner.
nö, weil 8/16 mit 1500MHz würden weniger verbrauchen als 4/8 mit 3000MHz... bei -wenn software passend optimiert- gleicher endleistung.
Complicated
2020-09-26, 18:18:32
Soweit die Theorie - nur wie viel dieser passenden Software skaliert auf diese Weise? Und der Chip ist dennoch deutlich kleiner und günstiger. Solange EUV genutzt werden wird, wird jeder mm² Wafer bestimmen wie hoch die Umsätze werden können. Da muss es auch gezielt kleine Chips geben die größere Stückzahlen, bessere Yields und deutlich früher auf den Markt kommen können - so wie Mobile SoCs.
Gipsel
2020-09-26, 19:32:52
nö, weil 8/16 mit 1500MHz würden weniger verbrauchen als 4/8 mit 3000MHz... bei -wenn software passend optimiert- gleicher endleistung.Bei 8W wird der 8Kerner vermutlich bloß keine 1,5GHz halten können. Das wird hart in Richtung 1Ghz gehen (während ein Vierkerner dort vermutlich 1,8-2Ghz halten kann, wenn man den 8Kerner bei 15W als Maßstab nimmt). Ich habe ja nicht umsonst das Beispiel der Tigerlakes gegeben, wo bei Powertarget auf 12W der Basetakt für den 4 Kerner auf nur noch 1,2GHz absinkt. Unterhalb einer gewissen Schwelle (dem Performance/Watt Sweetspot) mußt Du den Takt mehr senken als es dann an Stromersparnis bringt. Taktsenkung bringt immer weniger und die Performance/Watt wird irgendwann sogar wieder schlechter. Da will man nicht hin. Der Sweetspot scheint bei Zen deutlich niedriger zu liegen als bei Tigerlake. Aber geben tut es ihn sicherlich auch.
SKYNET
2020-09-26, 20:28:41
Bei 8W wird der 8Kerner vermutlich bloß keine 1,5GHz halten können. Das wird hart in Richtung 1Ghz gehen (während ein Vierkerner dort vermutlich 1,8-2Ghz halten kann, wenn man den 8Kerner bei 15W als Maßstab nimmt). Ich habe ja nicht umsonst das Beispiel der Tigerlakes gegeben, wo bei Powertarget auf 12W der Basetakt für den 4 Kerner auf nur noch 1,2GHz absinkt. Unterhalb einer gewissen Schwelle (dem Performance/Watt Sweetspot) mußt Du den Takt mehr senken als es dann an Stromersparnis bringt. Taktsenkung bringt immer weniger und die Performance/Watt wird irgendwann sogar wieder schlechter. Da will man nicht hin. Der Sweetspot scheint bei Zen deutlich niedriger zu liegen als bei Tigerlake. Aber geben tut es ihn sicherlich auch.
sagen wir einfach mal, 8 kerne dürften bei 1.2GHz soviel verbrauchen wie 4 bei 1.8GHz... kommt so in etwa hin... singlecore boost ist bei beiden gleich... da steht ja eigentlich ausser frage was man nimmt.
und die chromebooks sind halt immernoch auf billigst gemacht, das dürfte der eigentliche grund sein, warum es da noch mehr als 4 kerne missen lässt, nicht die laufzeit.
Gipsel
2020-09-26, 21:26:49
sagen wir einfach mal, 8 kerne dürften bei 1.2GHz soviel verbrauchen wie 4 bei 1.8GHz... kommt so in etwa hin... singlecore boost ist bei beiden gleich... da steht ja eigentlich ausser frage was man nimmt.Ich sage das nicht mal. Ohne entsprechende Tests ist das nämlich längst nicht klar. Unterhalb einer bestimmten Frequenz kann man die Kernspannung nicht mehr weiter senken und irgendwann dominiert dann der statische Verbrauch, der unabhängig von der Taktfrequenz ist gegenüber dem dynamischen. Dann bringen Taktsenkungen fast nichts mehr und man muß irgendwann den Takt deutlich mehr senken um 20% weniger Verbrauch zu bekommen (und irgendwann geht dann gar nichts mehr; deswegen liegen die niedrigsten Powerstates bei CPUs frequenzmäßig auch nicht nahe Null, weil weniger praktisch nichts bringt). Die 12-28W Tigerlake 4-Kerner stoßen bei 12W da schon an (Basetakt geht von 3GHz bei 28W [auf unspezifiziert aber laut Tests ~1,8GHz bei 15W und] auf 1,2GHz bei 12W, wenn ich das richtig in Erinnerung habe, da fällt der Takt also besonders am unteren Ende schon schneller als der Verbrauch).
Und auch der Single Core Boost kann etwas leiden. Denn Teile des Chips (Fabric und so) können stromsparender ausfallen, wenn es nur ein CCX gibt (und entsprechende Cache-Probes des zweiten CCX wegfallen können). Dann steht der 4-Kern Variante nämlich ein etwas höheres Power-Budget für die Kerne zur Verfügung und im Boost kann ein einzelner Kern die für Van Gogh diskutierten Untergrenzen schon locker ausnutzen (ein Einzelkern kann im Boost auf >10W gehen [bei Tigerlake können gar 20W fallen]).
und die chromebooks sind halt immernoch auf billigst gemacht, das dürfte der eigentliche grund sein, warum es da noch mehr als 4 kerne missen lässt, nicht die laufzeit.Wenn Du mal nachsiehst, war der erste von mir genannte Grund die geringeren Kosten. Es kann mehr als eine Sache gleichzeitig zutreffen. ;)
reaperrr
2020-09-26, 23:56:12
Wenn man nur 4 Kerne hätte, hätte man auch auf Zen 3 gehen können.
Dann hätte man extra für vG ein 4C-Zen3-CCX designen müssen.
Nach deiner Argumentationsweise macht es auch keinen Sinn, für Rembrandt noch Vega zu nehmen, und dann hätte man sich einen der beiden Chips sparen können.
AMD wird sich dabei was gedacht haben, und das bedeutet, dass die Chips unterschiedliche Marktsegmente mit unterschiedlichen Bedürfnissen anvisieren.
Die einzige logische Erklärung für die Verwendung von Zen2 bei vG ist, dass man nur 4 Kerne wollte und es vom Designaufwand nicht gelohnt hätte nur für diesen einen Chip ein eigenes Zen3-Chiplet mit 4 Kernen zu entwickeln. Das hätte gerade den Hauptvorzug von AMD's modularer CCX-Bauweise völlig konterkariert.
Allerdings ist Van Gogh nicht Low Cost, sondern steht über den regulären APUs, weswegen Sparmaßnahmen bei den Kernen eher kontraproduktiv wären.
Nur weil er auf der geleakten Roadmap oberhalb der regulären APUs steht, heißt das noch lange nicht, dass der Chip in jeder Hinsicht über den anderen APUs angesiedelt ist.
Windi
2020-09-27, 00:04:40
Ich dachte immer Van Gogh wäre der Dali Nachfolger.
Wenn AMD den jetzt eine Zeit lang als Luxus-Stromspar-Prozessor verkauft :freak:
Erst einmal ein bis zwei Jahre lang den Prozessor teurer als die sparsamen Renoir Modelle verkaufen. Und dann rutscht er in die "unter 50€" Klasse ;D
Ravenhearth
2020-09-27, 00:08:31
Ganz im Gegenteil! Niedrigere Herstellungskosten bei hohem Verkaufspreis ergibt höhere Margen und mehr Gewinn am Ende. Daran ist AMD vermutlich schon interessiert. ;)
Ich denke nur, dass 4 Kerne den Verkaufspreis wieder senken würden.
Bei 8W wird der 8Kerner vermutlich bloß keine 1,5GHz halten können. Das wird hart in Richtung 1Ghz gehen (während ein Vierkerner dort vermutlich 1,8-2Ghz halten kann, wenn man den 8Kerner bei 15W als Maßstab nimmt). Ich habe ja nicht umsonst das Beispiel der Tigerlakes gegeben, wo bei Powertarget auf 12W der Basetakt für den 4 Kerner auf nur noch 1,2GHz absinkt. Unterhalb einer gewissen Schwelle (dem Performance/Watt Sweetspot) mußt Du den Takt mehr senken als es dann an Stromersparnis bringt. Taktsenkung bringt immer weniger und die Performance/Watt wird irgendwann sogar wieder schlechter. Da will man nicht hin. Der Sweetspot scheint bei Zen deutlich niedriger zu liegen als bei Tigerlake. Aber geben tut es ihn sicherlich auch.
Ich sage das nicht mal. Ohne entsprechende Tests ist das nämlich längst nicht klar. Unterhalb einer bestimmten Frequenz kann man die Kernspannung nicht mehr weiter senken und irgendwann dominiert dann der statische Verbrauch, der unabhängig von der Taktfrequenz ist gegenüber dem dynamischen. Dann bringen Taktsenkungen fast nichts mehr und man muß irgendwann den Takt deutlich mehr senken um 20% weniger Verbrauch zu bekommen (und irgendwann geht dann gar nichts mehr; deswegen liegen die niedrigsten Powerstates bei CPUs frequenzmäßig auch nicht nahe Null, weil weniger praktisch nichts bringt). Die 12-28W Tigerlake 4-Kerner stoßen bei 12W da schon an (Basetakt geht von 3GHz bei 28W [auf unspezifiziert aber laut Tests ~1,8GHz bei 15W und] auf 1,2GHz bei 12W, wenn ich das richtig in Erinnerung habe, da fällt der Takt also besonders am unteren Ende schon schneller als der Verbrauch).
Und auch der Single Core Boost kann etwas leiden. Denn Teile des Chips (Fabric und so) können stromsparender ausfallen, wenn es nur ein CCX gibt (und entsprechende Cache-Probes des zweiten CCX wegfallen können). Dann steht der 4-Kern Variante nämlich ein etwas höheres Power-Budget für die Kerne zur Verfügung und im Boost kann ein einzelner Kern die für Van Gogh diskutierten Untergrenzen schon locker ausnutzen (ein Einzelkern kann im Boost auf >10W gehen [bei Tigerlake können gar 20W fallen]).
Das sind allles sehr gute Punkte, danke. Finden konnte ich nur das (https://twitter.com/vpcf90/status/1294708271123582976). Bei 15W taktet Desktop-Renoir mit 8 Kernen im Cinebench noch mit 2,8 GHz, bei 10W sind es immer noch 2,05GHz. An dem Punkt ist er am effizientesten. Erst bei einer weiteren TDP-Halbierung schmiert er ab. Leider gibts keine Werte von 8W TDP. Könnte also gut sein, dass er da analog zur Tiger Lake wieder ineffizienter wird und nur 1,4GHz oder so schafft. Ein Quadcore erreicht bei 8W vermutlich ~2,8 GHz?
Van Gogh soll laut Gerüchten allerdings mit 7,5 - 18W TDP antreten. Das wäre also jetzt für den niedrigsten Punkt. Bei 10W wären es 2,05 GHz für 8 Kerne vs. über 3 GHz für 4. Bei 18W hätte ein Achtkerner über 3 GHz und ein Vierkerner etwas unter 4 GHz. 8 Kerne wären immer effizienter, außer am niedrigsten Betriebspunkt, da gäbs einen Gleichstand. Nicht eingerechnet sind da die weiteren Effizienzvorteile von nur einem CCX, aber die können das wohl nicht ausgleichen. Maximal reicht es für einen Vorsprung des Vierkerners bei 8W. Hm.
Dann hätte man extra für vG ein 4C-Zen3-CCX designen müssen.
Nach deiner Argumentationsweise macht es auch keinen Sinn, für Rembrandt noch Vega zu nehmen, und dann hätte man sich einen der beiden Chips sparen können.
AMD wird sich dabei was gedacht haben, und das bedeutet, dass die Chips unterschiedliche Marktsegmente mit unterschiedlichen Bedürfnissen anvisieren.
Die einzige logische Erklärung für die Verwendung von Zen2 bei vG ist, dass man nur 4 Kerne wollte und es vom Designaufwand nicht gelohnt hätte nur für diesen einen Chip ein eigenes Zen3-Chiplet mit 4 Kernen zu entwickeln. Das hätte gerade den Hauptvorzug von AMD's modularer CCX-Bauweise völlig konterkariert.
Genauso wie man extra für Dali ein 2C-CCX designt hat? ;) Wie bereits geschrieben, denke ich auch dass Van Gogh ein anderes Marktsegment bedient, nämlich Premium Low Power. Allerdings mit 8 Kernen. Und man hat Zen 2 genommen, weil der bei den niedrigen Frequenzen die dabei rauskommen effizienter ist als Zen 3. Den gibts dagegen bei Cezanne (den meintest du wohl anstatt Rembrandt), weil der Chip für normale Laptops bis 45W gedacht ist und Zen 3 da wiederum schneller ist. Da ist die GPU auch nicht so wichtig.
Poekel
2020-09-27, 00:50:33
Bei 15W taktet Desktop-Renoir mit 8 Kernen im Cinebench noch mit 2,8 GHz, bei 10W sind es immer noch 2,05GHz. An dem Punkt ist er am effizientesten. Erst bei einer weiteren TDP-Halbierung schmiert er ab. Leider gibts keine Werte von 8W TDP. Könnte also gut sein, dass er da analog zur Tiger Lake wieder ineffizienter wird und nur 1,4GHz oder so schafft. Ein Quadcore erreicht bei 8W vermutlich ~2,8 GHz?
Hab hier noch die CB-20-Werte als ich mit nen paar sehr niedrigen PPTs bei nem 4750G rumgespielt habe (Idle 21.5 Watt):
10 Watt PPT: 1075 (30.1-32.4 Watt CB20)
9 Watt PPT: 757 (28.2-31.1 Watt CB20)
8 Watt PPT: 632 (27.4-29.2 Watt CB20)
Ältere Werte:
15 Watt PPT: 2257
20 Watt PPT: 2990
Ravenhearth
2020-09-27, 00:53:43
Danke. Wobei die deutlich niedriger ausfallen als die Werte im Link, die sich eher mit Mobile-Renoir decken. :confused:
Poekel
2020-09-27, 01:01:43
Auto entsoricht bei mir 85 Watt PPT und die Werte waren wenn man das entsprechend bereinigt (evtl sind dort TDP anstatt PPT?) durchaus vergleichbar.
€: Die 8-10er Werte waren zudem mit iGPU an 2 Monitoren (15 und 20 war mit ded. GPU)
Gipsel
2020-09-27, 08:52:48
Das sind allles sehr gute Punkte, danke. Finden konnte ich nur das (https://twitter.com/vpcf90/status/1294708271123582976). Bei 15W taktet Desktop-Renoir mit 8 Kernen im Cinebench noch mit 2,8 GHz, bei 10W sind es immer noch 2,05GHz.Wenn man das PPT erzwingt, dann nicht (15W => knapp über 2GHz in Cinebench, je nach Temperatur, Basetakt ist 1,8GHz bei 15W). Die Renoirs dürfen standardmäßig einige Minuten lang das Powertarget überschreiten (je nach Setting auf 25 oder gar 35W). Das reicht für einen Cinebench-Run. Gerade keine Zeit, sonst würde ich das verlinken.
An dem Punkt ist er am effizientesten. Erst bei einer weiteren TDP-Halbierung schmiert er ab. Leider gibts keine Werte von 8W TDP. Könnte also gut sein, dass er da analog zur Tiger Lake wieder ineffizienter wird und nur 1,4GHz oder so schafft. Ein Quadcore erreicht bei 8W vermutlich ~2,8 GHz?Genau darum geht es, der Punkt des "Abschmierens" liegt afaik nur etwas höher von der TDP her.
Poekel
2020-09-27, 10:37:27
Wenn man das PPT erzwingt, dann nicht (15W => knapp über 2GHz in Cinebench, je nach Temperatur, Basetakt ist 1,8GHz bei 15W).
Hab eben mal die PPT auf 10 Watt gestellt (müssten wohl so 8 Watt TDP sein, wenn ich das richtig interpretiere) und diesmal Frequenzen und Stromverbrauch mit HWInfo64 überprüft.
Bei Prime (Blend) lagen die Frequenzen der Cores bei 400-415 MHZ, CPU Package Power war fix (9.8-10.2 Watt), Stromverbrauch an der Steckdose 31.7-31.9 Watt.
Prime (Smallest FFTs), war bei 600-650 MHZ, 29.5-29.7 Watt an der Steckdose.
In Cinebench lagen die Frequenzen bei 780-870 MHZ, CPU Package Power weiterhin fix im 10 Watt-Bereich, wobei an der Steckdose um die 30 Watt gezogen wurde. CB20 Punkte waren diesmal 990.
LasterCluster
2020-09-27, 11:57:30
Und man hat Zen 2 genommen, weil der bei den niedrigen Frequenzen die dabei rauskommen effizienter ist als Zen 3. Den gibts dagegen bei Cezanne (den meintest du wohl anstatt Rembrandt), weil der Chip für normale Laptops bis 45W gedacht ist und Zen 3 da wiederum schneller ist. Da ist die GPU auch nicht so wichtig.
Da macht man doch einfacher eine APU mit 8c Zen3 + RDNA2 für 10-35 Watt anstatt zwei mit 8c Zen2 + RDNA2 für 7-18 Watt und 8c Zen3 + Vega für 12-45 Watt.
Und was man nicht vergssen sollte: Thermal Design Power bedeutet nicht, dass die APU ständig dort läuft. Durchschnittsverbrauch sollte also nochmals ne Ecke drunter liegen und dann wären 4c extra reine Flächenverschwendung (und erhöhen vielleicht sogar den Idleverbauch etwas?). Dazu gönnt sich die Grafik ja auch etwas von der TDP.
Aber irgenwo hast du recht: Das 4c Konzept ergibt im Premium weniger Sinn, wenn man in erster Linie auf Performance starrt. Das muss für Geräte sein, wo in erster Line mit Akkulaufzeiten beim Video/Surfen/Office/... geworben wird.
Für mich ist VG deswegen eher der ARM-Konter und nicht der TigerLake Y-Konter.
Edit: Komachi meinte auch, dass dieses FF3 Package die erste FFx Iteration ist, die es auf den Markt schafft und dass FF2 wahrscheinlich für den K12 gedacht war:
Ich wusste, dass VGH ein FF3-Sockel war. Da FF1 Amur/Nolan und FF2 K12 war, war es wahrscheinlich das erste Mal, dass FFX auf der Welt veröffentlicht wurde.
https://twitter.com/KOMACHI_ENSAKA/status/1277490808514461696
davidzo
2020-09-27, 13:05:59
Da macht man doch einfacher eine APU mit 8c Zen3 + RDNA2 für 10-35 Watt anstatt zwei mit 8c Zen2 + RDNA2 für 7-18 Watt und 8c Zen3 + Vega für 12-45 Watt.
8C + RDNA2 liegt zu nah dran an Rembrandt, wozu dann eine zweite SKU wenn man auch rembrandt etwas früher bringen könnte und den Rest mit salvages bedient.
Und was man nicht vergssen sollte: Thermal Design Power bedeutet nicht, dass die APU ständig dort läuft. Durchschnittsverbrauch sollte also nochmals ne Ecke drunter liegen und dann wären 4c extra reine Flächenverschwendung (und erhöhen vielleicht sogar den Idleverbauch etwas?). Dazu gönnt sich die Grafik ja auch etwas von der TDP.
TDP ist ziemlich genau durchschnittsverbrauch. Thermal Lösungen sind in der Regel nicht durch die Spitzenlasten limitiert,sondenr durch den Dauerverbrauch. Das liegt an der Natur von Kühlkörpern die neben der Wärmeleitfähigkeit auch die wichtige Konstante der der Wärmekapazität aufweisen. Die Kapazität des Kupfermaterials, des Wassers in der Heatpipe etc. sorgt für eine thermische Trägheit mit der kurzzeitig Spitzenlasten aubgeführt werden können die ein Vielfaches über dem Durchschnittsverbrauch liegen dürfen.
Für mich ist VG deswegen eher der ARM-Konter und nicht der TigerLake Y-Konter.
Edit: Komachi meinte auch, dass dieses FF3 Package die erste FFx Iteration ist, die es auf den Markt schafft und dass FF2 wahrscheinlich für den K12 gedacht war:
https://twitter.com/KOMACHI_ENSAKA/status/1277490808514461696
Ein sehr interessanter Gedanke :cool:
Eventuell ziehlt van Gogh wirklich deutlich unterhalb von Tigerlake und ist mehr als Lakefield Konter für devices wie das Galaxy Book S oder Lenovo X1 fold gedacht. 4 Zen2 Cores auf low power getrimmt würden kurzen prozess mit den vier tremont cores machen und innerhalb von 8Watt sollten auch SC Takte um die 3,5Ghz möglich sein mit denen man den einen sunny cove kern auch deutlich schlagen würde.
Entscheidend wir sein ob AMD auch entsprechend kompakt packen kann wie Intel und ebenfalls Skus mit PoP Memory bringt.
LasterCluster
2020-09-27, 14:31:11
8C + RDNA2 liegt zu nah dran an Rembrandt, wozu dann eine zweite SKU wenn man auch rembrandt etwas früher bringen könnte und den Rest mit salvages bedient.
Dieses Argument macht VG als weitere 8c APU noch unwahrscheinlicher. Dann hätte man Renoir/Lucienne, Cezanne, Van Gogh und Rembrandt innerhalb kurzer Zeit.
TDP ist ziemlich genau durchschnittsverbrauch.
Dann haben wir sehr unterschiedliche Vorstellungen vom Durschnittsverbrauch. Bei dir würde ein Gerät mit 15W APU ca 2-3h durchhalten. Das wäre bei mir "Volllast" und nicht "Durchschnitt". Aber ist halt Definitionssache. Ich wollte eher auf die Art von Benutzung raus, wo man auch mal 2h surfed, 2h Netflix schaut und 2h ne Textdatei hypnotisiert, weil man nicht weiß was man schreiben soll.
Ein sehr interessanter Gedanke :cool:
Eventuell ziehlt van Gogh wirklich deutlich unterhalb von Tigerlake und ist mehr als Lakefield Konter für devices wie das Galaxy Book S oder Lenovo X1 fold gedacht. 4 Zen2 Cores auf low power getrimmt würden kurzen prozess mit den vier tremont cores machen und innerhalb von 8Watt sollten auch SC Takte um die 3,5Ghz möglich sein mit denen man den einen sunny cove kern auch deutlich schlagen würde.
Entscheidend wird sein ob AMD auch entsprechend kompakt packen kann wie Intel und ebenfalls Skus mit PoP Memory bringt.
Hallelujah! Jemand hat es kapiert! Zum letzten Teil: Irgenwie muss sich FF3 von FP6/7 abgrenzen.
davidzo
2020-09-27, 15:00:13
Dann haben wir sehr unterschiedliche Vorstellungen vom Durschnittsverbrauch. Bei dir würde ein Gerät mit 15W APU ca 2-3h durchhalten. Das wäre bei mir "Volllast" und nicht "Durchschnitt". Aber ist halt Definitionssache. Ich wollte eher auf die Art von Benutzung raus, wo man auch mal 2h surfed, 2h Netflix schaut und 2h ne Textdatei hypnotisiert, weil man nicht weiß was man schreiben soll.
Nee klar meine ich den Durchschnittsverbrauch bei andauernder Last. Also nicht der Verbrauch beim kurzfristigen turbo oder so, die ist in er regel deutlich höher als die eigentliche TDP.
Ich hatte dein Argument so verstanden dass die 7,5 - 18W TDP in der Praxis noch niedriger liegen könnten. Dem wollte ich widersprechen denn bei längerer last kann eine 15W Thermallösung wirklich im durchschnitt 15W abführen, eine 8Watt auch nur 8W. Wenn man also an lakefield heran kommen wollte, dann muss man auch genau diese 7 Watt oder sogar 5 TDP anlegen die es bei lakefield gibt. Eine kurzfristige PL2 von 9,5Watt ist etwas anderes als eine generell höher liegende TDP von 15 oder 18Watt.
Mit 7,5-18Watt wäre man aber klar in einer anderen TDP Kategorie als Lakefield und müsste sich auch mit den auf 15W ausgelegten Tigerlake Designs messen. Ich weiß nicht ob das vorteilhaft für AMD ist und man nicht lieber bei 10 oder 12 Watt schon die Grenze setzt um diesem Vergleich zu entgehen.
Spezielle Usage Szenarios sind für die TDP und das Thermaldesign erst einmal sekundär. TDP und Thermaldesign spielen in erster Linie beim formfaktor und Leistungsentfaltung eine Rolle. Die Usage Szenarios sind dagegen eher ausschlaggebend für die Akkulaufzeiten und lassen sowieso viel Auslegungs- und Interpretationsspielraum.
Nightspider
2020-09-27, 15:40:07
Dazu kommt ja, dass Van Gogh auch mindestens im 7nm Enhanced Node gefertigt wird, vielleicht noch ein µ "enhanced-ter".
Dadurch verschiebt sich der Sweetspot im Vergleich zu Renoir ja auch schon ein Stück weit.
Kann im 3-8W Segment durchaus einiges bringen, kann ich mir vorstellen.
Ravenhearth
2020-09-27, 16:16:14
Wenn man das PPT erzwingt, dann nicht (15W => knapp über 2GHz in Cinebench, je nach Temperatur, Basetakt ist 1,8GHz bei 15W). Die Renoirs dürfen standardmäßig einige Minuten lang das Powertarget überschreiten (je nach Setting auf 25 oder gar 35W). Das reicht für einen Cinebench-Run. Gerade keine Zeit, sonst würde ich das verlinken.
Ja, aber er schreibt, dass er zum Einstellen der TDP Ryzen Controller verwendet. Damit lässt sich die TDP eigentlich fix einstellen, also erzwingen, ohne dass sie überschritten wird.
Ich habe das mal mit meinem Ryzen 5 4500U getestet. Ich habe fixe TDPs eingestellt und mit HWInfo überwacht, dass sie eingehalten werden. Die Werte haben leicht geschwankt:
10W 1,5W/C 2,5-2,6GHz 1600 Pkt.
9W 1,3W/C 2,4-2,5GHz 1500 Pkt.
8W 1,1W/C 2,2-2,3GHz 1420 Pkt.
7W 0,95W/C 1,9-2,0GHz 1280 Pkt.
6W 0,8W/C 1,5-1,7GHz 1040 Pkt.
5W 0,6W/C 1,2-1,4GHz 800 Pkt.
Weniger als 5W konnte ich nicht einstellen. Auf den ganzen Chip gerechnet war er bei 7W am effizientesten. Da der fixe Anteil vom Uncore jedoch mit sinkender TDP prozentual immer größer wird, ist der Pro-Kern-Wert am interessantesten. Da sieht man, dass die Kerne selbst bei 0,8W und 0,6W ungefähr die Effizienz beibehalten, die sie bei 1W hatten. Ich finde die Skalierung unglaublich. Also der Punkt, an dem Zen 2 von der Effizienz her abschmiert, ist auch mit 1,2-1,4 GHz und 0,6W/C noch nicht erreicht. Vielleicht kommt er genau dahinter. Denn im Link waren 5W für 8 Kerne mit SMT ja zu wenig.
Es ist natürlich kein Achtkerner, aber angesichts dieser Daten erscheinen mir 2GHz bei 15W deutlich zu wenig. Die 2GHz passen eher zu 10W (~1W/C). Bei 7,5W (0,75W/C) und 1,4-1,6GHz hätte ein hypothetischer Achtkerner über 1300Pkt und damit zwar keine bessere Effizienz als der Sechskerner, aber wäre deutlich effizienter als ein hypothetischer Vierkerner mit 1,5W/C und etwas über 1000Pkt.
Ein Effekt, den ich nicht berücksichtigen kann, ist SMT. Das hat der 4500U nicht. Aber verbessert SMT nicht sogar die Effizienz? Also selbst wenn der Takt mit SMT noch etwas niedriger ausfallen muss, dürfte der Zugewinn an Performance das mehr als ausgleichen. Für die 7,5W beim Achtkerner beispielsweise 1,2-1,4GHz und über 1400Pkt.
Hab eben mal die PPT auf 10 Watt gestellt (müssten wohl so 8 Watt TDP sein, wenn ich das richtig interpretiere) und diesmal Frequenzen und Stromverbrauch mit HWInfo64 überprüft.
Bei Prime (Blend) lagen die Frequenzen der Cores bei 400-415 MHZ, CPU Package Power war fix (9.8-10.2 Watt), Stromverbrauch an der Steckdose 31.7-31.9 Watt.
Prime (Smallest FFTs), war bei 600-650 MHZ, 29.5-29.7 Watt an der Steckdose.
In Cinebench lagen die Frequenzen bei 780-870 MHZ, CPU Package Power weiterhin fix im 10 Watt-Bereich, wobei an der Steckdose um die 30 Watt gezogen wurde. CB20 Punkte waren diesmal 990.
Ich frage mich, warum die Werte so viel niedriger ausfallen. Vielleicht wird bei dir ein größerer fixer Betrag für irgendwas anderes als die Kerne gebraucht.
Ein sehr interessanter Gedanke :cool:
Eventuell ziehlt van Gogh wirklich deutlich unterhalb von Tigerlake und ist mehr als Lakefield Konter für devices wie das Galaxy Book S oder Lenovo X1 fold gedacht. 4 Zen2 Cores auf low power getrimmt würden kurzen prozess mit den vier tremont cores machen und innerhalb von 8Watt sollten auch SC Takte um die 3,5Ghz möglich sein mit denen man den einen sunny cove kern auch deutlich schlagen würde.
Entscheidend wir sein ob AMD auch entsprechend kompakt packen kann wie Intel und ebenfalls Skus mit PoP Memory bringt.
Wären 8 RDNA2-CUs für Van Gogh dann nicht overkill? Weniger hättens auch getan, vor allem wenn es so ein kostensensitiver Chip werden soll. Deswegen glaube ich nicht an einen Lakefield-Konkurrenten.
Dieses Argument macht VG als weitere 8c APU noch unwahrscheinlicher. Dann hätte man Renoir/Lucienne, Cezanne, Van Gogh und Rembrandt innerhalb kurzer Zeit.
Rembrandt steht für 2022 auf der Roadmap, das ist der Nachfolger von Renoir/Lucienne und Cezanne.
mczak
2020-09-27, 17:35:40
Dann hätte man extra für vG ein 4C-Zen3-CCX designen müssen.
Nicht wirklich, runterskalieren auf weniger Kerne geht eigentlich immer ohne grossen Aufwand - ansonsten würde es auch keine teildeaktivierten Chips geben. Klar das ist dann nicht ganz optimal punkto Anzahl Transistoren oder Effizienz aber derart gross sollten die Unterschiede nicht sein. Heraufskalieren geht hingegen nicht einfach so ohne weiteren Aufwand, wobei es da darauf ankommt wie die Topologie aussieht (bei intel z.B. mit dem Ringbus kann man im Prinzip ohne Designaufwand einfach mehr Kerne einbinden, aber ab einem gewissen Punkt leidet dann die Effizienz zu stark).
Wenn natürlich Zen 3 gegenüber Zen 2 fast identisch ist abgesehen von der Verdrahtung der Kerne (und des L3) könnte es natürlich schon sein dass sich das nicht lohnt wenn man bloss 4 Kerne hat.
davidzo
2020-09-27, 17:48:26
Wären 8 RDNA2-CUs für Van Gogh dann nicht overkill? Weniger hättens auch getan, vor allem wenn es so ein kostensensitiver Chip werden soll. Deswegen glaube ich nicht an einen Lakefield-Konkurrenten.
Lakefield ist keine Billig-CPU, ich glaube da missverstehst du etwas. Lakefield ist nicht der Nachfolger der Cherry Trail Atoms für tablets die man für ein paar Dollar verschenkt hat, diese Strategie ist zusammen mit der dazugehörenden Atom-branche jetzt tot.
Lakefield ist ein luxusprodukt, vollgestopft von der neuesten Intel technologie, dafür wollen die auch wieder richtig geld sehen. Ein Indikator ist sicher die intel Ark, wo lakefield mit denselben 281$ gelistet ist wie ein aktueller i3 oder i5 (nicht das je ein mensch in der welt die intel ark preise bezahlt hätte). Dass Lakefield sich eher nur als Forschungsprojekt und Technologiedemonstrator entpuppt hat und die Leistung nicht auf die Straße bringt ist für Intel egal.
Mit den baytrails und Cherrytrails hat man sich schön ein Eigentor eingefangen weil die letzendlich in mini-pcs gelandet sind die sonst einen core i3 verkauft hätten anstatt im smartphone/tablet Markt irgendwelche nennenswerten Marktanteile zu erringen. Man wird sich einfach niemals wieder die marge so kaputt machen. Lieber akzeptiert man dass Lakefield sich kaum verkauft abseits von ein- bis zwei gesponserter Vorzeigedesigns die Samsung und Lenovo nur der Form halber weiter anbieten (Die Entwicklung dieser devices wird eh zum großen Teil durch Intel finanziert gewesen sein).
Deshalb kann man sicher davon ausgehen dass AMD diesen VG nicht aus Jux und Dollerei entwickelt hat oder um Intel zu ärgern, sondern mindestens ein fetter OEM dahinter steht der eine ganze Produktserie damit plant (Z.B. Microsoft Surface oder Google chromebook). AMD entwickelt sowas nur wenn es auch bezahlt wird bzw. die Abnahme garantiert wird, ganz im Gegenteil zu Intel, die sich viele solche Vorzeige-Entwicklungsprojekte leisten können.
Rembrandt steht für 2022 auf der Roadmap, das ist der Nachfolger von Renoir/Lucienne und Cezanne.
Eben und der bekommt auch nur 12CUs, aber eben mit mind. 8Cores. Wenn die im selben marktsegment oder zu ähnlicher Zeit buhlen würden (also VG ebenfalls 8C hätte) wäre das ein so minimaler unterschied den man auch mit salvages lösen könnte, also gleich 12cus bei VG und dann kann man sich rembrandt sparen.
Nee, die kommen in ganz verschiedenen segmenten, die lösen sich nicht gegenseitig ab. Bei Rembrandt ist ne fette CPU drin, die als desktop APU und H-serie taugt. Die 12CU sind da nur mit der Zeit gegangen in 2022. Das ist das neue Minimum an IGP für 2020, nachdem Intel da mit Alderlake vermutlich auch eine etwas verbesserte DG1 integriert.
Poekel
2020-09-27, 20:01:53
Ich frage mich, warum die Werte so viel niedriger ausfallen. Vielleicht wird bei dir ein größerer fixer Betrag für irgendwas anderes als die Kerne gebraucht.
Hast du TDP eingestellt oder PPT? Letzeres scheint bei mir ein rechnerischer Wert zu sein, und das Mainboard scheint die CPU diesen nicht überschreiten (CPU Package Power) zu lassen (zumindest bis ca. 9-10 Watt Einstellung), während TDP ja um einiges höhere Verbrauchswerte zulässt.
Die errechnete CPU Package Power scheint auch ziemlich gut mit den reellen Werten übereinzustimmen, da 1 Watt mehr Einstellung auch ziemlich passend 1.15-1.2 Watt mehr an der Steckdose sind (Netzteil-Effizienz).
Bei der Twitter-Grafik ist das viel viel mehr (bei einem Netzteil, was bei niedriger Last extrem effizient zu sein scheint), weshalb meine Vermutung ist, dass die TDP-Werte nicht mit den PPT-Werten vergleichbar sind bzw. umgerechnet werden müssten.
Complicated
2020-09-27, 20:41:38
Die 12CU sind da nur mit der Zeit gegangen in 2022. Das ist das neue Minimum an IGP für 2020, nachdem Intel da mit Alderlake vermutlich auch eine etwas verbesserte DG1 integriert.
Durch DDR5 wird das auch sinnvoll, wenn die Bandbreite steigt.
Nightspider
2020-09-27, 20:59:29
Rembrandt mit 6nm wird ja garantiert bei 8 Kernen bleiben aber dafür eben eine kräftigere GPU haben, die dann dank LPDDR5 auch besser ausgenutzt werden kann.
Dafür dann aber vielleicht nochmal 200 Mhz mehr bei der CPU + den Zen3+ Verbesserungen.
Ravenhearth
2020-09-27, 21:16:59
Hast du TDP eingestellt oder PPT? Letzeres scheint bei mir ein rechnerischer Wert zu sein, und das Mainboard scheint die CPU diesen nicht überschreiten (CPU Package Power) zu lassen (zumindest bis ca. 9-10 Watt Einstellung), während TDP ja um einiges höhere Verbrauchswerte zulässt.
Die errechnete CPU Package Power scheint auch ziemlich gut mit den reellen Werten übereinzustimmen, da 1 Watt mehr Einstellung auch ziemlich passend 1.15-1.2 Watt mehr an der Steckdose sind (Netzteil-Effizienz).
Bei der Twitter-Grafik ist das viel viel mehr (bei einem Netzteil, was bei niedriger Last extrem effizient zu sein scheint), weshalb meine Vermutung ist, dass die TDP-Werte nicht mit den PPT-Werten vergleichbar sind bzw. umgerechnet werden müssten.
Im Ryzen Controller wird es zwar TDP genannt, aber gemeint ist wohl das PPT. HWInfo hat als Package Power jedenfalls nie mehr als die eingestellten Werte angezeigt. Das ist anders wenn ich den Laptop einfach in seiner Standardeinstellung machen lasse, dann boostet der laut HWInfo erstmal auf 35W, geht dann auf 25W runter und verbleibt schließlich bei 19W. Hier war das definitiv nicht so.
w0mbat
2020-09-28, 14:39:45
Noch 10 Tage! :D
Hasenpfote
2020-09-28, 16:22:12
Noch 10 Tage! :DUnd immer noch keine nennenswerten Leaks. :mad:
r3ptil3
2020-09-28, 17:48:42
"AMD Ryzen 9 5900X “Vermeer” 12 Core & 24 Thread Zen 3 CPU Allegedly Up To 5 GHz With 150W TDP"
https://wccftech.com/amd-ryzen-9-5900x-vermeer-12-core-24-thread-cpu-allegedly-up-to-5-ghz-150w-tdp/
wow... :eek:
Ich habe das Gefühl das Ding wird richtig abgehen
basix
2020-09-28, 17:54:11
Ich hoffe, dass die 150W eher das Verbrauchslimit sind (ein 3900X zieht max. 142W bei 105W TDP).
Und immer noch keine nennenswerten Leaks. :mad:
So +20...30% Mehrperformance zeichnet sich ja schon länger ab (+15% IPC, etwas mehr Takt, 8C CCX). Je nach Anwendungsfall etwas drunter oder drüber.
DavChrFen
2020-09-28, 19:08:35
Argh, auf den 16-Kerner darf man dann wohl noch warten. Aber immerhin neue MBs mit neue Chipset, wenn das stimmt.
Aber gab es vor Zen2 nicht auch so Speku von viel mehr Tackt als es letztendlich war?
Linmoum
2020-09-28, 19:09:27
Naja, wir wissen ja schon von ES mit 4.9GHz Boost. Da sind 100MHz mehr nicht so weit hergeholt.
Der_Korken
2020-09-28, 19:12:45
150W klingen ziemlich meh, vor allem wenn es nicht das PPT sondern die TDP ist (das wären dann um die 200W PPT ...). Für Spielebenches ist das völlig unnötig, da verliert auch der 10900K quasi nichts, wenn man ihn von 250 auf 127W einbremst, denn der volle ST-Boost wird nur auf wenigen Kernen benötigt. Die anderen idlen fröhlich vor sich hin. Und in Anwendungen zerlegt AMD den 10900K eh ganz locker. Hier ist ja schon ein 3900X schneller durch die zwei zusätzlichen Kerne. Und selbst in Anwendungen hat ein hoher Verbrauch bei Zen 2 nicht viel gebracht. Der 3800X holt aus 65% mehr Verbrauch keine 5% Mehrleistung raus und bei Igor hat afaik ein auf 65W (!) eingedampfter 3950X in den meisten Anwendungsbenches den 3900X@140W geschlagen. Intel hat für ihre Heizplatte zurecht Kritik bekommen, AMD sollte es besser machen.
Zossel
2020-09-28, 20:53:04
Ich hoffe, dass die 150W eher das Verbrauchslimit sind (ein 3900X zieht max. 142W bei 105W TDP).
So +20...30% Mehrperformance zeichnet sich ja schon länger ab (+15% IPC, etwas mehr Takt, 8C CCX). Je nach Anwendungsfall etwas drunter oder drüber.
Spiele werden wahrscheinlich den L3 lieben auf den 8 Cores gleichförmig zugreifen können.
Ravenhearth
2020-09-28, 23:11:39
Dass Zen 3 bei gleicher Kernzahl und Takt mehr verbraucht als Zen 2 habe ich schon erwartet, mehr IPC gibts halt nicht umsonst. Wobei dann ja oft versucht wird, das mit weniger Mehrverbrauch als Mehr-IPC hinzubekommen, die Effizienz also zu steigern. Trotzdem könnte der Verbrauch bei Zen 3 bei 15-20% mehr IPC taktbereinigt schon um 10% steigen, und dann kommt auch noch der Mehrtakt dazu...
Sunrise
2020-09-28, 23:44:45
Eben, deutlich mehr IPC erreicht man nur mit überproportional hohem Aufwand/starken Änderungen, dann auch noch der Mehrtakt auf weiterhin 7nm(+). Die 5GHz wollte man wohl auch marketingtechnisch erreichen.
Bis wir den 16er sehen, wird es dann wohl etwas dauern, da der wieder gut gebinnt werden muss.
Das Ding macht mir irgendwie Angst, AMD stapelt ja neuerdings gerne tief, ich glaube das wird ein richtiges Fest werden.
Sollte AMD da neue Instruktionen hinzufügen, wird man hier sicher auch mehr Spielraum benötigen. Bald ist es soweit, freue mich schon.
Langlay
2020-09-28, 23:57:28
150W klingen ziemlich meh, vor allem wenn es nicht das PPT sondern die TDP ist (das wären dann um die 200W PPT ...). Für Spielebenches ist das völlig unnötig, da verliert auch der 10900K quasi nichts, wenn man ihn von 250 auf 127W einbremst, denn der volle ST-Boost wird nur auf wenigen Kernen benötigt. Die anderen idlen fröhlich vor sich hin. Und in Anwendungen zerlegt AMD den 10900K eh ganz locker. Hier ist ja schon ein 3900X schneller durch die zwei zusätzlichen Kerne. Und selbst in Anwendungen hat ein hoher Verbrauch bei Zen 2 nicht viel gebracht. Der 3800X holt aus 65% mehr Verbrauch keine 5% Mehrleistung raus und bei Igor hat afaik ein auf 65W (!) eingedampfter 3950X in den meisten Anwendungsbenches den 3900X@140W geschlagen. Intel hat für ihre Heizplatte zurecht Kritik bekommen, AMD sollte es besser machen.
Mein alter 3800X hat ohne AVX aber auch nur maximal ~110W verbraucht laut Ryzenmaster. Nur in Prime95 mit AVX und Co isser ins Powerlimit gelaufen.
Piefkee
2020-09-29, 07:31:18
https://twitter.com/tum_apisak/status/1310793433578053632?s=21
5800X (8- Core) in Ashes....
16% schneller als der 10900K
mboeller
2020-09-29, 07:47:25
der leak zeigt das Ergebnis in 2160p... ist das überhaupt relevant?
basix
2020-09-29, 08:00:26
Wenn es in 4K schon 16% sind, wird es in tieferen Auflösungen vermutlich nicht weniger sein ;)
Piefkee
2020-09-29, 08:03:59
https://twitter.com/9550pro/status/1310821479995514880?s=21
Framerates @1080p
5800X 142,4
3800X 88,6. ( best score)
ChuCHU
basix
2020-09-29, 08:11:35
An 150W TDP beim 12C glaube ich ausserdem nicht. Und zwar aus zwei Gründen:
Kompatibilität mit existierenden Mainboards. Als letzte Ausbaustufe der AM4 Plattform will man hoffentlich nicht komplett die alte Garde absägen
Power Density auf dem Chiplet. Da ist man bereits heute nahe am Maximum
mironicus
2020-09-29, 08:26:01
150 könnte auch ein Tippfehler sein = 105.
mboeller
2020-09-29, 08:35:58
https://twitter.com/9550pro/status/1310821479995514880?s=21
Framerates @1080p
5800X 142,4
3800X 88,6. ( best score)
ChuCHU
oha... und so werden aus 16% 60%
Für mich ist der Vergleich mit dem "alten" ZEN2 wichtiger als der Vergleich mit dem 10900K
danke!
Tobalt
2020-09-29, 08:41:15
jetzt wird klar warum es keine leaks gab. Amd wollte sich das Zen2 Geschäft nicht stilllegen ;)
mboeller
2020-09-29, 08:44:04
https://flipfigures.com/amd-ryzen-7-5800x-beats-i9-10900k-by-20-in-latest-aots-benchmark/
Faster frame rate in CPU benchmark by AOTS means that real-world performance in single core utilized applications will be better than Intel’s Core i9 flagship. Specifically, i9-10900K only could get 136 fps compared to superior Ryzen 7 5800X’s 166 fps when both counterparts are paired with RTX 2080
???
edit:
ist ein 5800X bei Ashes in ST wirklich um 22% schneller als ein 10900K? Deshalb die Fragezeichen. Das wäre nämlich ein unglaublicher Vorsprung
prinz_valium_2
2020-09-29, 09:27:27
Würde gerne von einem Ryzen 1600 endlich auf einen 8 Core mit SMT wechseln.
Hoffentlich sehen wird endlich ordentliche Frequenzen. Diese 3.8GHz mit denen ich laufe werden nicht für ewig halten.
5GHz würden es schon
Mehr als 8 Cores werden aber immer noch nicht nötig dank den Konsolen.
Hoffe nur ich bekomme die CPU irgendwie auf meinem Prime x370 Pro zum laufen.
r3ptil3
2020-09-29, 09:53:15
Was ich bei dem AOS Benchmark nicht ganz verstehe:
Der 5800x ist beim CPU Bench überall besser, aber bei "average Framerate" überall schlechter?
Was bedeutet denn "average Framerate" bei dem Benchmark?
mironicus
2020-09-29, 09:58:22
jetzt wird klar warum es keine leaks gab. Amd wollte sich das Zen2 Geschäft nicht stilllegen ;)
Definitiv. :eek:
Wer hätte sich denn schon einen von den neueren XT-CPUs geholt wenn es diese Leaks schon 2-3 Monate vorher gegeben hätte...
unl34shed
2020-09-29, 09:58:47
Das es GPU limitiert ist
dildo4u
2020-09-29, 10:00:17
4k im höchsten Preset wird GPU limitiert sein dort kommt es halt drauf an welche 208O wie getaktet ist.
Das Game hat ein anderen Test der die CPU mehr belastet, das in den Screens ist der GPU Test
Berniyh
2020-09-29, 10:20:58
An 150W TDP beim 12C glaube ich ausserdem nicht. Und zwar aus zwei Gründen:
Kompatibilität mit existierenden Mainboards. Als letzte Ausbaustufe der AM4 Plattform will man hoffentlich nicht komplett die alte Garde absägen
Power Density auf dem Chiplet. Da ist man bereits heute nahe am Maximum
Die Kompatibilität wollte man ja eigentlich schon absägen, Zen 3 sollte ursprünglich ja nur für X570 und B550 (sowie was halt mit Zen 3 noch kommt) laufen.
Aber ansonsten sehe ich das auch so. Vor allem hätte AMD – wenn eine TDP Erhöhung zur Debatte stünde – das doch wohl schon mit dem 3950X gemacht, oder nicht?
Ne, ich würde erwarten, dass Zen 3 auch beim 4950X oder 5950X (je nachdem wie das Teil am Ende heißen wird) bei 105 W bleibt, was dann in etwa 140-150 W Maximalleistungsaufnahme entspricht.
Leonidas
2020-09-29, 10:50:34
"AMD Ryzen 9 5900X “Vermeer” 12 Core & 24 Thread Zen 3 CPU Allegedly Up To 5 GHz With 150W TDP"
https://wccftech.com/amd-ryzen-9-5900x-vermeer-12-core-24-thread-cpu-allegedly-up-to-5-ghz-150w-tdp/
wow... :eek:
Ich habe das Gefühl das Ding wird richtig abgehen
Quelle: Ein YouTuber, der einfach nur laut dachte.
https://twitter.com/CapFrameX/status/1310649258308259840
Aots Benchmark verglichen mit 3800X & 10900K:
https://twitter.com/CapFrameX/status/1310823769787846658
https://pbs.twimg.com/media/EjD6xt1XYAEWc8s?format=png&name=large
Mit einer höheren TDP der 2 CCD-CPUs (nicht 150W :freak:) wäre auch klar, warum sie nicht mehr mit 3xx und 4xx-Boards kompatibel sind und damit wäre auch klar, warum die Boards ab X570 und vor allem B550 so starke VRMs haben...
X-Bow
2020-09-29, 11:30:10
Aots Benchmark verglichen mit 3800X & 10900K:
https://twitter.com/CapFrameX/status/1310823769787846658
https://pbs.twimg.com/media/EjD6xt1XYAEWc8s?format=png&name=large
Entsprechen denn die Performancedifferenzen zwischen 10900K und 3800X in etwa dem durchschnittlichen Performanceunterschied beider CPUs über mehrere Games?
Sprich sind die Werte denn in etwa Vergleichbar und haben dadurch ein gewisse Aussagekraft? :confused:
Hier mal die Tabelle mit Prozentwerten:
10900K % 3800X % 5800X %
136,3 100 125,6 92,1 166,6 122,2
118,6 100 111,3 93,8 135,3 114,1
96,4 100 86,9 90,1 110,3 114,4
dildo4u
2020-09-29, 11:33:04
CB hat +18% von 3800X zu 10900k.
https://www.computerbase.de/thema/prozessor/rangliste/#diagramm-test-performancerating-fuer-spiele-fps-fhd
Die 10900k Benchmarks sind eh totales Lotto. Bei manchen ist der überbordend schnell, bei anderen kaum schneller als ein 9900k... kommt halt darauf an, was man für ein Board hat, was das für ne Standardeinstellung mitbringt, ob das BIOS aktuell ist (der 10900k lieferte ja falsche Ergebnisse anfangs, wie Igor feststellte) und wie gut die CPU ist.
r3ptil3
2020-09-29, 11:44:33
Die 10900k Benchmarks sind eh totales Lotto. Bei manchen ist der überbordend schnell, bei anderen kaum schneller als ein 9900k...
Mit oder ohne Limits ist da die Frage.
dildo4u
2020-09-29, 12:08:37
Es gibt auch Leute die nicht in der Lage sind CPUs zu benchen der hier hat z.b Doom (Vulkan) im Parkour.
https://wccftech.com/review/intel-core-i9-10900k-core-i7-10700k-core-i5-10600k-cpu-review-ft-z490-motherboards/15/
Wenn man das im Schnitt hat kann sich die schnellere CPU nicht richtig absetzen.(Davon ab das er alles in 1440p Bencht)
Nightspider
2020-09-29, 13:39:15
Profitiert der Bench von 10 Kernen oder nur SC?
Lehdro
2020-09-29, 14:21:23
Ist hier die Haltestelle wo man in den Hypetrain einsteigen kann?
X-Bow
2020-09-29, 14:25:46
Ist hier die Haltestelle wo man in den Hypetrain einsteigen kann?
Ja, aber der hat 2Tage verspätung. :wink:
Dural
2020-09-29, 14:26:32
gibt es neue mb für zen3?
r3ptil3
2020-09-29, 14:32:08
gibt es neue mb für zen3?
Unbestätigt Ende Jahr x670 Chipsatz.
Wird aber bestimmt am 8.10 erwähnt, falls das stimmt.
Ravenhearth
2020-09-29, 14:40:34
Gebt mir einfach einen Ryzen 5 5600 und ich bin glücklich :D
Gebt mir einfach einen Ryzen 5 5600 und ich bin glücklich :DHoffentlich ist es auch im Oktober soweit, das man die Teile gleich kaufen kann. Meine Wahl wird wohl ein 5700X sein mit einem feinen B550 Board. Ich behalte dann erstmal mein 16GB 2666Mhz Ram und erhöhe die Spannung von 1,2 auf 1,35 Volt und stell dann "einfach" auf 3200 Mhz.
ShinyMcShine
2020-09-29, 14:54:27
Kam ja erst großflächig der B550 raus. Glaube nicht, dass dann gleich ein B650 kommt, sondern erst nur der X670... Der 5800X ist aber wohl so gut wie gekauft...
basix
2020-09-29, 16:23:37
Der 5800X ist aber wohl so gut wie gekauft...
Wenn es wie bei Zen 2 läuft, wird der 5700X wird nur unwesentlich langsamer sein. Und deutlich weniger kosten ;)
ShinyMcShine
2020-09-29, 16:26:54
Naja, es liegen 30€ dazwischen und 65W TDP vs. 105W TDP.
Die 10% Aufpreis gönn' ich mir...
Ex3cut3r
2020-09-29, 16:29:03
Die TDP Angaben stimmen aber nicht, außerdem kannst du mit PBO und/oder All Core OC viel mehr fressen lassen.
Beispiel R5-3600 Non X offiziel 65W TDP:
Per CCX OC @ 4.4 und 4.325 ghz @ 1.4V = 92W ~ Cinebench R15 Run
https://abload.de/img/unbenannt40juq.png
ShinyMcShine
2020-09-29, 16:32:56
Die TDP Angaben stimmen aber nicht, außerdem kannst du mit PBO und/oder All Core OC viel mehr fressen lassen.
Die 65W vs. 105W bezogen sich auf Zen 2 vom Post darüber...
Berniyh
2020-09-29, 16:35:29
Wenn es wie bei Zen 2 läuft, wird der 5700X wird nur unwesentlich langsamer sein. Und deutlich weniger kosten ;)
Ist denn schon sicher, dass der 5800X ein 8C Prozessor wird?
Prinzipiell könnte AMD mit Zen 3 ja jetzt auch 10C vernünftig umsetzen.
basix
2020-09-29, 16:37:07
Naja, es liegen 30€ dazwischen und 65W TDP vs. 105W TDP.
Die 10% Aufpreis gönn' ich mir...
Der 3800X ist erst nach und nach so günstig geworden. Ursprünglich war es 429 zu 349 Euro.
@Berniyh:
Der AotS Bench zeigt zumindest 8C/16T an
ShinyMcShine
2020-09-29, 16:41:25
Der 3800X ist erst nach und nach so günstig geworden. Ursprünglich war es 429 zu 349 Euro.
@Berniyh:
Der AotS Bench zeigt zumindest 8C/16T an
OK, bei der Differenz überlege ich es mir dann anhand der Tests...
Tesseract
2020-09-29, 16:41:47
Naja, es liegen 30€ dazwischen und 65W TDP vs. 105W TDP.
TDP ist nix anderes als eine bioseinstellung die in ein paar sekunden geändert ist. der eigentliche unterschied ist besseres binning für den 8er, allerdings wird das wohl wie bei den 3000ern wieder nur im 2-3%-bereich liegen wärend der preisunterschied anfangs sicher wieder >20% ist weil es zum release einfach nicht genug chips gibt die dieses binning schaffen.
ShinyMcShine
2020-09-29, 16:46:21
TDP ist nix anderes als eine bioseinstellung die in ein paar sekunden geändert ist. der eigentliche unterschied ist besseres binning für den 8er, allerdings wird das wohl wie bei den 3000ern wieder nur im 2-3%-bereich liegen wärend der preisunterschied anfangs sicher wieder >20% ist weil es zum release einfach nicht genug chips gibt die dieses binning schaffen.
OK, Danke für die Info. Mein letztes System habe ich 2012 gekauft und fange erst jetzt an, mich mit dem Nachfolger und insbesondere mit AMD CPUs zu beschäftigen...
Berniyh
2020-09-29, 16:48:37
@Berniyh:
Der AotS Bench zeigt zumindest 8C/16T an
Ok, dann würde man tatsächlich nur wieder einen gewissen Mehrpreis für minimal besseres Silicium zahlen.
Für mich aber unverständlich, da hätte AMD doch eigentlich die perfekte Gelegenheit gehabt den x700X und den x800X besser zu trennen.:confused:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.