PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3, 7 nm, 2020 (Vermeer, Cezanne, Genesis Peak & Milan)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27

Savay
2020-10-11, 00:47:25
Zen2 kann man nicht vergleichen, ausser den 3300x und den 3100.


Und wieso nicht?

Ach komm...bei mickrigen 4 Kernern ist das einfach hinten und vorne nicht vergleichbar, da 3-8 Threads mit gewissen Abhängigkeiten mittlerweile eher die Regel sind und ein 2x2er CCX Aufbau ist hier einfach suboptimal sondergleichen für moderne Spiele, weil hier signifikant mehr zwischen den CCXen hin- und herkopiert werden muss. Deswegen bricht der 3100 auch so extrem ein, weil er sich bei Saturierung eines CCX im Grunde eher wie ein DualCore verhält.
Das was man da sieht ist keine 3300X "Stärke" sondern primär eine 3100er Schwäche.

Wenn der 3900X mit seinen 3er CCXen (ab da ist es bislang ja bei den 6T offensichtlich zumeist noch total unproblematisch) im Schnitt schon schneller als der 3800X mit seinen 4er CCXen ist warum sollte der 5900X mit den 6er(!) CCXen mit immerhin 12T und jetzt sogar noch mehr effektiven Cache Pro Kern plötzlich langsamer sein als der 3800X?

Nightspider
2020-10-11, 01:24:49
Im Vergleich zu Nvidia recht langweilig. Ich sehe keine Vision, nichts revolutionäres und immer nur mehr vom selben. Dazu entwickelt sich selbst das sehr langsam. Warum keine Art Tensor Cores im CPU-Bereich?
Kann ja auch etwas anderes innovatives sein. Irgendetwas müssen die falsch machen, wenn ich mir die Geschwindigkeitsentwicklung zwischen Grafikkarten und CPUs innerhalb der letzten 8 Jahe ansehe. Es braucht neue Ideen.

Du redest Blödsinn. Hast du dir mal angeschaut wie winzig AMD vor 4 Jahren war?

Die waren kurz vor der Insolvenz, hoch verschuldet, kaum Umsatz.

Was AMD die letzten Jahre geschaffen hat ist enorm. Und mit steigenden Umsätzen kann man auch mehr Geld in Entwicklung und Forschung im Grafikbereich investieren.

Vor allem: Was soll der Spruch 2,5 Wochen vor der Vorstellung von BigNavi. BigNavi wird einen großen Sprung machen.


Maximal anderes I/O-Die, aber selbst das glaube ich nicht. Das wird mehr so ein Zen3 XT, also beides gleiche Dies. Vielleicht produziert man das I/O-Die jetzt in 12LP+ oder so, um höhere brauchbare Speichertakte hinzubekommen, das wars dann aber maximal, was man erwarten darf mMn. Die 5GHz wird man packen mit Warhol, daher der eigene Codename mMn. Man wird das marketingtechnisch etwas mehr auswalzen als Zen2 XT.

Das rechtfertigt doch keinen neuen Codenamen (Warhol).

Nightspider
2020-10-11, 01:33:44
Nochmals kurz auf die Preise zurückzukommen:

5600X: 299$
5800X: 449$ (50% mehr für 2 Cores)
5900X: 549$ (22% mehr für 4 Cores)


Ich vermute fast, dass der 5800X

- sehr schlecht verfügbar sein wird (adäquat zum 3300X)
- die beste Gaming-Performance erreicht

Beste Gaming-Performance oder 4-Cores mehr für 100$ Aufpreis?


Seltsame Argumentation. Das kannst du auch umdrehen:

5600X: 20% teurer
5800X: 12,5% teurer
5900X: 10% teurer
5950X: 6,6% teurer als der Vorgänger.

So umgeht man auch das die Leute alle nur zu den günstigsten Modellen greifen, durch den gleichen Preisaufschlag bei allen Modellen.
Denn dank der hohen IPC und leading Gaming Performance würde vielen auch schon das kleinste Modell für dem Gaming PC ausreichen.
So macht AMD mehr Umsatz.

Die Varianten mit 3 Chiplets haben halt mehr Cache zur Verfügung und da stehen Games drauf. Der 5950X wird bestimmt wieder meistens die schnellste Variante sein.


Und wieso nicht?

Ach komm...bei mickrigen 4 Kernern ist das einfach hinten und vorne nicht vergleichbar, da 3-8 Threads mit gewissen Abhängigkeiten mittlerweile eher die Regel sind und ein 2x2er CCX Aufbau ist hier einfach suboptimal sondergleichen für moderne Spiele, weil hier signifikant mehr zwischen den CCXen hin- und herkopiert werden muss. Deswegen bricht der 3100 auch so extrem ein, weil er sich bei Saturierung eines CCX im Grunde eher wie ein DualCore verhält.
Das was man da sieht ist keine 3300X "Stärke" sondern primär eine 3100er Schwäche.

Wenn der 3900X mit seinen 3er CCXen (ab da ist es bislang ja bei den 6T offensichtlich zumeist noch total unproblematisch) im Schnitt schon schneller als der 3800X mit seinen 4er CCXen ist warum sollte der 5900X mit den 6er(!) CCXen mit immerhin 12T und jetzt sogar noch mehr effektiven Cache Pro Kern plötzlich langsamer sein als der 3800X?

Sehe ich genauso.

Und was die Abhänigkeiten zwischen den Threads betrifft hat man vor allem mit dem 16 Kerner Puffer, falls manche Spiele doch viel zwischen 8 Kernen (16 Threads) kommunizieren.
Wenn nicht wird halt mehr auf den anderen Chip ausgelagert und dessen Cache genutzt. Das sollte eigentlich auch für die NextGen Games reichen, da die neuen Konsolen weiterhin nur 8 Kerne haben, auch wenn sie jetzt SMT besitzen.

amdfanuwe
2020-10-11, 02:00:50
Die waren kurz vor der Insolvenz, hoch verschuldet, kaum Umsatz.

Apple wurde auch mal von Microsoft gerettet. Mal sehen, was noch aus AMD wird :wink:

Brillus
2020-10-11, 03:03:10
Das rechtfertigt doch keinen neuen Codenamen (Warhol).

Summit Ridge, Pinnical Ridge hust

Raven Ridge, Picasso hust hust.

Jupiter
2020-10-11, 08:31:24
Du redest Blödsinn. Hast du dir mal angeschaut wie winzig AMD vor 4 Jahren war?

Die waren kurz vor der Insolvenz, hoch verschuldet, kaum Umsatz.

Was AMD die letzten Jahre geschaffen hat ist enorm. Und mit steigenden Umsätzen kann man auch mehr Geld in Entwicklung und Forschung im Grafikbereich investieren.

Vor allem: Was soll der Spruch 2,5 Wochen vor der Vorstellung von BigNavi. BigNavi wird einen großen Sprung machen.

Wow. Sie haben es geschafft, ein seit fünf Jahren stagnierendes Intel zu überholen. Was für eine Meisterleistung.

Bei GPUs gibt es ein Massenweinen, wenn die Nachfolger wie die RTX 3080 nur 50 % schneller werden und hier feiert man über jedes kleine Prozent. Vielleicht sollte man seine Erwartungen bei CPUs nicht so niedrig anlegen.

Dabei sind neue 600 Euro CPUs nicht mal zweimal so schnell wie sechs Jahre alte CPUs für 260 Euro.
Intel i7-4790K & i5-4690K in 2020: Benchmarks vs. Ryzen 3600, 9700K: https://www.youtube.com/watch?v=D6RsDyMn2gY

Vergleich das mal mit der Grafikkartenentwicklung.


Wie jetzt? Chiplets, das Fabric, das dyn. und sehr flexible Energiemanagment, die Skalierbarkeit etc. pp. ist dir in den letzten paar Jahren bislang noch nicht genug? :freak:

Tensor Cores sind am Ende BTW auch nur alter Wein in neuen Schläuchen...das ist schlicht und ergreifend nur die Abkehr vom Unified Shader Konzept und ein "Rückschritt" zu dedizierten Recheneinheiten.
Damit hat nV defakto vom einstmals mit dem G80 mit großem Tamtam eingeführten Konzept im Grunde einfach wieder eine Rolle Rückwärts gemacht.

Wenn die Geschwindigkeit sich in Minitempo entwickelt, sollte man vielleicht mal darüber nachdenken. Sind Shader Cores nicht auch dezidiert? Wo wären wir ohne diese Entwicklungen?

dargo
2020-10-11, 08:38:12
Das ist nicht unmöglich. Papermaster sprach von einem 12-18 Monatszyklus für neue Gens, danach würde Zen4 frühestens im Nov. 21, spätestens aber Mai 22 kommen.
Warhol ist auch eine neue Gen und das ist nicht Zen4. :) Ich glaube auch nicht an 5nm in 2021. Der Grund wird Apple sein. Ich gehe davon aus, dass Apple alle 5nm Kapazitäten für sich beanspruchen wird. Es sei denn TSMC fährt die 5nm Kapazitäten im späteren 2021 Verlauf massiv hoch.

Wow. Sie haben es geschafft, ein seit fünf Jahren stagnierendes Intel zu überholen. Was für eine Meisterleistung.

Bei GPUs gibt es ein Massenweinen, wenn die Nachfolger wie die RTX 3080 nur 50 % schneller werden und hier feiert man über jedes kleine Prozent.

:facepalm:

Du kannst uns gerne erklären wie man bei CPUs den Code multithreaden soll wenn die Applikationen es nicht entsprechend können. Schon alleine der Vergleich CPUs vs. GPUs ist grandios. :uup: Man sieht übrigens selbst bei GPUs schon wie wenig Fortschritt Nvidia alle ~2 Jahre bringt. Die Leistungssteigerungen in Games sind lächerlich. Vor einigen Jahren waren wir noch bei Faktor 2 alle 12-18 Monate.

btw.
Die Tensor Cores in den Gaming GPUs von Nvidia sind aktuell nichts weiter als Siliciumverschwendung. Für mehr als DLSS taugen die aktuell nicht. Dh. in den meisten Games liegen die einfach brach.

Adam D.
2020-10-11, 08:57:26
:facepalm:

Du kannst uns gerne erklären wie man bei CPUs den Code multithreaden soll wenn die Applikationen es nicht entsprechend können. Schon alleine der Vergleich CPUs vs. GPUs ist grandios. :uup: Man sieht übrigens selbst bei GPUs schon wie wenig Fortschritt Nvidia alle ~2 Jahre bringt. Die Leistungssteigerungen in Games sind lächerlich. Vor einigen Jahren waren wir noch bei Faktor 2 alle 12-18 Monate.
Er kann dann am besten auch gleich noch mit aufklären, warum er mit seinen zwei Kumpels in der Delmenhorster Garage in den letzten 5 Jahren nicht auch ein brauchbares Konkurrenzprodukt entwickelt hat. Intel hat 2019 gerade einmal 72 Milliarden Dollar Umsatz gemacht, das sind doch Peanuts. Die Tür steht speerangelweit offen für die Konkurrenz.

Es ist zu größtem Teil AMD zu verdanken, dass wir heute für nen 6-Kerner 10900K keine 800€ zahlen müssen. Aber das spielt natürlich alles keine Rolle.

Jupiter
2020-10-11, 09:09:23
:facepalm:

Du kannst uns gerne erklären wie man bei CPUs den Code multithreaden soll wenn die Applikationen es nicht entsprechend können. Schon alleine der Vergleich CPUs vs. GPUs ist grandios. :uup: Man sieht übrigens selbst bei GPUs schon wie wenig Fortschritt Nvidia alle ~2 Jahre bringt. Die Leistungssteigerungen in Games sind lächerlich. Vor einigen Jahren waren wir noch bei Faktor 2 alle 12-18 Monate.

btw.
Die Tensor Cores in den Gaming GPUs von Nvidia sind aktuell nichts weiter als Siliciumverschwendung. Für mehr als DLSS taugen die aktuell nicht. Dh. in den meisten Games liegen die einfach brach.

Vergleich mal eine Grafikkarte von 2013 mit einer von 2020. Eine RTX 3080 ist deutlich mehr als zweimal so schnell wie eine GTX 680, während CPUs das nicht einmal bei einer Preissteigerung von 100 Prozent in den Jahren schaffen.

Wenn der Sprung einer nicht einmal zweifachen Geschwindigkeitssteigerung in sechs Jahren hier so gefeiert wird, sollte man dann im Ampere Thread vielleicht den Mund halten. Ansonsten widerspricht sich da etwas.

dargo
2020-10-11, 09:14:03
Vergleich mal eine Grafikkarte von 2013 mit einer von 2020. Eine RTX 3080 ist mehr als zweimal so schnell wie eine GTX 680, während CPUs das nicht einmal bei einer Preissteigerung von 100 Prozent in den Jahren schaffen.

Du redest einfach Bullshit. Die Applikation muss stimmen damit man auch die höchsten Vorteile erzielt. Hier hast du ein nettes Beispiel über 11 Jahre CPU-Entwicklung.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12456055&postcount=1553

Dort sehe ich auch Faktor ~3-4. Im worst case Faktor 10+.

btw.
Eine GTX 680 hatte um die 175W gesoffen.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/3/

Eine RTX 3080 säuft das Doppelte (Customs). Unter Fortschritt verstehe ich was anderes. Und ja... ich weiß auch, dass einige CPUs Säufer sind.

Berniyh
2020-10-11, 09:26:11
Das rechtfertigt doch keinen neuen Codenamen (Warhol).
AMD gibt selbst Lucienne einen eigenen Codenamen und das ist – soweit wir wissen – nur eine Variante von Renoir.

bloodflash
2020-10-11, 09:58:57
Vergleich mal eine Grafikkarte von 2013 mit einer von 2020. Eine RTX 3080 ist deutlich mehr als zweimal so schnell wie eine GTX 680, während CPUs das nicht einmal bei einer Preissteigerung von 100 Prozent in den Jahren schaffen.

Wenn der Sprung einer nicht einmal zweifachen Geschwindigkeitssteigerung in sechs Jahren hier so gefeiert wird, sollte man dann im Ampere Thread vielleicht den Mund halten. Ansonsten widerspricht sich da etwas.

Hmm, der 3700x aus 2019 ist mehr als doppelt so schnell wie der 7700k aus 2017. zum Beispiel in Cinebench Multi oder in Passmark.

Mehr als 100% in 2,5 Jahren :cool:

Was wolltest Du nochmal sagen?

Zossel
2020-10-11, 10:47:08
Vergleich mal eine Grafikkarte von 2013 mit einer von 2020. Eine RTX 3080 ist deutlich mehr als zweimal so schnell wie eine GTX 680, während CPUs das nicht einmal bei einer Preissteigerung von 100 Prozent in den Jahren schaffen.

Wieviel Cores hatten CPUs in 2013?

rob]SK[
2020-10-11, 10:48:11
gibt es schon hinweise auf den neuen threadripper, als zen 3 ?

finde momentan nix gescheites dazu, im inet.

besten dank schonmal

mfg rob

Effe
2020-10-11, 10:58:44
Hmm, der 3700x aus 2019 ist mehr als doppelt so schnell wie der 7700k aus 2017. zum Beispiel in Cinebench Multi oder in Passmark.

Mehr als 100% in 2,5 Jahren :cool:

Was wolltest Du nochmal sagen?
Nicht seiner schlecht begründeten Meinung widersprechen, sonst landest Du noch auf seiner Ignore-Liste.

Der Mainstream hatte 2013 4 Kerne, 8 Threads, jetzt 16, 32 Threads bei ähnlicher TDP. Das ist natürlich kein erwähnenswerter Fortschritt. Wie Dargo erwähnte, bei GPUs verdoppelte sich teilweise die TDP.
Äpfel und Birnen.

urbi
2020-10-11, 11:56:22
Wenn der 3900X mit seinen 3er CCXen (ab da ist es bislang ja bei den 6T offensichtlich zumeist noch total unproblematisch) im Schnitt schon schneller als der 3800X mit seinen 4er CCXen ist warum sollte der 5900X mit den 6er(!) CCXen mit immerhin 12T und jetzt sogar noch mehr effektiven Cache Pro Kern plötzlich langsamer sein als der 3800X?

Ich glaube das Du recht hast, denn beim 3900x gab es AFAIK nie einen Test wo er langsamer war als der 3800x. Die Frage ist aber, ob das wirklich undenkbar ist. Wenn es eine Anwendung gäbe die wenig vom Cache profitiert und 8 Kerne braucht müsste der 5900x über den IF gehen, der 5800x hingegen nicht.
Im Hinblick auf Spiele wüsste ich gerne wie das mit dem IF bei den CPUs von der Playstation 5 und der neuen Xbox gelöst ist, denn die sind ja soweit ich weiß noch auf Zen 2 Basis, also quasi kleine 3700x. Sie müssten mit ihrem 4+4+0 Aufbau theoretisch immer gegenüber den 6+6 Aufbau des 5900x im Nachteil sein.

basix
2020-10-11, 11:59:32
Bei aktuellen Spielen sind 6C/12T aber das Optimum, darüber skalieren mehr Kerne fast gar nicht. Ein 3600X ist nicht viel langsamer als ein 3800X. Da hat dann entsprechender Cache und höherer Takt mehr Einfluss. Beides bietet der 3900X, deswegen performt der auch gut. Bei NextGen Spielen sollte sich das dann zu Vorteilen für 8C+ CCX verschieben.

Zen 4 wird vermutlich mit 10 oder gar 12 Kernen pro CCX kommen. Das wäre dann das Optimum für die NextGen Spiele.

Jupiter
2020-10-11, 12:01:17
Hmm, der 3700x aus 2019 ist mehr als doppelt so schnell wie der 7700k aus 2017. zum Beispiel in Cinebench Multi oder in Passmark.

Mehr als 100% in 2,5 Jahren :cool:

Was wolltest Du nochmal sagen?

Dann sehen wir uns mal die Steigerung mit Raytracing an. Da gibt es mehre 1000 % Beschleunigung. Spiel mal Control mit Raytracing auf einer GTX 680 und dann mit einer RTX 3080.

Der Fortschritt im CPU-Bereich ist lächerlich. Nicht einmal 100 % Steigerung in Spielen in all den Jahren. Diesen Minifortschritt braucht man nicht schönreden.


Du redest einfach Bullshit. Die Applikation muss stimmen damit man auch die höchsten Vorteile erzielt. Hier hast du ein nettes Beispiel über 11 Jahre CPU-Entwicklung.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12456055&postcount=1553

Dort sehe ich auch Faktor ~3-4. Im worst case Faktor 10+.

btw.
Eine GTX 680 hatte um die 175W gesoffen.
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/3/

Eine RTX 3080 säuft das Doppelte (Customs). Unter Fortschritt verstehe ich was anderes. Und ja... ich weiß auch, dass einige CPUs Säufer sind.

Die RTX 3080 verbraucht mehr, ist aber auch 10 mal schneller. Die CPUs sind in der Zeit nicht einmal zweimal schneller. Die RTX 3070 wird auch nicht viel mehr Strom verbrauchen und dennoch um ein Vielfaches schneller als die GTX 680 sein.

Dann vergleich mal 11 Jahre GPU-Entwicklung. Auch hier ist der Fortschritt deutlich größer.

dargo
2020-10-11, 12:04:30
Dann schau dir mal die Steigerung mit Raytracing an. Da gibt es mehre 1000 % Beschleunigung. Spiel mal Control mit Raytracing auf einer 680 und dann mit einer RTX 3080.

Der Fortschritt im CPU-Bereich ist lächerlich.
:facepalm:

Spiel mal moderne Games damit.
https://geizhals.de/intel-celeron-g5900-bx80701g5900-a2290944.html?hloc=de

Da wirst du noch mehr als +1000% sehen wenn ein Game mindestens 4 Threads braucht (sofern es überhaupt startet :ulol:). Und diese CPU ist von 2020! Du machst dich hier nur noch lächerlich.

btw.
Reine Raytracing Performance wurde nach zwei Jahren mit Ampere nicht mal verdoppelt gegenüber Turing. Paar Prozentchen mehr gibts nur mit DLSS da die Performance der Tensor Cores gesteigert wurde. Sind zwar weniger, dennoch in Summe performanter.

Jupiter
2020-10-11, 12:06:45
Ich vergleiche mit i7 4770k. Die GTX 680 ist aus der selben Zeit. Im Gegensatz zur GTX 680 reicht der i7 4770k für die meisten Spiele noch für 60fps.

dargo
2020-10-11, 12:07:06
Weil es in dein Weltbild besser passt? ;D

Jupiter
2020-10-11, 12:08:44
GTX 680 und i7 4770k waren damals beide mit das schnellste in der gleichen Zeit. Man stelle sich vor, es gäbe in acht Jahren nur eine GPU, welche maximal zweimal so schnell wie eine GTX 680 ist. Ihr würdet das wahrscheinlich genau so wie die aktuellen AMD CPUs feiern. Für mich gibt es da nichts zu feiern. Es ist eher sehr traurig.

Er kann dann am besten auch gleich noch mit aufklären, warum er mit seinen zwei Kumpels in der Delmenhorster Garage in den letzten 5 Jahren nicht auch ein brauchbares Konkurrenzprodukt entwickelt hat. Intel hat 2019 gerade einmal 72 Milliarden Dollar Umsatz gemacht, das sind doch Peanuts. Die Tür steht speerangelweit offen für die Konkurrenz.


Dieses Argument kann dann in jeder Diskussion verwendet werden. Das Spiel läuft schlecht. Mach du es besser. Die RTX 3080 hat keine 100 % Steigerung gegenüber die RTX 2080. Mach du es besser..

dargo
2020-10-11, 12:25:36
GTX 680 und i7 4770k waren damals beide mit das schnellste in der gleichen Zeit.

Und weiter? Du willst es nicht verstehen oder?
https://abload.de/img/zwischenablage01efkhl.jpg

5100% schneller in 11 Jahren. Und der "poppelige" i5 10600K ist eine Mainstream CPU heute, zumindest beim Preis. Mal ganz davon ab, dass hier eine Messung kaum mehr möglich ist da der i5-760 teilweise für mehrere Sekunden stehen bleibt.

Der_Korken
2020-10-11, 12:31:20
Der Fortschritt im CPU-Bereich ist lächerlich. Nicht einmal 100 % Steigerung in Spielen in all den Jahren. Diesen Minifortschritt braucht man nicht schönreden.

Genau, vollkommen lächerlich. Alles nur Stümper diese ganzen CPU-Hersteller, allesamt. Wenn Nvidia CPUs bauen würde, dann würde die Singlethread-Leistung genauso schnell steigen wie die GPU-Power und wir hätten schon längst die 10fache ST-Leistung gegenüber dem 4770K. Oder wenn AMD statt GPUs auch CPUs bauen würde ... ach ups tun sie ja schon.

Du drehst es dir hier zurecht, wie es dir gefällt. Den GPUs gibts du wunderbar parallel skalierende Workloads, nämlich 3D-Rastergrafik und zeigst uns dann 1000% Leistungssteigerung (was im übrigen selbst bei GTX680 vs 3080 Quatsch ist, sofern der VRAM reicht). Den CPUs wirfst dann irgendwelchen Krüppelcode vor, der mit Kernen quasi gar nicht skaliert, sondern nur mit Singlethread-Leistung, die sich physikalisch einfach kaum noch steigern lässt und behauptest dann es gäbe keinen Fortschritt bei den CPUs. Nimm mal Anwendungen, die moderne CPUs auch richtig fordern und bench dann einen 3950X gegen den 4770K oder einen 3990X gegen nen 4960X.

Oder anders rum: Gib den GPUs irgendwelchen gammligen D3D9-Code mit viel Fixed-Function-Anteil. Da ist die 3080 plötzlich auch kaum noch schneller als die 680, weil 95% der GPU Däumchen dreht.

Zossel
2020-10-11, 12:31:56
Ich vergleiche mit i7 4770k. Die GTX 680 ist aus der selben Zeit. Im Gegensatz zur GTX 680 reicht der i7 4770k für die meisten Spiele noch für 60fps.

Jetzt gibt 4 mal so viele Cores.

Jupiter
2020-10-11, 12:32:01
Und weiter? Du willst es nicht verstehen oder?
https://abload.de/img/zwischenablage01efkhl.jpg

5100% schneller in 11 Jahren. Und der "poppelige" i5 10600K ist eine Mainstream CPU heute, zumindest beim Preis. Mal ganz davon ab, dass hier eine Messung kaum mehr möglich ist da der i5-760 teilweise für mehrere Sekunden stehen bleibt.

Bei den anderen Spielen ist es in Der Regel gerade einmal maximal dreimal so schnell. Und das nach 11 Jahren. Vergleich das mal mit den Grafikkarten von vor 11 Jahren und heute. Da hat man mehr als 300 %.

Genau, vollkommen lächerlich. Alles nur Stümper diese ganzen CPU-Hersteller, allesamt. Wenn Nvidia CPUs bauen würde, dann würde die Singlethread-Leistung genauso schnell steigen wie die GPU-Power und wir hätten schon längst die 10fache ST-Leistung gegenüber dem 4770K. Oder wenn AMD statt GPUs auch CPUs bauen würde ... ach ups tun sie ja schon.

Du drehst es dir hier zurecht, wie es dir gefällt. Den GPUs gibts du wunderbar parallel skalierende Workloads, nämlich 3D-Rastergrafik und zeigst uns dann 1000% Leistungssteigerung (was im übrigen selbst bei GTX680 vs 3080 Quatsch ist, sofern der VRAM reicht). Den CPUs wirfst dann irgendwelchen Krüppelcode vor, der mit Kernen quasi gar nicht skaliert, sondern nur mit Singlethread-Leistung, die sich physikalisch einfach kaum noch steigern lässt und behauptest dann es gäbe keinen Fortschritt bei den CPUs. Nimm mal Anwendungen, die moderne CPUs auch richtig fordern und bench dann einen 3950X gegen den 4770K oder einen 3990X gegen nen 4960X.

Oder anders rum: Gib den GPUs irgendwelchen gammligen D3D9-Code mit viel Fixed-Function-Anteil. Da ist die 3080 plötzlich auch kaum noch schneller als die 680, weil 95% der GPU Däumchen dreht.


Da müssen sie sich im CPU-Bereich bezüglich der Videospiele mal etwas einfallen lassen.

Ich sehe seitens der CPU-Hersteller keine Vision einer Zukunft. Kein Gefühl eines Generationssprungs für Videospiele.

Kriegsgeier
2020-10-11, 12:32:09
Und weiter? Du willst es nicht verstehen oder?
https://abload.de/img/zwischenablage01efkhl.jpg

5100% schneller in 11 Jahren. Und der "poppelige" i5 10600K ist eine Mainstream CPU heute, zumindest beim Preis. Mal ganz davon ab, dass hier eine Messung kaum mehr möglich ist da der i5-760 teilweise für mehrere Sekunden stehen bleibt.

Ganz einfach: das Spiel nutzt Instruktionen die die ältere CPUs einfach nicht haben und daher nur über Umwege über andere Instruktionen über mehrere Takte bewerkstelligen können

unl34shed
2020-10-11, 12:34:23
Seit wann sind Spiele auch nur ansatzweise ein Gradmesser für die CPU Leistung? :facepalm:

basix
2020-10-11, 12:35:48
GTX 680 und i7 4770k waren damals beide mit das schnellste in der gleichen Zeit. Man stelle sich vor, es gäbe in acht Jahren nur eine GPU, welche maximal zweimal so schnell wie eine GTX 680 ist. Ihr würdet das wahrscheinlich genau so wie die aktuellen AMD CPUs feiern. Für mich gibt es da nichts zu feiern. Es ist eher sehr traurig.

Ein 5700X wird in MC Anwendungen etwa 3x so schnell sein wie ein 4.4 GHz 4770K. Preislage in etwa identisch. Bei höheren Preisen bist du schon 5-6x so schnell. Eine 3080 ist in etwa 7x so schnell wie ein GTX 680, bei ebenfalls stark höheren Preisen (Link1 (https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/2/#abschnitt_grafikkartenbenchmarks_in_1920__1080_und_3840__2160), Link2 (https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#abschnitt_in_2560__1440_wird_der_schub_etwas_groesser))

Der Unterschied der Leistungsteigerung ist zwischen CPU und GPU also nur minim. Wieso CPUs nicht 1-zu-1 in allen Anwendungen so skalieren, liegt in der Natur des Problems. Nicht parallelisierbare Tasks wird man einfach nicht so extrem beschleunigen können, ausser man reduziert den Aufwand für den Task (z.B. Code Optimierungen, neue Algorithmen). Den Rest limitiert seit spätestens 2010 die Physik (Taktfrequenzen im GHz Bereich, Latenzen im Nanosekunden Bereich).

Complicated
2020-10-11, 12:38:29
Jetzt gibt 4 mal so viele Cores.
Eben völlig absurd dieser Vergleich, wenn GPUs bei kleinerer Fläche ständig mehr "Cores" bekommen können, was bei CPUs als einzige Vergleichs-SKUs einen Threadripper zulässt mit 64 CPU Cores. Wenn dann vergleicht man beide Fortschritte am Toplevel. Und nicht irgendwo wo es einem noch der Geldbeutel zulässt ein Gamingsystem zusammenzubauen.

Also sowohl der Vergelich was Entwicklung angeht ist schon absurd und dann auch noch nicht mal den Vergleich mit gleichermaßen TopDog verglichen im CPU-Desktop.
Dann anhand einer Spielesoftware die Leistungen zu vergleichen, welche die Hardware nicht ausnutzen kann, das setzt dem nur noch das Sahnehäubchen auf.

Der_Korken
2020-10-11, 12:42:57
Da müssen sie sich im CPU-Bereich bezüglich der Videospiele mal etwas einfallen lassen.

Ich sehe seitens der CPU-Hersteller keine Vision einer Zukunft. Nichts.

Wer muss sich was einfallen lassen? Die CPU-Hersteller? Oder vielleicht doch lieber Spieleentwickler? Erstere wandert an der Grenze der physikalischen Machbarkeit. Du kannst den Takt von Halbleiter-Schaltkreisen einfach nicht weiter steigern als er jetzt ist und semantisch korrekte Abarbeitung eines Instruktionsstreams ist durch Datenabhängigkeiten zwischen den Instruktionen auch aus logischer Sicht begrenzt. Die IPC-Steigerungen im Bereich von 10% sind einfach das beste, was ein Haufen kluger Leute aus heutigen Designs noch rausholen kann. Zu fordern, die "sollen sich mal was einfallen lassen" ist so, als würde ich mich hinstellen und sagen: Mein Auto von 2000 hat nur 6 Liter Benzin verbraucht auf 100km, da verlange ich dass eins von 2020 nur 1 Liter verbraucht, wo bleibt sonst der Fortschritt? Da Benzin nur eine endliche Menge Energie enthält und der Verbrennungsvorgang eines Otto-Motors theoretische Obergrenzen für den Wirkungsgrad hat, ist ein Verbrauch von 1 Liter eben theoretisch nicht möglich.

Man könnte natürlich Quadcore-CPUs bauen, die so groß und so teuer wie 64-Kerner sind. Die schaffen durch massivste Caches vielleicht wirklich Faktor 3 oder mehr auf den 4770K in allen Lagen. Das wäre aber genauso ineffizient und unbezahlbar, wie wenn ich das oben erwähnte Ein-Liter-Auto dadurch erreiche, dass ich ein Unibody-Voll-Carbon-Auto baue, ohne Fenster und Außenspiegel. Unwartbar und Kosten im Millionen-Bereich.

dargo
2020-10-11, 12:48:57
Seit wann sind Spiele auch nur ansatzweise ein Gradmesser für die CPU Leistung? :facepalm:
Seitdem es in die Argumentationskette von Jupiter passt. :whisper:

Bei den anderen Spielen ist es in Der Regel gerade einmal maximal dreimal so schnell. Und das nach 11 Jahren. Vergleich das mal mit den Grafikkarten von vor 11 Jahren und heute. Da hat man mehr als 300 %.

Nicht in 600-768p, was durchaus vor 11 Jahren eine gängige Auflösung war.


Ich sehe seitens der CPU-Hersteller keine Vision einer Zukunft. Kein Gefühl eines Generationssprungs für Videospiele.
Weil du keinen blassen Schimmer von Spieleprogrammierung hast. Breites Multihreading erfordert einiges an Hirnschmalz im Bereich Softwareentwicklung. Und solange du über viele Jahre noch Rücksicht auf CPUs mit wenig Threads bei einer Engine nehmen musst verschlimmert dies die ganze Situation noch zusätzlich. Stell dir vor mit den neuen Konsolen würden die Entwickler 14 Threads bei ihren Engines als Mindestvoraussetzung setzen. Du würdest kaum mehr Spiele am PC absetzen, das wäre Selbstmord. Im übrigen hängen wir immer noch an dem Gammel @DX11 am PC zu oft fest nach mittlerweile 5 Jahren!

Ganz einfach: das Spiel nutzt Instruktionen die die ältere CPUs einfach nicht haben und daher nur über Umwege über andere Instruktionen über mehrere Takte bewerkstelligen können
Mich wundert es etwas, dass das Spiel dann mit dem i5-760 überhaupt startet.

Edit:
Vielleicht öffnet dir das auch die Augen was momentan los ist.

Nvidia hat es nach 4 Jahren geschafft die Spieleleistung gerade mal um 108% zu steigern (RTX 3090 vs. GTX 1080TI) und musste dafür den Verbrauch um 42% erhöhen!
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160

Bei gleichen Verbrauch (Custom RTX 3070 mit leicht höherem Powerlimit) wird Nvidia die Spieleperformance nach 4 Jahren um lächerliche 50-55% steigern. Großartige Entwicklung. :ulol:

Effe
2020-10-11, 12:51:38
GTX 680 und i7 4770k waren damals beide mit das schnellste in der gleichen Zeit.
In Q2 2013, zur Zeit eines i74770K gab es bereits eine GTX Titan, da war die 680 nur noch Midrange.

Wie immer, erzählst Du Quark.

Zossel
2020-10-11, 13:11:04
Da müssen sie sich im CPU-Bereich bezüglich der Videospiele mal etwas einfallen lassen.

Oder die Programmierer der Spiele sollten die Ressourcen besser nutzen.

CPU-Cores liegen brach, DX12 Multi-GPU liegt brach .......

Jupiter
2020-10-11, 13:36:17
Ein 5700X wird in MC Anwendungen etwa 3x so schnell sein wie ein 4.4 GHz 4770K. Preislage in etwa identisch. Bei höheren Preisen bist du schon 5-6x so schnell. Eine 3080 ist in etwa 7x so schnell wie ein GTX 680, bei ebenfalls stark höheren Preisen (Link1 (https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/2/#abschnitt_grafikkartenbenchmarks_in_1920__1080_und_3840__2160), Link2 (https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/4/#abschnitt_in_2560__1440_wird_der_schub_etwas_groesser))

Der Unterschied der Leistungsteigerung ist zwischen CPU und GPU also nur minim. Wieso CPUs nicht 1-zu-1 in allen Anwendungen so skalieren, liegt in der Natur des Problems. Nicht parallelisierbare Tasks wird man einfach nicht so extrem beschleunigen können, ausser man reduziert den Aufwand für den Task (z.B. Code Optimierungen, neue Algorithmen). Den Rest limitiert seit spätestens 2010 die Physik (Taktfrequenzen im GHz Bereich, Latenzen im Nanosekunden Bereich).


In Videospielen ist der Unterschied bei der Leistungsteigerung zwischen GPU und CPU groß. Selbst bei den Engines, welche bestmöglich parallelisieren.

Dazu gab es bei Grafikkarten für andere Anwendungen erhebliche Geschwindigkeitszuwächse. Hier sehe ich mehr Innovationen, während bei der CPU sich nicht so viel ändert.


Wer muss sich was einfallen lassen? Die CPU-Hersteller? Oder vielleicht doch lieber Spieleentwickler? Erstere wandert an der Grenze der physikalischen Machbarkeit. Du kannst den Takt von Halbleiter-Schaltkreisen einfach nicht weiter steigern als er jetzt ist und semantisch korrekte Abarbeitung eines Instruktionsstreams ist durch Datenabhängigkeiten zwischen den Instruktionen auch aus logischer Sicht begrenzt. Die IPC-Steigerungen im Bereich von 10% sind einfach das beste, was ein Haufen kluger Leute aus heutigen Designs noch rausholen kann. Zu fordern, die "sollen sich mal was einfallen lassen" ist so, als würde ich mich hinstellen und sagen: Mein Auto von 2000 hat nur 6 Liter Benzin verbraucht auf 100km, da verlange ich dass eins von 2020 nur 1 Liter verbraucht, wo bleibt sonst der Fortschritt? Da Benzin nur eine endliche Menge Energie enthält und der Verbrennungsvorgang eines Otto-Motors theoretische Obergrenzen für den Wirkungsgrad hat, ist ein Verbrauch von 1 Liter eben theoretisch nicht möglich.

Sicher, dass nicht mehr geht? Werden wir also nie wieder einen größeren Sprung als 10 % sehen?

Weil du keinen blassen Schimmer von Spieleprogrammierung hast. Breites Multihreading erfordert einiges an Hirnschmalz im Bereich Softwareentwicklung. Und solange du über viele Jahre noch Rücksicht auf CPUs mit wenig Threads bei einer Engine nehmen musst verschlimmert dies die ganze Situation noch zusätzlich. Stell dir vor mit den neuen Konsolen würden die Entwickler 14 Threads bei ihren Engines als Mindestvoraussetzung setzen. Du würdest kaum mehr Spiele am PC absetzen, das wäre Selbstmord. Im übrigen hängen wir immer noch an dem Gammel @DX11 am PC zu oft fest nach mittlerweile 5 Jahren!

Nvidia hat es nach 4 Jahren geschafft die Spieleleistung gerade mal um 108% zu steigern (RTX 3090 vs. GTX 1080TI) und musste dafür den Verbrauch um 42% erhöhen!
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/2/#abschnitt_benchmarks_in_3840__2160

Bei gleichen Verbrauch (Custom RTX 3070 mit leicht höherem Powerlimit) wird Nvidia die Spieleperformance nach 4 Jahren um lächerliche 50-55% steigern. Großartige Entwicklung. :ulol:

Sollen sie doch machen. Ich hätte kein Problem damit.

Das ist immerhin deutlich mehr als das, was im CPU-Bereich erreicht wurde. Dazu gibt es jetzt Raytarcing und Tensor Cores. Bei CPUs ist es mehr vom alten. Nichts revolutionäres.

Savay
2020-10-11, 13:40:11
Die Frage ist aber, ob das wirklich undenkbar ist.

Natürlich ist das Denkbar... :)

Resident Evil 2 ist so ein Beispiel...das saturiert die 3er CCX wodurch quasi alle mit 4er CCX schneller sind als der Rest der Riege, da dort offensichtlich weniger kopiert werden muss.

Allerdings haben die neuen Konsolen einen 2x4 Aufbau und darauf wird deshalb auch vermehrt optimiert werden!
Das spielt den "Salvage" Zen3 doch absolut in die Karten!

Aktuell wird halt zumeist wohl eher mit nem Quadcore+SMT als optimales Minimum gerechnet.
Dadurch kann man eher mit Abhängigkeiten zwischen max. 4-8T rechnen mit (ggf.) unterschiedlicher Last, was auch den 3er CCX CPUs bislang noch nicht wirklich viele Probleme bereitet.
Das wird sich dank der neuen Konsolen jetzt aber auch nicht allzu sehr ändern bzw. sich auf eine Art ändern, die keinen Nachteil für den CCX Aufbau nach sich zieht.

Mit nem 6er CCX ist man deshalb IMHO ne ganze Weile eher auf der sicheren Seite. :wink:
Wird sicher Grenzfälle geben wo das 8er CCX im Vorteil ist, das kann aber durchaus auch durch thermische Einflüsse wieder überkompensiert werden.
Immerhin ist damit dann die Leistungsdichte pro Die auch größer.


Wenn die Geschwindigkeit sich in Minitempo entwickelt

Mindestens eine Vervierfachung innerhalb von vlt. 3 Jahren ist für dich "Minitempo"? :freak:

Dazu gibt es jetzt Raytarcing und Tensor Cores. Bei CPUs ist es mehr vom alten. Nichts revolutionäres.

Was du an Raytracing und Tensor Cores so "revolutionär" findest sieht für mich eher aus wie der Rückfall in alte G70 Zeiten! :rolleyes:

Das Zeug liegt nämlich einfach mal komplett brach wenn es nicht genutzt wird.
Find ich jetzt nicht besonders elegant oder bemerkenswert.
Gleiches für die separaten INT Einheiten in den Shaderclustern. (die jetzt plötzlich doch wieder zusätzlich FP können, da hätte man wenn es die Fläche und Frontend hergäbe eigentlich auch gleich einfach die Zahl pro Cluster verdoppeln können.)

Brillus
2020-10-11, 13:55:49
Bei den anderen Spielen ist es in Der Regel gerade einmal maximal dreimal so schnell. Und das nach 11 Jahren. Vergleich das mal mit den Grafikkarten von vor 11 Jahren und heute. Da hat man mehr als 300 %.




Da müssen sie sich im CPU-Bereich bezüglich der Videospiele mal etwas einfallen lassen.

Ich sehe seitens der CPU-Hersteller keine Vision einer Zukunft. Kein Gefühl eines Generationssprungs für Videospiele.

Die Innovation die du suchst nennt sich Mantle ( mittlerweile gibts den Nachfolger Vulkan und das Konkurrenzprodukt Direct3D 12) und kam schon vor Jahren von AMD, das eher wenig Spielehersteller das benutzen kann AMD nicht von.

Du bellst hier den falschen Baum an die Innovationen gibt es ( zumindest von AMD) die Spieleentwickler setzten sie nur noch nicht so viel um.

Savay
2020-10-11, 14:08:21
Das rechtfertigt doch keinen neuen Codenamen (Warhol).

Ich glaube aktuell ja eher an Warhol = Zen3 Threadripper auf TRX4! :wink:

Der_Korken
2020-10-11, 14:19:09
Sicher, dass nicht mehr geht? Werden wir also nie wieder einen größeren Sprung als 10 % sehen?

Die Tatsache, dass zwei Milliardenkonzerne wie Intel und AMD nicht mehr rausholen, sind ein guter Anhaltspunkt. Die wissen natürlich selber, dass mehr Singlethread-Leistung ihre CPUs in allen Anwendungen schneller machen würde. Offensichtlich ist es aber wirtschaftlicher in die Breite (=mehr Kerne) zu gehen. Das heißt natürlich nicht, dass die Entwicklung bei der ST-Leistung eingestellt wurde. Im Gegenteil: Zen 2 und Zen 3 brachten die größten Leistungssprünge (im Vergleich zum Vorgänger) bei der IPC seit Sandy Bridge. Auch Ice Lake brachte gegenüber Skylake +18%, allerdings ist durch den kleineren Takt die ST-Leistung kaum gestiegen.

Intel und AMD finden immer noch irgendwo ein wenig Optimierungspotenzial (AMD gibt für Zen 3 an, dass die 19% eine Kombination aus Verbesserungen in 6 oder 7 Bereichen sind). Aber letztlich werden die Kerne dadurch auch immer fetter, d.h. es benötigt erheblich mehr Transitoren pro Kern. Ein 3950X hat ca. 10 Mrd. Transitoren (2xChiplet+IOD), also ca. 625 Mio. pro Kern. Da bekommt man fast einen ganzen Quadcore-Nehalem rein (i7 von 2008/2009) mit 730 Mio.

Würden Programme so gut mit Kernen skalieren, wie 3D-Rastergrafik mit mehr CUs auf der GPU, dann würden wir heute immer noch CPU-Kerne auf Pentium 4-Niveau haben, aber dafür eben ein paar hundert Stück davon. Oder umgekehrte Analogie: Stell dir vor, Spiele würden alle in 320x240 und 256 Farben berechnet und aufgrund mangelnder Parallelität könnten nicht mehr als 1024 ALUs parallel verwendet werden auf GPUs. Dann wäre die GPU-Entwicklung auch irgendwann auf Radeon HD 7800er Niveau stehen geblieben bzw. man hätte von da aus mühsam mehr Takt und IPC aus dem Design quetschen müssen, während die ganzen ALUs einer 3080 einfach verpuffen würden.

Berniyh
2020-10-11, 14:43:06
Ich glaube aktuell ja eher an Warhol = Zen3 Threadripper auf TRX4! :wink:
Threadripper sollte eigentlich Genesis Peak sein.

Ravenhearth
2020-10-11, 15:35:26
Zwei Gedanken:

1) Ein eventueller 5700X könnte mit 3,5 GHz Base/ 4,6 GHz Boost takten, das würde perfekt ins Zen 3-Schema (-100 MHz Base/ +200 MHz Boost) passen. Bei einem 5600 wären demnach 3,5 GHz Base/ 4,4 GHz Boost realistisch. Bei $379 bzw. $249 wären diese CPUs sehr attraktiv, das ist genau was dem Portfolio momentan fehlt. Vielleicht ja im Q1/gegen RKL?

2) Zen 3 ist ein ziemlich guter Zeitpunkt zum Aufrüsten: Nächstes Jahr kommt nur ein Refresh mit wahrscheinlich nur wenig Mehrleistung, und 2022 kommt AM5 mit DDR5. Aber eine neue Plattform mit neuem Speicher ist am Anfang immer sauteuer (das gleiche gilt für ADL), ein Umstieg lohnt sich also wahrscheinlich nicht. Demnach wäre es erst frühestens 2023 wieder soweit, man hätte mit Zen 3 also ein paar Jahre Ruhe.

dargo
2020-10-11, 15:54:09
Hat man mit Zen 2 auch schon. ;)

Würde ich nicht mein Brett wechseln müssen (X370) hätte ich eventuell mir auch Zen 3 geholt. Natürlich nicht weil ich es muss, einfach weil ich es kann. Aber mit Boardwechsel erscheint mir so ein Upgrade dann noch weniger reizvoll.

LasterCluster
2020-10-11, 15:54:24
Zwei Gedanken:

1) Ein eventueller 5700X könnte mit 3,5 GHz Base/ 4,6 GHz Boost takten, das würde perfekt ins Zen 3-Schema (-100 MHz Base/ +200 MHz Boost) passen. Bei einem 5600 wären demnach 3,5 GHz Base/ 4,4 GHz Boost realistisch. Bei $379 bzw. $249 wären diese CPUs sehr attraktiv, das ist genau was dem Portfolio momentan fehlt. Vielleicht ja im Q1/gegen RKL?

2) Zen 3 ist ein ziemlich guter Zeitpunkt zum Aufrüsten: Nächstes Jahr kommt nur ein Refresh mit wahrscheinlich nur wenig Mehrleistung, und 2022 kommt AM5 mit DDR5. Aber eine neue Plattform mit neuem Speicher ist am Anfang immer sauteuer (das gleiche gilt für ADL), ein Umstieg lohnt sich also wahrscheinlich nicht. Demnach wäre es erst frühestens 2023 wieder soweit, man hätte mit Zen 3 also ein paar Jahre Ruhe.
:up:

Zu 1) AMD kann sich mit den P/L-starken Modellen gemütlich Zeit lassen. Schließlich gibts ja noch Zen2 und RKL Release dauert.

horn 12
2020-10-11, 16:21:06
@Dargo

Durch den Defekt des Mainboard und der Vega VII
ist eine 5700 / 5800 Update bei mir wohl sinnvoll
aber komme ja von 2600X und ebenso muss zuerst mal BigNavi eingebaut werden.

Armaq
2020-10-11, 16:22:36
Zwei Gedanken:

1) Ein eventueller 5700X könnte mit 3,5 GHz Base/ 4,6 GHz Boost takten, das würde perfekt ins Zen 3-Schema (-100 MHz Base/ +200 MHz Boost) passen. Bei einem 5600 wären demnach 3,5 GHz Base/ 4,4 GHz Boost realistisch. Bei $379 bzw. $249 wären diese CPUs sehr attraktiv, das ist genau was dem Portfolio momentan fehlt. Vielleicht ja im Q1/gegen RKL?

2) Zen 3 ist ein ziemlich guter Zeitpunkt zum Aufrüsten: Nächstes Jahr kommt nur ein Refresh mit wahrscheinlich nur wenig Mehrleistung, und 2022 kommt AM5 mit DDR5. Aber eine neue Plattform mit neuem Speicher ist am Anfang immer sauteuer (das gleiche gilt für ADL), ein Umstieg lohnt sich also wahrscheinlich nicht. Demnach wäre es erst frühestens 2023 wieder soweit, man hätte mit Zen 3 also ein paar Jahre Ruhe.
Es fehlt gar nichts im Portfolio.

Die Zen3 Chips sind einfach dier derzeitge Krönung im Desktop. Sind sind teurer und nehmen eine sehr exklusive Stellung ein. Darunter braucht es einfach keine verkaufbaren Chips.

Der_Korken
2020-10-11, 17:00:08
2) Zen 3 ist ein ziemlich guter Zeitpunkt zum Aufrüsten: Nächstes Jahr kommt nur ein Refresh mit wahrscheinlich nur wenig Mehrleistung, und 2022 kommt AM5 mit DDR5. Aber eine neue Plattform mit neuem Speicher ist am Anfang immer sauteuer (das gleiche gilt für ADL), ein Umstieg lohnt sich also wahrscheinlich nicht. Demnach wäre es erst frühestens 2023 wieder soweit, man hätte mit Zen 3 also ein paar Jahre Ruhe.

Darauf "hoffe" ich auch. Ich hätte schon Lust zu upgraden. Wie dargo es so schön sagt: nicht weil ich muss, sondern weil ich kann. Von Zen 1 aus ist das Plus bei der ST-Performance schon sehr lecker. Board muss ich vermutlich nicht wechseln, aber ich kann (;)) und würde es wohl auch. Für den 2700X krieg ich eh nix mehr, der wandert mit dem X470 in den Zweitrechner oder in den Freundeskreis. AMD kann sich dann ruhig Zeit lassen mit Zen 4 oder Zen 3+ :D.

mboeller
2020-10-11, 17:39:17
wieso glaubt ihr, dass AMD die "kleinen" CPUs auch durch ZEN3 Chiplets abdecken wird?
Vielleicht bringen sie nur die alten ZEN2 Chiplets als "XT" Variante und verkaufen die dann als 5xxx CPU?

Bei den APUs machen sie es bei Cezanne angeblich genauso und bringen das Renoir-Update Lucienne

dargo
2020-10-11, 18:11:04
Definiere klein.

Also ich kann mir beim besten Willen nicht vorstellen, dass AMD bei Zen3 mit 299$ dauerhaft einsteigt. Das wäre ziemlich dumm, denn darunter würden dann viele zu Intel greifen. Natürlich kommt später auch was für 200+€, wenn nicht sogar 150+€.

Undertaker
2020-10-11, 18:14:41
Es fehlt gar nichts im Portfolio.

Die Zen3 Chips sind einfach dier derzeitge Krönung im Desktop. Sind sind teurer und nehmen eine sehr exklusive Stellung ein. Darunter braucht es einfach keine verkaufbaren Chips.

"Nur" ein gutes Produkt zu liefern, welches allerdings große Lücken insbesondere im beliebten Preisbereich zwischen 300-450 $/€ hinterlässt, reicht definitiv nicht zu. Gegen einen i7-10700KF für unter 350 Euro sieht das Zen 3 Portfolio zur UVP nicht sonderlich gut aus. Man könnte hier entweder Zen 2 weiterführen, oder aber man stopft diese Lücke mit einem langsameren 8-Kerner.
Imo: Erst Abverkauf von Zen 2 und dann zum Jahresanfang zusätzliche Modelle. Und ich schätze auch, dass die UVP nach einigen Wochen wie üblich im Handel stark unterboten wird. Wenn AMD weiter Marktanteile sammeln möchte, reicht es eben nicht zu ein bisschen mehr Performance für Aufpreise von 100 $/€ zu bieten (i5-10600 -> 5600X, i7-10700 -> 5800X). Das dürfte auch AMD klar sein, aber mit der Top-Down Markteinführung kann man erst einmal schön die Early Adopter melken. ;)

dildo4u
2020-10-11, 19:04:53
Der 8 Core macht schon die ganze Zeit kein Sinn Gamer Nexus hebt deswegen den 10600k als Beste Gaming CPU hervor und den 3900X als beste Workstation CPU.

https://youtu.be/_UMMPjqLe8g?t=1292

bloodflash
2020-10-11, 19:39:02
Warum sollte AMD vor Mitte/Ende März die UVP senken?
Oder vorher schon die non—X—Varianten vorstellen?

Die Konkurrenz kommt dann erst raus und kurz vorher die UVP der X—Varianten um 50,- senken und nochmals 50,- darunter die non—Xe rausbringen reicht doch.

Wenn bei TSMC sowieso nicht genug Kapazitäten für AMD da sind, passt das doch. Die Konsolen, RDNA2 und EPYC wollen ja auch bedient werden, oder die 4000er.

Evtl. auch in Jan/Feb, weil dann die Aufrüster mit 400er Chipsätzen dazukommen.

Bis dahin wird mit dem Wenigen an Käufern und Verfügbarkeit Geld verdient. Preis—/Leistung ist sowieso noch knapp vor Intel und Effizienz sowieso

Armaq
2020-10-11, 19:55:50
Man hat die Spitzenposition gerade erst verkündet. Es wäre völliger Quatsch das jetzt mit Modell-Vielfalt zu bestücken. Es gibt mit Zen3 die Leistungsspitze und genau so verhält sich AMD auch. Es macht null Sinn, jetzt viele verschieden Varianten anzubieten, auch wenn ihr euch das jetzt wünscht.

prinz_valium_2
2020-10-11, 20:00:26
Es gibt Ryzen 30000.
Sehe absolut keinen Grund für mehr in der jetzigen Situation.

Da kann man Mitte 2021 drüber nachdenken.
Dann auch mit Back to school OEM angeboten

Tobalt
2020-10-11, 20:04:09
Eben typisches Leistungsspitzenvethalten, was zB nV auch schon lange fährt:
Hohe Marge, Enthusiast first, der Rest kann sehen wo er bleibt ;-)

Jetzt beginnt eben wieder die Zeitrechnung, wo man hoffen muss, dass Intel auf die Leistungsspitze aufschließt.

mboeller
2020-10-11, 20:22:36
Definiere klein.


siehe die XT CPU. Davon gibt es auch nur 3:

https://www.anandtech.com/show/15854/amd-ryzen-3000-xt-cpus-zen-2-more-mhz

und jetzt gibt es 4 5000er, wobei der 5950 das Portfolio nach oben abrundet:

https://www.anandtech.com/show/16148/amd-ryzen-5000-and-zen-3-on-nov-5th-19-ipc-claims-best-gaming-cpu

Ansonsten ist ZEN3 jetzt analog zum ZEN2-XT-Portfolio vorgestellt worden, 5900X - 3900XT; 5800X - 3800XT; 5600X - 3600XT

Mehr wird es wahrscheinlich auf "lange" Sicht, also IMHO 1/2 Jahr nicht geben. Erst dann wird AMD auch kleinere Versionen verkaufen, bzw. Zwischenstufen.

HPVD
2020-10-11, 21:51:59
Hat schon jemand irgendwo ein konkretes Datum gesehen, wann es News zum neuen Epyc auf Basis von Zen 3 geben soll?

Ravenhearth
2020-10-12, 16:56:07
Noch ein Gedanke: Es könnte sein, dass AMD die Lücken im Zen 3-Portfolio mit APUs füllt und 5600/5700X auch deswegen nicht angekündigt wurden. Die Idee ist schon einmal aufgekommen, allerdings in Bezug auf Renoir, den es als Ryzen 4000 ja auch für Desktop (OEM) gibt, was aufgrund des großen Architektur-Unterschieds aber unwahrscheinlich war.

Nun ist Zen 3 anders als zuerst gedacht jedoch Ryzen 5000 und Cezanne könnte schon Anfang des Jahres kommen. Es ist auch davon auszugehen, dass Cezanne abermals für Desktop kommt und es einen 5700G etc gibt. Wozu dann noch ein 5700X, der nur den 5800X unattraktiv machen würde?

Der 5700G könnte dann nicht nur für OEMs kommen und Platz des 5700X einnehmen. Aufgrund des vermutlich kleineren Caches wäre anders als bei 3700X/3800X der Leistungsunterschied prägnanter, der 5800X also nicht automatisch obsolet, trotzdem sollte Cezanne dank Zen 3 ordentlich performen, d.h. besser als Matisse. Das gleiche gilt für die Sechskerner usw.

HOT
2020-10-12, 17:24:39
Die erste Welle sind halt die X-CPUs, weil die sich nicht in riesigen Massen verkaufen, aber die OEM-Nachfrage der Zen2-CPUs noch pushen. Dann wird sicherlich im Januar die 2. Welle der Neuvorstellungen mit 5600, 5700(X) und 5900 non-X erfolgen (gepaart mit einer neuen AGESA-Version und den 400er-BIOSsen), welche ja für die OEMs die interessantesten sind und im März dann Cezanne+Lucienne, welche ja auch für Desktop i.V.m. dem A520 sehr interessant für OEMs sind. Im Spätsommer werden dann noch 5100 und 5300X nachgeschoben und sicherlich van Gogh Richtung Jahresende erscheinen. Außerdem wird es noch den XT-Refresh Warhol geben für die jetzt erschienenen Varianten mit medienwirksamen 5GHz mMn.

arcanum
2020-10-12, 17:25:20
Noch ein Gedanke: Es könnte sein, dass AMD die Lücken im Zen 3-Portfolio mit APUs füllt und 5600/5700X auch deswegen nicht angekündigt wurden. Die Idee ist schon einmal aufgekommen, allerdings in Bezug auf Renoir, den es als Ryzen 4000 ja auch für Desktop (OEM) gibt, was aufgrund des großen Architektur-Unterschieds aber unwahrscheinlich war.

Nun ist Zen 3 anders als zuerst gedacht jedoch Ryzen 5000 und Cezanne könnte schon Anfang des Jahres kommen. Es ist auch davon auszugehen, dass Cezanne abermals für Desktop kommt und es einen 5700G etc gibt. Wozu dann noch ein 5700X, der nur den 5800X unattraktiv machen würde?

Der 5700G könnte dann nicht nur für OEMs kommen und Platz des 5700X einnehmen. Aufgrund des vermutlich kleineren Caches wäre anders als bei 3700X/3800X der Leistungsunterschied prägnanter, der 5800X also nicht automatisch obsolet, trotzdem sollte Cezanne dank Zen 3 ordentlich performen, d.h. besser als Matisse. Das gleiche gilt für die Sechskerner usw.

ich halte den wahrscheinlichsten grund für das ausbleiben eines 5700(x) die schlechte nomenklatur bei amd (rx 5700/xt). das höchste der gefühle zwischen 5600x und 5800x wird ein 5800 65w für 50€ weniger sein. alles andere wird über den straßenpreis reguliert sobald intel seinen nächsten zug macht.

HOT
2020-10-12, 17:31:21
Der Grund ist die zu erwartende Absatzmenge. Dass sowohl 5700 als auch 5600 (non-X) fehlen spricht exakt dafür. Man will keinesfalls in Engpässe laufen.

arcanum
2020-10-12, 17:36:20
Der Grund ist die zu erwartende Absatzmenge. Dass sowohl 5700 als auch 5600 (non-X) fehlen spricht exakt dafür. Man will keinesfalls in Engpässe laufen.

kann die argumentation mit der absatzmenge beim vorgestellten preisgefüge nicht so gut nachvollziehen. warum wird dann eine 16 core cpu so günstig 'verramscht'. zen2 wird ja auch parallel weiter verkauft und geht im vergleich zu ramsch-preisen über die theke.
ich sehe da eher eine upselling-strategie dahinter und einen halo-effekt von günstigen high-end varianten. amd hat sein portfolio klar gegliedert: zen2 als p/l träger und zen3 als enthusiasten-variante mit entsprechendem aufschlag.

HOT
2020-10-12, 17:38:57
kann die argumentation mit der absatzmenge beim vorgestellten preisgefüge nicht so gut nachvollziehen. warum wird dann eine 16 core cpu so günstig 'verramscht'. zen2 wird ja auch parallel weiter verkauft und geht im vergleich zu ramsch-preisen über die theke.
ich sehe da eher eine upselling-strategie dahinter und einen halo-effekt von günstigen high-end varianten. amd hat sein portfolio klar gegliedert: zen2 als p/l träger und zen3 als prosumer-variante mit entsprechendem aufschlag.
Na wieviele kaufen denn nen 16-Kerne im Vergleich mit einem 5600 oder 5700? Das ist ja 0 verhältnismäßig :freak:. Vergleich mal die Absatzmenge des 3950 mit der des 3600 bei MF ;). Meine Interpretation ist, dass man keine Probleme beim Yield hat (deswegen sofort auch der 16-Kerne) aber sehr wohl ein Problem mit der produzierten Menge der Dies, daher fehlen die Mainstreamprodukte, sondern hat nur einen zu teuren 6-Kerner im Angebot.

arcanum
2020-10-12, 17:40:09
Na wieviele kaufen denn nen 16-Kerne im Vergleich mit einem 5600 oder 5700? Das ist ja 0 verhältnismäßig :freak:.

würde mal behaupten jeder der so eine cpu produktiv einsetzt und braucht sowie enthusiasten. der durchschnittsspieler ist mit zen2 p/l mäßig deutlich besser bedient. ich behaupte mal, dass der 3600 innerhalb der nächsten 12 monate deutlich mehr einheiten als der 5600x absetzen wird und das obwohl die wafer ja angeblich so knapp sind.

Meine Interpretation ist, dass man keine Probleme beim Yield hat (deswegen sofort auch der 16-Kerne) aber sehr wohl ein Problem mit der produzierten Menge der Dies, daher fehlen die Mainstreamprodukte, sondern hat nur einen zu teuren 6-Kerner im Angebot.

würde nur sinn machen wenn amd zen2 auslaufen lässt was aber nicht passieren wrd.

HOT
2020-10-12, 17:43:25
würde mal behaupten jeder der so eine cpu produktiv einsetzt und braucht sowie enthusiasten. der durchschnittsspieler ist mit zen2 p/l mäßig deutlich besser bedient. ich behaupte mal, dass der 3600 innerhalb der nächsten 12 monate deutlich mehr einheiten als der 5600x absetzen wird und das obwohl die wafer ja angeblich so knapp sind.

würde nur sinn machen wenn amd zen2 auslaufen lässt was aber nicht passieren wrd.

Erst muss AMD genug Produktion von Zen2 auf Zen3 umgestellt haben, dann kann man auch die sich oft verkaufenden Produkte im Zen3-Format bringen ;). Das braucht ja alles Zeit. Zen2 wird weniger prodziert werden mit der Zeit, so wie Zen1 weniger produziert wurde im Laufe des Jahres 2018.

Zergra
2020-10-12, 18:46:02
Das Hauptproblem sind natürlich die Stückzahlen, daher ist es sinnvoll erst die teuren Produkte zu bringen, dadurch warten natürlich eine Menge auf die günstigeren Varianten.

Da will man die Probleme wie beim Zen2 Start vermeiden.

Blediator16
2020-10-12, 19:18:41
Dann kommt ein 5600 non X Anfang nächsten Jahres und das Geheule war mehr als umsonst.

Platos
2020-10-12, 20:22:39
Und du denkst, dieser wird dann 100 Dollar günstiger sein, wie der 3600 ? Also der 5600X hat ein Listenpreis von 299 Dollar und der 5600 soll dann 199 Dollar sein :rolleyes:

Thunder99
2020-10-12, 20:25:32
Fällt nur mir auf, dass alle CPUs 100Mhz weniger haben, als Basis Takt...

Blediator16
2020-10-12, 20:25:36
Und du denkst, dieser wird dann 100 Dollar günstiger sein, wie der 3600 ? Also der 5600X hat ein Listenpreis von 299 Dollar und der 5600 soll dann 199 Dollar sein :rolleyes:

Dann sind es eben bei Release 230$. Wenn man die Peanuts nicht übrig hat, muss man zum Billigheimer Intel wechseln.

Unicous
2020-10-12, 20:28:13
Hier gibts einen random rumor, dass der 5600 für 220 Dollar? starten soll.

Recently, this article was posted, but I couldn't find the post's source.
��
My search ability is still low...

> From foreign source

1) R5 5600 will release early 2021, price $220

2) R5 5600X is similar or better than i7 10700 (1T, nT, Gaming)
https://pbs.twimg.com/media/EkGEBTWVgAEbx2f.jpg
https://twitter.com/harukaze5719/status/1315477822220062720

Schwierig so etwas einzuordnen. Von Zen 3 wusste man bis zuletzt sehr wenig, auch wenn ein Großteil der spärlichen Gerüchte sich als wahr herausgestellt haben. Zum Preis wusste man bis zum Ende nichts. Daher ist es fraglich ob das nur Träumerei ist, oder ein echter Leak.

Platos
2020-10-12, 20:39:14
Und was kommt zwischen 220 und 300 Dollar? Das bleibt einfach so frei?

Linmoum
2020-10-12, 20:45:57
Muss man denn alle $40 irgendein Produkt reinquetschen?

Blediator16
2020-10-12, 20:45:58
Was gab es denn da vorher?

Platos
2020-10-12, 20:46:46
Es ist schon sehr unwahrscheinlich, dass da etwas für 220 Kommt. 80 Dollar für ein bisschen mehr Takt?

Was gab es denn da vorher?

Vorher war der Abstand 50 Dollar und nicht 80 Dollar

Nightspider
2020-10-12, 20:48:28
Vielleicht wird der Abstand zwischen 5600 und 5600X dieses mal größer.

Oder Cezanne füllt die Plätze dazwischen.

Aber 220 ist doch unter dem Einführungspreis vom 3600 oder? Das ist zu günstig imo.

Complicated
2020-10-12, 20:52:24
Solange Ryzen 3000 in den Regalen steht muss man sich um Preislücken keine Sorgen machen. Daher ist Zeit genug zu sehen wie die Serie mit den Preisen angenommen wird. Intel hat da derzeit Zugzwang und AMD wird sich anschauen wo sie den besten Druck im Markt machen können.

Nightspider
2020-10-12, 21:01:00
Wenn Zen 3 nicht größer ist als Zen 2 macht es allerdings auch keinen Sinn Zen 2 noch lange zu produzieren.

dildo4u
2020-10-12, 21:06:45
Der Zen 2 Refrech läuft auf mehr Boards als Zen3 und wurde gerade erst eingeführt, die werden locker bis Ende 21 produziert.
Mindfactory hat jetzt noch 2018 Modelle auf Lager.

Complicated
2020-10-12, 21:10:40
Du machst den Transit gesteuert in der Nachfrage. AMD ist derzeit in der Position das ganze nach Bedarf zu verlagern, wie die Bestellungen rein kommen. Jetzt werden die Preispunkte abgecheckt und darauf gewartet wie die Konkurrenz reagiert und die OEMs Umsätze machen wollen. Ryzen 3000 in günstigen Systemen und dazu Highend mit Ryzen 5000. Hier kann man aktuell beide Marktsegmente mit dem bedienen was die Käuferschaft auch haben will. Wer Budget sucht, der erwartet keine neueste Generation und umgekehrt.

Es wird auch noch einige geben, die Ihre AM4 X570/B550-Platform von 6 auf 8/16 Kerne Upgraden werden wollen bevor Sie zu AM5 und DDR5 wechseln.

Nightspider
2020-10-12, 21:11:16
Zen 1 und Zen 1+ kommen allerding von GloFo und werden günstig produziert.

Die 7nm Kapazitäten für Zen2 anstatt Zen3 zu verschwenden macht imho einfach keinen Sinn.

Platos
2020-10-12, 21:37:29
Sehe ich auch so. Die Produktion (nicht Verkauf) wird sicherlich schon eingestellt bald (oder ist schon längst).

Und der 3600 war 199$ Listenpreis und der 3600x 249 Dollar. Euro weiss ich nicht und Zwecks schlechten/guten Kursen, sollte man auch immer Dollarpreise als Vergleich nehmen.

Aber bis die Zen3 Modelle ohne "X" kommen, kann man durchaus noch Zen 2 auslaufen lassen. Ich denke, die günstigeren Modelle kommen sicher spätestens mit Rocket Lake.

Thunder99
2020-10-12, 21:54:32
...

Es wird auch noch einige geben, die Ihre AM4 X570/B550-Platform von 6 auf 8/16 Kerne Upgraden werden wollen bevor Sie zu AM5 und DDR5 wechseln.
Bin da so einer :redface:
Sind einfach zu interessant mit Potential

Unicous
2020-10-13, 01:30:44
Patrick Schur (hatte schon ein paar kleinere Leaks bezüglich AMD)

behauptet Folgendes:

Van Gogh | FF3 is a BGA-1385 package
Die Size: 12,19 mm × 13,34 mm ≈ 162,61 mm²
https://twitter.com/patrickschur_/status/1315788414877347850

Gipsel
2020-10-13, 03:49:22
Fällt nur mir auf, dass alle CPUs 100Mhz weniger haben, als Basis Takt...Nein. Das war aber auch schon vor der Vorstellung anhand der geleakten Leistungsangaben für Epyc klar, daß in TDP-limitierten Szenarien die Leistungssteigerung etwas geringer ausfällt als singlethread oder wenige Threads. Das geht nur bei geringerem Basistakt für Volllast.

Armaq
2020-10-13, 08:53:38
AMD hat doch gesagt, dass Ryzen 3 erstmal weiterläuft. Sie haben sich die Leistungskrone gesichert und haben die populären Modelle bestückt. Wieso sollte man jetzt zwanghaft das Portfolio aufblähen? Das Naming deutet doch auch an, wo man alles einordnet.

HOT
2020-10-13, 09:11:24
Patrick Schur (hatte schon ein paar kleinere Leaks bezüglich AMD)

behauptet Folgendes:


https://twitter.com/patrickschur_/status/1315788414877347850
Dann gibts ein Zen2-CCX mit fetter Grafik offenbar. Hab ich mir schon gedacht sowas.

LasterCluster
2020-10-13, 10:04:31
Das ist sogar leicht größer als Renoir. Sind 8 Navi RDNA2 CUs soviel größer als 8 Vega CUs?

basix
2020-10-13, 10:40:35
Das ist sogar leicht größer als Renoir. Sind 8 Navi RDNA2 CUs soviel größer als 8 Vega CUs?

GCN -> Vega = 1.40x Transistoren (Fiji vs. V10)
GCN -> RDNA2 = 1.62x Transistoren (PS4 vs. PS5, nur CUs!)
Vega -> RDNA1 = 1.32x Transistoren (V10 vs. N10)
Vega -> RDNA2 = 1.20-1.25x Transistoren (V10 vs. XBSX)

Ist natürlich unscharf, da auf den ~ganzen Chip gerechnet sowie unterschiedliche Herstellungsprozesse von 28nm bis 7nm. Bei der XBSX habe ich den CPU Cluster weggerechnet. Die PS4 zu PS5 Zahl stimmt aber zu 100%, die stammt direkt von Mark Cerny.

davidzo
2020-10-13, 12:41:44
Sind die 8 CUs denn fix? Es könnten ja auch mehr sein.

Bisher sind wir davon ausgegangen dass mehr als 8CUs mangels Seicherbandbreite nicht vernünftig skalieren. Wenn jetzt aber Navi2x das Bandbreitenproblem auf unkonventionelle Art und Weise löst, dann wären durchaus 12 oder 16 CUs denkbar. Das wäre dann schon eine richtig fette Grafik für Ultrabooks die es locker mit einer mx450 wenn nicht sogar 1650 aufnehmen kann.


19x19mm ist jedenfalls ein ultrakkompaktes package, 0.5mm pitch, da sist schon relativ highend. intel hatte bei den tablet atomen sogar 0.4mm(FCBGA1380), das ging aber kostentechnisch nach hinten los und in billigtablets landeten eher die mit dem großen package.

mboeller
2020-10-13, 12:46:59
Das ist sogar leicht größer als Renoir. Sind 8 Navi RDNA2 CUs soviel größer als 8 Vega CUs?

eigentlich nicht.

Renoir (aus dem Gedächtnis): 3mm² pro CU
XBsX: 2mm² pro CU

patrickschur
2020-10-13, 12:49:32
19x19mm ist jedenfalls ein ultrakkompaktes package, 0.5mm pitch...

Ich weiß nicht wie du auf 0,5 mm kommst... der Pitch beträgt 0,4 mm. ;)

basix
2020-10-13, 13:46:54
eigentlich nicht.

Renoir (aus dem Gedächtnis): 3mm² pro CU
XBsX: 2mm² pro CU

Ich komme bei Renoir auf 1.7mm2 pro CU ;) Du meinst wahrscheinlich die gesamte GPU inkl. Frontend usw., die ist in etwa 27mm2 gross.

Bei RDNA2 sind die CUs nicht viel grösser (2.05mm2 wurde mal "gemessen", also etwa +20%). Aber das rundherum ist bei Navi deutlich grösser. 8CU + Frontend wären in etwa 45-50mm2 und somit fast doppelt so gross wie Vega8 auf Renoir. Die 162mm2 würden sehr gut mit einer 8CU RDNA2 Lösung und 4C, also nur 1x CCX, zusammenpassen ;)

TurricanM3
2020-10-13, 14:48:43
Das ROG Crosshair VIII Dark Hero hat Daisy Chain oder? Irgendwie finde ich da nichts. Wie war das bei den anderen Boards? Hab mich da noch 0 mit befasst.

Ex3cut3r
2020-10-13, 14:53:10
Jap. Schau mal hier:

https://docs.google.com/spreadsheets/d/1wmsTYK9Z3-jUX5LGRoFnsZYZiW1pfiDZnKCjaXyzd1o/htmlview?usp=sharing#

Wenn du Max Memory OC machen willst. Empfehle ich dir aber, das neue MSI Unify X. Das hat nur 2 DIMM Plätze. ;)

https://www.computerbase.de/2020-10/msi-meg-b550-unify-x-ddr4-5800-amd-ryzen-5000/

Und. Wenn der IF wieder sein Limit bei 1900mhz hat. Dann ist 3800mhz CL14 mit 1900mhz IF. Sowieso nur das höchste der Gefühle. Weil alles über 1,9 ghz auf 2:1 Teiler schaltet, und du bist langsamer als im 1:1:1 Modus. Sieht dann so aus.

https://abload.de/thumb/unbenannt20kce.png (https://abload.de/image.php?img=unbenannt20kce.png)
tREFI kann man bei AMD im Bios nicht ändern. :(

Vorsicht. Beim B550. Wenn du 2 PCIe 4.0 NVMEs verbauen willst. Fällt der raus, weil B550 nur eine voll anbinden kann. In dem Fall zu X570 greifen.

robbitop
2020-10-13, 14:54:59
Wenn jetzt aber Navi2x das Bandbreitenproblem auf unkonventionelle Art und Weise löst, dann wären durchaus 12 oder 16 CUs denkbar.

Die Bandbreite der SoCs für XSX und PS5 in Relation zu ihrer Rohleistung gibt keinen Hinweis darauf, dass RDNA2 per inhärenten Eigenheit die Bandbreite deutlich entlasten kann. Wenn die Daten zu Navi 21 stimmen (80 CUs, 256bit GDDR6) bedeutet das lediglich, dass genau diese GPUs das jedoch können. Daraus zieht sich der Schluss, dass N21 (und potenziell 22) in einer wesentlichen Eigenschaft von den Konsolen SoCs abweichen. Obwohl beides RDNA2 ist. Das wäre nur logisch, wenn diese Eigenschaft erhöhte Kosten z.B. durch erhöhte Kerngröße oder erschwerte Verfügbarkeit (durch Waferkapazitätrestriktion hätte).

Der Schluss, dass ein zusätzlicher - jedoch optionaler - Cache dafür Sorge trägt (wie auch immer dieser funktioniert) liegt nicht zu fern.
Allerdings unterliegen APUs ähnlichen Restriktionen wie Konsolen SoCs. Entsprechend würde ich darauf tippen, dass diese Eigenschaft (bspw der extra Cache) hier nicht in der Form enthalten sein kann.

TurricanM3
2020-10-13, 15:09:14
Ok thx. Ich hab schon Jahre nur noch zwei NVME, sonst nichts angeschlossen. Ich will nur Asus. :smile: Bez. der Teiler hab ich noch gar keinen Plan. Müsst ich mich einlesen. Für mich stellt sich da aber dann die Frage, wozu DDR4-5800 Spezifizierung, wenn das eh langsamer ist? Nur Marketing?

Ex3cut3r
2020-10-13, 15:18:52
Ok thx. Ich hab schon Jahre nur noch zwei NVME, sonst nichts angeschlossen. Ich will nur Asus. :smile: Bez. der Teiler hab ich noch gar keinen Plan. Müsst ich mich einlesen. Für mich stellt sich da aber dann die Frage, wozu DDR4-5800 Spezifizierung, wenn das eh langsamer ist? Nur Marketing?

Man weiß ja noch nicht, wie Zen 3 beim RAM OC sein wird. Der IO ist der gleiche wie schon bei Zen 2, deswegen kann man wohl davon ausgehen, dass der IF ähnlich sein Limit haben wird, wie Zen 2. :redface:

Aber, ja ist Marketing, man kann es machen, ist aber langsamer. ;)

Auch heute schon bei Zen 2, könnte ich DDR4 4200mhz CL16 Ocen, bringt aber nix, wenn der IF bei 1900hmz stehen bleibt und nicht auf 2100mhz steht. ^^

Eine PCIE 4.0 NVME + Eine PCIe 3.0 NVME geht aber auf dem B550. Nur bei zwei Gen 4 NVMEs drosselt er die eine auf Gen 3 Speed.
Wieso eigentlich immer Asus? ^^

dargo
2020-10-13, 15:19:56
Und. Wenn der IF wieder sein Limit bei 1900mhz hat. Dann ist 3800mhz CL14 mit 1900mhz IF. Sowieso nur das höchste der Gefühle. Weil alles über 1,9 ghz auf 2:1 Teiler schaltet, und du bist langsamer als im 1:1:1 Modus.
Ähm... moment mal. Sollte Zen3 nicht neue Teiler bekommen?

Ex3cut3r
2020-10-13, 15:24:57
Ähm... moment mal. Sollte Zen3 nicht neue Teiler bekommen?

Weiß ich nicht. :biggrin: Sollte er? Und wenn ja was bringt er? :confused:

HOT
2020-10-13, 15:25:07
Ähm... moment mal. Sollte Zen3 nicht neue Teiler bekommen?
Wohl nicht, wenn das IOD weiterverwendet wird.

dargo
2020-10-13, 15:29:49
Da würde ich erste Userberichte mit entsprechenden Biosen abwarten. Irgendwo war die Rede von zusätzlichen Dividern, fragt mich aber nicht wo. :freak:

r3ptil3
2020-10-13, 15:50:32
Jap. Schau mal hier:

https://docs.google.com/spreadsheets/d/1wmsTYK9Z3-jUX5LGRoFnsZYZiW1pfiDZnKCjaXyzd1o/htmlview?usp=sharing#

Wenn du Max Memory OC machen willst. Empfehle ich dir aber, das neue MSI Unify X. Das hat nur 2 DIMM Plätze. ;)

https://www.computerbase.de/2020-10/msi-meg-b550-unify-x-ddr4-5800-amd-ryzen-5000/

Und. Wenn der IF wieder sein Limit bei 1900mhz hat. Dann ist 3800mhz CL14 mit 1900mhz IF. Sowieso nur das höchste der Gefühle. Weil alles über 1,9 ghz auf 2:1 Teiler schaltet, und du bist langsamer als im 1:1:1 Modus. Sieht dann so aus.

https://abload.de/thumb/unbenannt20kce.png (https://abload.de/image.php?img=unbenannt20kce.png)
tREFI kann man bei AMD im Bios nicht ändern. :(

Vorsicht. Beim B550. Wenn du 2 PCIe 4.0 NVMEs verbauen willst. Fällt der raus, weil B550 nur eine voll anbinden kann. In dem Fall zu X570 greifen.

Inwiefern kann man denn ein noch gar nicht verfügbares Mainboard für RAM-OC empfehlen?

Das Unify-X hat zwar sehr interessante Specs, aber noch niemand hat doch darauf RAM-OC wirklich getestet. Und damit meine ich nicht einfach den Takt hochzudrehen, sondern wie das Gesamtpaket aussieht (Timings, Spannung, Takt).

HOT
2020-10-13, 15:53:09
Weil 2 RAM Ports immer besser sind als 4 bei RAM-OC. Von daher werden von Extrem-Übertaktern sogar ultra-billig-Bretter beachtet, die nur 2 DIMM-Sockel haben.

Ex3cut3r
2020-10-13, 15:53:46
Inwiefern kann man denn ein noch gar nicht verfügbares Mainboard für RAM-OC empfehlen?

Das Unify-X hat zwar sehr interessante Specs, aber noch niemand hat doch darauf RAM-OC wirklich getestet. Und damit meine ich nicht einfach den Takt hochzudrehen, sondern wie das Gesamtpaket aussieht (Timings, Spannung, Takt).

Da das Board extra nur zwei Dimm Plätze hat, und damit die Signal Bahnen besser als bei 4 Slots sind. Kann man davon ausgehen, das RAM OC auf dem Board sehr gut sein wird. Ist ja nicht, dass erste Board was diesen "Trick" anwendet. Das ROG MAXIMUS XI GENE Z390 ging auch gewaltig höher als andere Boards, da er ebend nur 2 Slots hat.

EDIT: Zu spät. ^^

Ravenhearth
2020-10-13, 16:04:20
keine BIOS Updates von Asus für X470 etc.? https://www.reddit.com/r/Amd/comments/ja23gg/asus_wont_provide_bios_update_for_x470_board_to/

Gipsel
2020-10-13, 16:14:36
Ähm... moment mal. Sollte Zen3 nicht neue Teiler bekommen?War das nicht Renoir, mit dem mehr geht?

dargo
2020-10-13, 16:16:03
War das nicht Renoir, mit dem mehr geht?
Das war ein anderes Thema, dort ging es um höhere Frequenzen bei 1:1.

Armaq
2020-10-13, 16:39:53
Also Papermaster sprach von kleinsten Änderungen, nicht von keinen Änderungen?! Wäre ja auch komisch, wenn man gar nichts ändern muss, der Chip ist schon arg anders. Außerdem konnte man durch das R&D in jedem Fall nochmal schauen, was mit wenig Aufwand geht. Zusätzlich ist es unklar, ob der dickere L3 nicht auch etwas Druck aus der RAM-Optimierung nimmt.

HOT
2020-10-13, 17:58:31
keine BIOS Updates von Asus für X470 etc.? https://www.reddit.com/r/Amd/comments/ja23gg/asus_wont_provide_bios_update_for_x470_board_to/
stimmt nicht
https://www.computerbase.de/2020-10/asus-ryzen-5000-kein-zen-3-support-x470-b450/

Zossel
2020-10-13, 18:14:03
Vorsicht. Beim B550. Wenn du 2 PCIe 4.0 NVMEs verbauen willst. Fällt der raus, weil B550 nur eine voll anbinden kann. In dem Fall zu X570 greifen.

Das ist auch eine Option: https://geizhals.de/?cat=hdadko&sort=p&xf=11184_M.2+PCIe%7E11189_PCONE

DavChrFen
2020-10-13, 18:15:52
Man muß sich nur an den bestehenden IF vom IO-Chiplet halten. Ich glaube nicht, dass am IO-Chiplet irgendwas geändert wurde, noch nicht mal ein Metal-Respin oder wie das heißt.

Naitsabes
2020-10-13, 19:31:51
Firmware wurde bestimmt geändert. Aber ich glaube auch nicht, dass es an der Hardware Veränderungen gibt. Warum auch?
Vielleicht erprobt man die ersten Änderungen bei der nächsten monolithischen APU und entwickelt daraus den nächsten IO-Die für den nächsten Sockel.

Unicous
2020-10-13, 21:48:37
Sind die 8 CUs denn fix? Es könnten ja auch mehr sein.

Bisher sind wir davon ausgegangen dass mehr als 8CUs mangels Seicherbandbreite nicht vernünftig skalieren. Wenn jetzt aber Navi2x das Bandbreitenproblem auf unkonventionelle Art und Weise löst, dann wären durchaus 12 oder 16 CUs denkbar. Das wäre dann schon eine richtig fette Grafik für Ultrabooks die es locker mit einer mx450 wenn nicht sogar 1650 aufnehmen kann.


19x19mm ist jedenfalls ein ultrakkompaktes package, 0.5mm pitch, da sist schon relativ highend. intel hatte bei den tablet atomen sogar 0.4mm(FCBGA1380), das ging aber kostentechnisch nach hinten los und in billigtablets landeten eher die mit dem großen package.

Die 8 CUs basieren afaik auf den MacOS Firmware-Einträgen. Davor hatte Komachi auf Twitter spekuliert, dass es entweder 8 oder 16 sind.

Da Rembrandt spekulativ mit 12 CUs bedacht wird, sehe ich nicht, dass dieser Chip 12 bzw. 16 CUs bekommt.


Dann gibts ein Zen2-CCX mit fetter Grafik offenbar. Hab ich mir schon gedacht sowas.

Oder ein Zen 2 CCX x2 mit 8 CUs und etwas abgespecktem I/O . Der größere Chip lässt das meiner Meinung auch zu. ;)

Navi 14 mit seinen 22 CUs ist übrigens 158mm² groß. Milchmädchenmäßig würde man mit 16 CUs bei ca. 115 mm² landen. Ein Zen 2 CCX (mit 16MB L3) ist laut Anandtech/AMD (https://www.anandtech.com/show/14525/amd-zen-2-microarchitecture-analysis-ryzen-3000-and-epyc-rome/5) ca. 31mm² groß, zieht man die Hälfte vom L3 ab landet man sagen wir bei 20mm². Bleiben also noch etwas mehr als 20mm² für I/O. Finde ich persönlich ja etwas wenig.:wink:


@patrickschur

Herzlich willkommen. Vielleicht hast du ja noch ein paar insights die du mit uns teilen kannst.:smile:

edit:

:wink:

Rembrandt | FP7 is a BGA-1140 package
Die Size: 12,82 mm × 16,25 mm ≈ 208,33 mm²
Package: 25 mm × 35 mm
https://twitter.com/patrickschur_/status/1316059243829657600

Gipsel
2020-10-14, 07:31:05
Navi 14 mit seinen 22 CUs ist übrigens 158mm² groß. Milchmädchenmäßig würde man mit 16 CUs bei ca. 115 mm² landen.Navi14 hat 24 CUs in Hardware. Und man spart nur 43mm², wenn man mehr als nur 8 CUs streicht. So groß ist eine CU nicht.
Ein Zen 2 CCX (mit 16MB L3) ist laut Anandtech/AMD (https://www.anandtech.com/show/14525/amd-zen-2-microarchitecture-analysis-ryzen-3000-and-epyc-rome/5) ca. 31mm² groß, zieht man die Hälfte vom L3 ab landet man sagen wir bei 20mm².Hier das Ähnliche. 1MB L3 ist maximal 1mm² und ein CCX komplett ohne L3 mißt mehr als nur 9mm² (Du ziehst 11mm² pro 8MB ab) ;). Ein CCX mit 8MB L3 würde ich eher auf ~24mm² schätzen.

basix
2020-10-14, 09:39:27
Navi14 hat 24 CUs in Hardware. Und man spart nur 43mm², wenn man mehr als nur 8 CUs streicht. So groß ist eine CU nicht.

Wie gesagt, 2 CUs sind bei RDNA2 etwa 4.1mm2. Das ist in etwa 10% grösser wie ein Zen 2 Core bis und mit L2$. Gross ist es nicht. Aber das drumherum ist bei Navi viel grösser. Eine 8 CU GPU wäre ~50mm2 gross. Eine 12 CU GPU wäre ~60mm2 gross. Der relative Unterschied wäre in der Tat sehr gering, die absolute Grösse ist gegenüber Renoir aber +/- verdoppelt (bei aber vermutlich auch verdoppelter Performance).

Ravenhearth
2020-10-14, 14:29:48
Rembrandt | FP7 is a BGA-1140 package
Die Size: 12,82 mm × 16,25 mm ≈ 208,33 mm²
Package: 25 mm × 35 mm
Rembrandt kommt vmtl. 2022 und es sickert jetzt schon die Die Size durch? Wobei das zu 8x Zen 3 und 12 RDNA2 CUs schon passen könnte.

HOT
2020-10-14, 14:33:06
Denke auch. Werden beide Dies 8-12 RDNA2-CUs haben und van Gogh eben 1 Zen2 CCX und Rembrandt ein Zen3 CCX. 2 Zen2 CCX ergibt einfach keinen Sinn, wenn Cezanne schon Zen3 ist. Es ergibt aber sehr wohl Sinn, wenn man eine APU mit nur 4 Kernen anbieten möchte.

patrickschur
2020-10-14, 18:43:50
@Unicous Was für Insights hast du dir da vorgestellt? :D

MR2
2020-10-14, 18:50:59
Wann kommt der 5700X zB 😁

patrickschur
2020-10-14, 19:01:37
Von einem AMD Ryzen 7 5700X weiß ich noch nichts. Sollte ich etwas zuhören bekommen, lasse ich es euch wissen.

Unicous
2020-10-14, 19:09:20
*husthust*

Naja, z.B. die Anzahl an CCX und CUs.:biggrin:

I/O ist natürlich auch interessant. Ich könnte mir vorstellen, dass bei PCIe deutlich eingespart wird. Von 24 auf 16 oder gar 12 runter könnte ich mir vorstellen.

patrickschur
2020-10-14, 22:52:25
Die Anzahl der CUs kenne ich noch nicht und zum Thema I/O habe ich mich bereits auf Twitter dazu geäußert.

https://twitter.com/patrickschur_/status/1308484619097042945
Update: Rembrandt with DDR5-5200 support, 20x PCIe 4.0 lanes and two USB4 (40 Gbps) ports.

Unicous
2020-10-14, 22:59:35
Ich meinte Van Gogh, :wink: das ist zwar hier etwas OT, wenn man es genau nimmt, aber zählt ja in gewisser Hinsicht zur nächsten Generation, auch wenn es Zen 2 ist.

Berniyh
2020-10-14, 23:21:00
Ich meinte Van Gogh, :wink: das ist zwar hier etwas OT, wenn man es genau nimmt, aber zählt ja in gewisser Hinsicht zur nächsten Generation, auch wenn es Zen 2 ist.
Wir wissen doch schon, dass van Gogh 8 CU (1x1x8) hat und Rembrandt 12 (1x2x6)?

Unicous
2020-10-14, 23:37:05
Wissen wir das? Ich meine ich gehe davon schon die längere Zeit aus, aber hier wird immer noch über 16 bzw. auch 12 CUs spekuliert.

Wenn es 8 CUs sind, warum ist dann der Die so riesig, wenn es gleichzeitig nur ein CCX ist?:confused:

Meine Milchmädchenrechnung hatte ein paar Fehlleistungen wie von Gipsel benannt, aber der Kern meiner Bahauptung ist ja dennoch, dass es zu klein für mehr als 8 CUs ist, aber zu groß für nur 1 CCX.
Man möge mich eines besseren beleheren, aber die Die Size, sollte sie denn stimmen, gibt imo einige Rätsel auf. :uponder:

Berniyh
2020-10-14, 23:41:00
Wissen wir das? Ich meine ich gehe davon schon die längere Zeit aus, aber hier wird immer noch über 16 bzw. auch 12 CUs spekuliert.
Ich weiß nicht, wie oft ich den Link hier jetzt schon gepostet hab. :P
https://www.reddit.com/r/Amd/comments/j06xcd/number_of_cus_of_navi_23_navi_31_van_gogh_cezanne/?utm_source=share&utm_medium=web2x&context=3
Wenn es 8 CUs sind, warum ist dann der Die so riesig, wenn es gleichzeitig nur ein CCX ist?:confused:
Tja, das kann ich dir wirklich nicht sagen. Evtl. wesentlich mal L3 an Bord als Renoir?
Oder halt auch irgendwelche Cache Tricks wie möglicherweise bei Navi 2x?

basix
2020-10-15, 00:03:24
Wenn es 8 CUs sind, warum ist dann der Die so riesig, wenn es gleichzeitig nur ein CCX ist?:confused:

So, das 3. und letzte Mal:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12459188#post12459188
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12460006#post12460006

RDNA benötigt deutlich mehr Platz für Frontend usw.

Wenn man sich die vorhandenen Informationen zusammensucht (Die Sizes, Flächenangaben von RDNA1/2, CCX Fläche) ergeben 160mm2 bei 4C CCX und 8CU recht viel Sinn. Ebenso 200mm2 bei Rembrandt für 8C und 12-16CUs oder so.
Die 162mm2 würden sehr gut mit einer 8CU RDNA2 Lösung und 4C, also nur 1x CCX, zusammenpassen

Nightspider
2020-10-15, 00:37:04
Müsste RDNA2 nicht deutlich weniger an der Bandbreite hängen bei Van Gogh und gleichzeitig mehr Bandbreite zur Verfügung haben mit LPDDR5?

LPDDR5 alleine bringt doch glaube schon um die 40% mehr Bandbreite, da hätte man doch locker 50% mehr CUs draufpacken können als bei Renoir oder?

Intel hat ja jetzt auch einen großen Sprung gemacht mit Tigerlake.

Unicous
2020-10-15, 00:41:34
@basix

Rechne es mir doch vor, anstatt einfach etwas zu behaupten. (Und zudem wäre es nett wenn du Quellen zu den Angaben/Behauptungen wie 2 CUs sind 4,1mm² groß angeben würdest)

Der XSeriesS Chip soll zwischen 190-200mm² groß sein (ich glaube die 197,05mm² sind nicht offiziell kann mich aber auch täuschen). Es passen 2 CCX und 20 CUs (edit: vergessen, das es unter Umständen 22 oder 24 CUs sein könnten), ein 128-Bit PHY und vermutlich wie bei XSX mind. 8 PCIe 4 Lanes drauf (weiß jetzt gerade nicht ob die SSDs extra angeschlossen werden, könnten dementsprechend sogar 12 Lanes sein).

Im Gegenzug ist Navi 14 mit 24 CUs 158mm² groß.


Wie viele PCIe Lanes hat Van Gogh, wie viel geht für Uncore und I/O drauf. Wie viel für die/das CCX wie viel für die CUs, wie viel für die PHYs etc..

Das ist alles bislang wenig konkret auch wenn du anscheinend der Meinung bist, aus der Größe der CUs allein kann man ableiten wie groß der Die am Ende sein muss.

patrickschur
2020-10-15, 00:46:05
Sag das doch gleich, dass du Van Gogh meinst. Ich hatte eigentlich vor auf Twitter darüber zu schreiben. Daher musst du dich noch etwas gedulden.

Zu der Anzahl der CUs kann ich aber noch nichts sagen, dafür aber zur Anzahl der Kerne. Zum Thema I/O habe ich auch etwas und Computer Vision darf natürlich auch nicht zu kurz kommen. :)

Unicous
2020-10-15, 00:56:27
Klingt spannend. (Da ich mich im Post auf Van Gogh bezog, war ich der Annahme das war eindeutig. Ich schätze mein edit hat zur Verwirrung beigetragen.;))

Complicated
2020-10-15, 01:29:57
@patrickschur
Hast du schon eine Vorstellung davon was das "Computer Vision" CVML genau sein soll?

basix
2020-10-15, 08:14:42
@basix

Rechne es mir doch vor, anstatt einfach etwas zu behaupten. (Und zudem wäre es nett wenn du Quellen zu den Angaben/Behauptungen wie 2 CUs sind 4,1mm² groß angeben würdest)

Etwas wenig eigene Denkleistung darf man doch verlangen ;)

Und "etwas wenig" meine ich hier wortwörtlich: 156mm2 (Renoir) - 20mm2 (4C CCX mit 4MB L3) + 20mm2 (grössere Navi GPU). Sehr einfache Rechnung ;) Den Wert für die GPU findest du in meinen Postings, den Rest im Internet.

Es geht vor allem darum, dass 4C deutlich wahrscheinlicher sind als 8C. 20mm2 sind hier zu viel, als dass sie inkl. Navi auf den Chip passen (ausser AMD erhöht die Transistor Density). Bei den CUs könnten es 8-12 sein.

Deinen Top Down Approach ausgehend von der Xbox Series S finde ich ebenfalls OK. 197mm2 - 20mm2 (4C CCX) - 24.6mm2 (12 CUs) = 153mm2. Bei Renoir ist alles ausserhalb der CPU+GPU in etwa 90mm2 gross (156-40-27). Bei der Series S in etwa 90mm2 --> 360(xbsx)-170(gpu)-40(cpu)-60(192b SI). 128b GDDR6 PHYs sind aber deutlich grösser als Dual Channel DDR4 PHYs, in etwa doppelt so gross. Schlussendlich nimmt sich das alles nicht viel wenn manes mit einander verwurstet. 12 CUs könnten Platz haben, 8C eher nicht.

Nightspider
2020-10-15, 08:19:17
Wann genau die Redaktionen mit Samples beliefert werden und die Tests erscheinen weiß aber auch noch keiner oder?

HOT
2020-10-15, 08:42:24
Um das Ganze mal zu kondensieren:

Cezanne:
1 Zen3 CCX, PCIe3 (20+4), USB3.2gen2, 8CUs Vega, (LP)DDR4, N7e

van Gogh:
1 Zen2 CCX, PCIe3 (20+4), USB3.2gen2, 8CUs RDNA2, LPDDR4/5, N7e

Rembrandt
1 Zen3 CCX, PCIe4 (20+4), USB4, 12 CUs RDNA2, (LP)DDR5, N6x

(Dragon Crest Schätzung
1 Zen2 CCX, PCIe4 (20+4), USB4, 8 CUs RDNA2, LPDDR5, N6x)

Warhol = Vermeer

(Raphael:
1 oder 2 Zen4 CCX/Ds, PCIe4 (32(20+4)), USB4, RDNA3, DDR5, N5x + 12LP+)

Nightspider
2020-10-15, 08:52:19
Macht eigentlich Sinn.

Van Gogh wird ein potenter Allrounder und wer die maximale Leistung will
nimmt Cezanne mit Zen 3 und einer dedizierten RDNA2 GPU.

Und wer nur CPU Leistung braucht nimmt auch Cezanne.

Berniyh
2020-10-15, 08:55:52
Macht eigentlich Sinn.

Van Gogh wird ein potenter Allrounder und wer die maximale Leistung will
nimmt Cezanne mit Zen 3 und einer dedizierten RDNA2 GPU.

Und wer nur CPU Leistung braucht nimmt auch Cezanne.
Van Gogh wird aber wohl nicht für AM4/AM5 kommen und Cezanne hat eine Vega GPU. ;)

Nightspider
2020-10-15, 09:02:25
War jetzt nur bezogen auf Laptops.

Deswegen schrieb ich ja: Cezanne mit dedizierter RDNA2 GPU, wenn man beides mit viel Leistung benötigt.

Niemand will mehr mit Vega zocken.

HOT
2020-10-15, 09:11:23
van Gogh ist ausschließlich mit LPDDRx eingetragen in der Roadmap und nur für mobil-BGA, um das klar zu stellen, es gibt keinen van Gogh für Desktop und keinen van Gogh mit normalem DDR-Speicher.

Nightspider
2020-10-15, 09:14:09
Van Gogh würde im Desktop auch nicht viel Sinn machen.

Linmoum
2020-10-15, 09:52:10
Aufgrund zahlreicher Nachfragen aus der Community hat die Redaktion die Verfügbarkeit der Ryzen-5000-Serie exemplarisch beim Onlinehändler Proshop angefragt. Dieser teilte mit, dass es sich bei der Listung der vier Zen-3-CPUs und deren Preise nicht um sogenannte Platzhalter handelt.
https://www.computerbase.de/2020-10/amd-ryzen-5000-preise-zen-3-5950x-5900x-5800x-5600x/#update-2020-10-15T09:12

Der 5950X also mit quasi derselben UVP wie der 3950X hier bei uns trotz +$50 MSRP. Beim 5800X und 5900X sind es 21€ mehr, beim 5600X dann knapp 45€.

Nightspider
2020-10-15, 10:03:55
Sind die jetzt 3 Wochen vorher also schon teilweise auf Lager?

Dann wird die Verfügbarkeit ja richtig gut zum Release.

MR2
2020-10-15, 10:11:55
Nee, es geht wohl nur um die festen Preise und das es was gibt ab 5.11. Auf Lager ist da noch nix.

Nightspider
2020-10-15, 10:13:24
Achsoooo, was interessieren mich die Preise von einem Händler 3 Wochen vor dem Release?

Linmoum
2020-10-15, 10:32:34
Naja, bei MF zum Beispiel weiß man ja, was die gerne bei guten/geringeren Preisen der Konkurrenz machen. ;) Man hat jetzt immerhin schon einen Anhaltspunkt, was die Dinger hier kosten werden.

davidzo
2020-10-15, 13:02:40
Wissen wir das? Ich meine ich gehe davon schon die längere Zeit aus, aber hier wird immer noch über 16 bzw. auch 12 CUs spekuliert.

Wenn es 8 CUs sind, warum ist dann der Die so riesig, wenn es gleichzeitig nur ein CCX ist?:confused:

Meine Milchmädchenrechnung hatte ein paar Fehlleistungen wie von Gipsel benannt, aber der Kern meiner Bahauptung ist ja dennoch, dass es zu klein für mehr als 8 CUs ist, aber zu groß für nur 1 CCX.
Man möge mich eines besseren beleheren, aber die Die Size, sollte sie denn stimmen, gibt imo einige Rätsel auf. :uponder:

Was wäre denn wenn AMD hier beim silicon auch eine mobile-first Strategie wie bei polaris 11 fährt, also Dicke und Layeranzahl vor Diesize. Damals hat man auch nicht besonders dick gepackt und sich eher darauf konzentriert ein maximal dünnes Die abzuliefern, da man wusste dass der Haupteinsatz sowieso mobil sein würde.
Ein Chip mit 11 Layern und 162mm2 ist bestimmt eher etwas günstiger als ein chip mit 13 Layern und 130mm2.

@patrickschur
Hast du schon eine Vorstellung davon was das "Computer Vision" CVML genau sein soll?

Irgendwie klingt computer vision & machine learning ein bisschen wie das wofür nvidia ihre jetsons anpreist. Also Edge computing, für rechenleistungsintensive IoT zwecke. Das ist zwar kein großer Markt, aber einer der wenigen großen Wachtumsfaktoren im embedded computing. Merkwürdig dass eine embedded SKU dann aber so prominent auf der roadmap auftaucht... und CDNA würde dazu eigentlich besser passen als RDNA2. :rolleyes: Also eventuell doch eine SKU für einen Spezialkunden?

Savay
2020-10-15, 15:55:06
CVML steht aber anscheinend bei allen APUs mit RDNA2 dran. Auch bei denen für den Massenmarkt.
Evtl. eine generelle Optimierung der GPU Architektur auf ML als quasi Äquivalent zu den Tensor Cores von nV?

Berniyh
2020-10-15, 17:31:28
https://wccftech.com/amds-ryzen-5000-zen-3-desktop-cpus-memory-overclocking-ddr4-4000-mhz-sweet-spot/

WCCFTech haben eine Folie zu Zen 3 erhalten die angeblich von AMD stammt und andeutet, dass die 5000er CPUs typischerweise einen fclk von 2 GHz erreichen sollen, was dann DDR4-4000 mit 1:1:1 Verhältnis ermöglicht.


CVML steht aber anscheinend bei allen APUs mit RDNA2 dran. Auch bei denen für den Massenmarkt.
Evtl. eine generelle Optimierung der GPU Architektur auf ML als quasi Äquivalent zu den Tensor Cores von nV?
Ja, das ist ziemlich sicher eine spezifische Erweiterung von RDNA2.
Ob das dann wirklich sowas wie die Tensor Cores ist muss man abwarten.

Unicous
2020-10-15, 17:55:06
@basix

Wie ich es mir gedacht habe kam nicht mehr viel außer "Quelle: Internet" und einem unangebrachten ad hominem.:rolleyes:

Wie groß ist der Flächenunterschied bei den PHYs? Was ist mit I/O und Uncore. Hast du alles nicht beantwortet außer 20+20=162.:freak:

Nightspider
2020-10-15, 20:18:44
Patrick meint der Slide wäre echt.

Mit Glück geht sogar noch ein Ticken mehr:

https://twitter.com/harukaze5719/status/1316770112226029568

patrickschur
2020-10-15, 20:34:26
Ja, die Folie ist echt. Ich habe sie sogar. :cool: Ich darf sie aber natürlich nicht teilen. Die Folien haben aber alle ein Wasserzeichen. Da hat wohl jemand das Wasserzeichen entfernt und die Qualität heruntergeschraubt, damit man es nicht so sehr sieht. :biggrin:

@Berniyh Die Quelle ist nicht wccftech sondern https://www.technopat.net/2020/10/14/ryzen-5000-ddr4-4000-mhz-bellek-destegiyle-gelecek/

Berniyh
2020-10-15, 20:42:34
Hast Recht, danke dir.

Hätte eigentlich schon bei wccftech + Quelle stutzig werden müssen. :D

TurricanM3
2020-10-15, 20:54:36
Das klingt ja prima. =]

Rampage 2
2020-10-15, 22:38:09
https://wccftech.com/amds-ryzen-5000-zen-3-desktop-cpus-memory-overclocking-ddr4-4000-mhz-sweet-spot/

WCCFTech haben eine Folie zu Zen 3 erhalten die angeblich von AMD stammt und andeutet, dass die 5000er CPUs typischerweise einen fclk von 2 GHz erreichen sollen, was dann DDR4-4000 mit 1:1:1 Verhältnis ermöglicht.


Patrick meint der Slide wäre echt.

Mit Glück geht sogar noch ein Ticken mehr:

https://twitter.com/harukaze5719/status/1316770112226029568


DDR4-4000 mit 1:1-Teiler ist doch schonmal eine gute Nachricht:)

Natürlich wäre noch mehr besser gewesen (z.B. wäre DDR4-4266 bzw. FCLK 2133 MHz vorläufig perfekt für Zen 3 gewesen), aber es ist schonmal ein Schritt in die richtige Richtung:) Zen 4 dann mit FCLK 2400+ MHz bzw. DDR4-4800+ ;D

Da kann Intel wirklich nur noch versuchen, über NOCH höheres DDR4-OC (z.B. DDR4-4800 auch bei Mainstream-Mainboards) zu punkten und/oder eDRAM auf seine CPUs verbauen, um noch als Kaufargument als bessere Gaming-CPU zu bleiben;)

R2

Berniyh
2020-10-15, 23:01:26
Zen 4 wird DDR5 nutzen …

Unicous
2020-10-15, 23:13:39
Katze scheint laut Patrick Schur aus dem Sack:

Update: Van Gogh (VN)

- 4 cores / 8 threads
- 4 display controllers
- 4 USB 3.2 Gen2 (2 with DP alt mode support)
- 8 USB 2.0 (4 are shared with USB 3.2)
- 12 PCIe 3.0 lanes (2 are multiplexed with SATA)

1/2
https://twitter.com/patrickschur_/status/1316829741127806978

Update: Van Gogh (VN)

AMD uses two DSPs from Cadence for their CV
- Vision Q6 DSP (2 cores)
- Vision C5 DSP (2 cores)

- VCN with AV1 decoder support (level 6.0)
- ISP (up to 3 sensor inputs)

2/2
https://twitter.com/patrickschur_/status/1316838798823690241


Natürlich wusste basix schon, dass es zwei dedizierte DSPs, einen ISP sowie, im Vergleich zu Renoir, 12 halbierte PCIe Lanes geben wird, daher war seine Die-Size-Analyse on point.:wink:

Der ISP verwirrt mich zwar etwas, könnte aber für ein Surface/Laptop mit Gesichtserkennung nötig sein. Mir fällt spontan nichts Anderes ein. AMD hatte vor Jahren mal mit Face Login geworben.

basix
2020-10-15, 23:44:46
Natürlich wusste basix schon, dass es zwei dedizierte DSPs, einen ISP sowie, im Vergleich zu Renoir, 12 halbierte PCIe Lanes geben wird, daher war seine Die-Size-Analyse on point.:wink:


Ich kann auch fragen, wo deine 16 CUs hin sind ;) Ist immerhin ein Speku-Forum.

Aber eigentlich machen die reduzierten PCIe Lanes so betrachtet schon Sinn, wenn man eh fast nie plant eine dGPU damit zu verbinden und der Chip auch nie AM4 sehen wird.

Unicous
2020-10-15, 23:48:50
Ich sprach nie von 16 CUs, WTF?:confused:

Warum werden einem hier immer Dinge untergejubelt die man nicht gesagt hat?

8/16 und 8 CUs war meine Annahme mit abgespecktem I/O oder irgendetwas Anderes, denn der Chip machte mit 4 Kernen keinen Sinn.

Und es IST etwas Anderes. Ein Chip mit 3rd Party DSPs und ISP.

Aber eigentlich machen die reduzierten PCIe Lanes so betrachtet schon Sinn, wenn man eh fast nie plant eine dGPU damit zu verbinden und der Chip auch nie AM4 sehen wird.

No shit, Sherlock.:rolleyes:

LasterCluster
2020-10-16, 00:35:54
The Tensilica Vision DSP family covers a wide range of markets. It offers general-purpose imaging and vision products that were designed for the complex algorithms in imaging and computer vision, including innovative multi-frame noise reduction, video stabilization, high dynamic range (HDR) processing, object and face recognition and tracking, low-light image enhancement, digital zoom, and gesture recognition, plus many more. The Tensilica Vision DSP family also offers outstanding performance while running AI

Ok, Hardware für Smartphone/Tablet Cameras u.ä.. Das dürfte den Einsatzzweck für ultamobile Geräte wohl endgültig bestätigen. I/O kommt mir dafür noch ziemlich üppig vor und reicht auch locker für schöne, leichte Laptops (ohne dGPU). Bin mittlerweile seeehr gespannt was da an HW mit VG kommt!

Zossel
2020-10-16, 01:26:28
Um das Ganze mal zu kondensieren:

Cezanne:
1 Zen3 CCX, PCIe3 (20+4), USB3.2gen2, 8CUs Vega, (LP)DDR4, N7e

TDP wäre für embedded interessant, alles zwischen 10-15 Watt geht passiv. Und abgehangene Treiber für Vega.

Dorn
2020-10-16, 08:19:42
Wann die Tests statt finden ist noch unter NDA?

Triniter
2020-10-16, 08:24:23
Sorry wenn ich schon wieder mit ner recht blöden Frage ums Eck komme:
Braucht man ein Bios Update auf den B550 und X570 Mainboards bevor man Zen3 betreiben kann? Ich vermute mal wenn man aktuell ein solches Board neu kauft sollte es ja eher nicht der Fall sein weil man dann ja im Zweifelsfall gar keine Möglichkeit hat ins Bios zu kommen wenn man "nur" eine Zen3 zur Verfügung hätte.

ianm
2020-10-16, 08:34:51
https://pics.computerbase.de/9/5/3/2/0-6523fcc285bd53f9/20-1080.9a583288.png
https://www.computerbase.de/2020-10/amd-ryzen-5000-mainboards-agesa-v2-zen3/

Berniyh
2020-10-16, 08:37:10
Sorry wenn ich schon wieder mit ner recht blöden Frage ums Eck komme:
Braucht man ein Bios Update auf den B550 und X570 Mainboards bevor man Zen3 betreiben kann? Ich vermute mal wenn man aktuell ein solches Board neu kauft sollte es ja eher nicht der Fall sein weil man dann ja im Zweifelsfall gar keine Möglichkeit hat ins Bios zu kommen wenn man "nur" eine Zen3 zur Verfügung hätte.
Man braucht ein BIOS Update, höchstwahrscheinlich auch bei neuen Boards.
Es kann sein, dass die Boards mit den vorhandenen Versionen starten, aber das ist zumindest bei X570 wahrscheinlich eher nicht so.
(Bei B550 ging neulich eine Meldung rum, dass es ab einer bestimmten AGESA Version zumindest starten sollte, obwohl Vermeer noch nicht voll unterstützt wird.)
Es gibt aber manche Boards die ein BIOS Update ohne CPU unterstützen und es gibt manche Händler die das Update gegen ein Entgelt machen.
Notfalls gibt es meines Wissens auch Update Kits seitens AMD unter bestimmten Vorlagen (muss ein Board und Kaufbeleg nachweisen und hat eine gewisse Zeit das Update durchzuziehen).

Edit: ianm war schneller …

ianm
2020-10-16, 08:39:30
#teamwork

Dorn
2020-10-16, 08:41:08
Die Gigabyte Mainboards brauchen u.a. keinen CPU, wenn man ein neues Bios einspielen will.

Edit:

Q-Flash Plus Update BIOS without Installing the CPU, Memory and Graphics Card
Q-Flash Plus
GIGABYTE Q-Flash Plus allows users to update to the latest BIOS using a thumb drive without the CPU or memory needing to be installed.
Do you have the latest CPU supported by your GIGABYTE motherboard but do not have the latest BIOS installed yet? This is no longer a problem with the new Q-Flash Plus feature. By simply downloading the latest BIOS and renaming it on a USB thumb drive, and plugging it into the dedicated port, you can now flash the BIOS automatically without the need to press any buttons or even the need of onboard memory or CPU. Utilizing the ITE EC 8951E controller, GIGABYTE X99 motherboard BIOS can be updated even if your system is unable to boot. An LED next to the EC controller will notify you once the procedure is complete and you are ready to boot your system normally.

Ist einer der Gründe warum ich mir wieder ein Gigabyte Mainbaord kaufe...

Triniter
2020-10-16, 09:19:29
Ja das ist ein gutes Argument, BIOS Update ohne CPU. Weil sonst bist ja wirklich der gearschte wenn du von Intel auf AMD wechselst kannst ja nicht einfach nicht einfach nen Zen 2 zusätzlich kaufen nur um das Bios zu flashen. Ich denke mal bis zum Release wird es auch nach und nach Boards mit den neuen Biosversionen geben aber Pech kannst grad in der Übergangsphase schon haben, und ich erinnere mich an einen Wechsel von Intel auf AMD Duron irgendwann kurz nach 2000 wo ich eben genau so eine Situation hatte. CPU nicht erkannt und Bildschirm schwarz.

ChaosTM
2020-10-16, 09:26:42
Die Gigabyte Mainboards brauchen u.a. keinen CPU, wenn man ein neues Bios einspielen will.

Edit:

Q-Flash Plus Update BIOS without Installing the CPU, Memory and Graphics Card
Q-Flash Plus
GIGABYTE Q-Flash Plus allows users to update to the latest BIOS using a thumb drive without the CPU or memory needing to be installed.
Do you have the latest CPU supported by your GIGABYTE motherboard but do not have the latest BIOS installed yet? This is no longer a problem with the new Q-Flash Plus feature. By simply downloading the latest BIOS and renaming it on a USB thumb drive, and plugging it into the dedicated port, you can now flash the BIOS automatically without the need to press any buttons or even the need of onboard memory or CPU. Utilizing the ITE EC 8951E controller, GIGABYTE X99 motherboard BIOS can be updated even if your system is unable to boot. An LED next to the EC controller will notify you once the procedure is complete and you are ready to boot your system normally.

Ist einer der Gründe warum ich mir wieder ein Gigabyte Mainbaord kaufe...


Das ist sehr praktisch, ja.
Ich hoffe mein Aorus Gaming Extreme kriegt ein Zen3 Bios im Jänner..

Nightspider
2020-10-16, 09:40:47
Also

Zen3 N7

RDNA2 N7e
Van Gogh N7e
Cezanne N7e

?

Berniyh
2020-10-16, 09:42:42
Also

Zen3 N7

RDNA2 N7e
Van Gogh N7e
Cezanne N7e

?
Warum sollt man Zen 3 auf N7 produzieren und nicht N7P oder N7e?

Nightspider
2020-10-16, 09:45:08
Weil AMD das gesagt hat?

Ja, die Folie ist echt. Ich habe sie sogar. :cool: Ich darf sie aber natürlich nicht teilen. Die Folien haben aber alle ein Wasserzeichen. Da hat wohl jemand das Wasserzeichen entfernt und die Qualität heruntergeschraubt, damit man es nicht so sehr sieht. :biggrin:

Kannst du schon etwas dazu sagen ob Cezanne und Van Gogh etwas eher im Handel aufschlagen werden als Renoir?

Zossel
2020-10-16, 09:56:29
Die Gigabyte Mainboards brauchen u.a. keinen CPU, wenn man ein neues Bios einspielen will.

AMD sollte eine solche Funktionalität für AM5 in die ARM Kerne integrieren.
Ala: Wenn ein bestimmter CPU-Pin auf Low liegt startet der ARM-Kern nach dem Reset aus einem anderen ROM-Bereich welcher die CPU internen USB-Ports scannt und wenn ein Block-Device mit einem bestimmten Filesystem-Layout gefunden wird das in das SPI-Flash geschrieben.

Evtl. könnte man ein paar Cent in der Produktion von Mainboards sparen.

JVC
2020-10-16, 10:10:19
2Ghz IF wären wirklich super ^^ DDR4 4000, klingt einfach besser :)

M.f.G. JVC

lowkres
2020-10-16, 10:10:21
Meint ihr das nächstes Jahr Zen3+ noch für AM4 kommt oder schon AM5 eingeführt wird?

Berniyh
2020-10-16, 10:18:27
Weil AMD das gesagt hat?
Ich würde aus dieser Aussage aus der Präsentation nicht darauf schließen, dass Zen 3 in exakt dem gleichen Prozess gefertigt wird, sondern nur, dass es eben auch ein 7nm Prozess ist, was wir aber eh schon wussten.

Linmoum
2020-10-16, 10:29:07
Es ist derselbe Prozess wie bei Zen2. Das haben sowohl Papermaster (laut Marc von Golem) als auch Hallock bestätigt (iirc über irgendein AMD-Discord, wo er Fragen beantwortet).

Berniyh
2020-10-16, 10:46:25
Hm … aber das macht doch keinen Sinn? Da verschenkt man doch völlig sinnlos Performance?

Nightspider
2020-10-16, 10:55:15
Vielleicht hatte AMD eigene Wünsche und Ziele für einen N7e und dieser hätte nicht im Zeitplan gelegen für Zen3.

Zumal Zen 3 so schon einschlägt und so hat man für den Refresh mit Warhol noch etwas in der Hinterhand.

Cyberfries
2020-10-16, 10:58:53
Das ist doch weder N7, noch N7P oder N7e, sondern ein "speziell auf AMD zugeschnittener Prozess".

Meint ihr das nächstes Jahr Zen3+ noch für AM4 kommt oder schon AM5 eingeführt wird?

Noch unbekannt, siehe Warhol-Thread.
Einige glauben an AM4, weil in der MebiuW-Roadmap ein gelber Rahmen drum ist.
Andere glauben an AM5, weil AM4 nur bis 2020 vorgesehen war.

Sunrise
2020-10-16, 11:02:32
Hm … aber das macht doch keinen Sinn? Da verschenkt man doch völlig sinnlos Performance?

“Likely” to use process enhancements...laut AMD im März 2020.
In speaking with AMD, the company confirmed that its next generations of 7nm products are likely to use process enhancements and the best high-performance libraries for the target market, however it is not explicity stating whether this would be N7P or N7+, just that it will be ‘better’ than the base N7 used in its first 7nm line. (https://www.anandtech.com/show/15589/amd-clarifies-comments-on-7nm-7nm-for-future-products-euv-not-specified)

Wahrscheinlich aufgrund der Lead-time für Planung und Design. Diese Geheimnistuerei habe ich allerdings nie verstanden.

Denniss
2020-10-16, 12:25:37
Wurde nicht gesagt daß Zen3 im gleichen Prozeß wie die 3000er XT-Prozessoren gefertigt werden?
Das soll ja schon ein leicht verbesserter 7nm-Node sein also entweder etwas besser auf AMD zugeschnitten oder Verbesserungen/Fortschritte/Optimierungen aus dem laufenden Prozeß heraus entwickelt.

Opprobrium
2020-10-16, 15:12:45
Anandtech (https://www.anandtech.com/show/16176/amd-zen-3-an-anandtech-interview-with-cto-mark-papermaster) haben ein Interview mit Herrn Papermaster online gestellt.

r.a.y
2020-10-16, 15:41:12
Anandtech (https://www.anandtech.com/show/16176/amd-zen-3-an-anandtech-interview-with-cto-mark-papermaster) haben ein Interview mit Herrn Papermaster online gestellt.
im Bewegtbild: https://www.youtube.com/watch?v=5JfndlJ-_Lg

MR2
2020-10-16, 16:11:09
Vielen Dank, ganz interessantes Interview!


Auch mal schön zu sehen, 6Ghz 5950X OC unter MacOS ;-)

https://videocardz.com/newz/amd-ryzen-9-5950x-overclocked-to-6-0-ghz-with-apple-imac-pro

TurricanM3
2020-10-16, 16:12:58
6GHz 24/7 confirmed. :biggrin:

w0mbat
2020-10-16, 16:43:10
Hm … aber das macht doch keinen Sinn? Da verschenkt man doch völlig sinnlos Performance?
Klar macht das Sinn, Zen3 wird in dem gleichen Prozess hergestellt wie MTS2, deshalb gab es auch die XT-CPUs, die waren sozusagen der Probelauf.

TSMCs N7 läuft extrem gut, man hört von einem fast perfekten yield. Der Prozess wurde in Zusammenarbeit mit AMD noch etwas optimiert und mit MTS2 getestet. AMD wird mit Zen3 wohl von Anfang an sehr gute yields haben, das I/O-die von Zen2 wird weiter benutzt, gleicher Sockel und gleicher Chipsatz = super smoother launch und alles so günstig wie möglich für AMD.

Du musst das von der Betriebswirtschaftlichen Seite sehen. AMDs Aktienkurs ist von ~$2 auf bis über $90 gestiegen, die müssen jetzt auch entsprechend Zahlen zeigen. Was bringen 10% mehr Takt bei 10% weniger Stromverbrauch, wenn der Prozess teurer ist, das yield schlechter und man Intel auch so schlägt?

Zumal lässt sich AMD damit auch noch einen "Zen3+" refresh offen.

Opprobrium
2020-10-16, 17:38:24
Zen 3 schein in der Tat beeindruckend. Und das, obwohl Zen 1 schon überraschend konkurrenzfähig war und Zen 2 mehr als erwartet oben drauf gelegt hat.

Bin froh, daß die Notebookhersteller so schleppend mit den Renoirmodellen vorgegangen sind, daß für mich der Zug mittlerweile abgefahren ist. Jetzt wird bei mir wohl doch erstmal der Desktop ersetzt und nächstes Jahr dann hoffentlich ein Dell XPS oder unbeschnittenes Lenovo T oder P Modell mit Zen 3 APU als mobiles Arbeitspferd angeschafft.

mboeller
2020-10-16, 18:00:12
Anandtech (https://www.anandtech.com/show/16176/amd-zen-3-an-anandtech-interview-with-cto-mark-papermaster) haben ein Interview mit Herrn Papermaster online gestellt.

Danke

ich fand den Teil hier am bemerkenswertesten:


IC: Zen 3 is now the third major microarchitectural iteration of the Zen family, and we have seen roadmaps that talk about Zen 4, and potentially even Zen 5. Jim Keller has famously said that iterating on a design is key to getting that low hanging fruit, but at some point you have to start from scratch on the base design. Given the timeline from Bulldozer to Zen, and now we are 3-4 years into Zen and the third generation. Can you discuss how AMD approaches these next iterations of Zen while also thinking about that the next big ground-up redesign?

MP: Zen 3 is in fact that redesign. It is part of the Zen family, so we didn’t change, I’ll call it, the implementation approach at 100000 feet. If you were flying over the landscape you can say we’re still in the same territory, but as you drop down as you look at the implementation and literally across all of our execution units, Zen 3 is not a derivative design. Zen 3 is redesigned to deliver maximum performance gain while staying in the same semiconductor node as its predecessor.


AMD hat es also in <1,5 Jahren fertig gebracht ZEN neu zu designen und mit ZEN3 damit 19% mehr IPC "abzuliefern" während Intel für solche Änderungen Äonen benötigt.

Opprobrium
2020-10-16, 18:15:28
AMD hat es also in <1,5 Jahren fertig gebracht ZEN neu zu designen

Wie kommst Du auf <1,5 Jahre? Zen 1 kam im März 2017, Zen 3 im November 2020. Sind +/- 3,5 Jahre. Steht ja auch so im von dir zitierten Interviewausschnitt.

mboeller
2020-10-16, 18:19:21
mir ging es mehr um den zeitlichen Abstand zw. ZEN2 und ZEN3.

Opprobrium
2020-10-16, 18:23:55
mir ging es mehr um den zeitlichen Abstand zw. ZEN2 und ZEN3.

Okay, dann verstehe ich die Rechnung. Aber es hieß doch von Anfang an, daß die Entwicklerteams bei AMD sich, analog zum Intelschen Tick-Tock, Leapfroggen würden. Zen 2 war also schon in der Mache bevor Zen 1 rauskam, und sobald Zen 1 fertig war haben die eben mit Zen 3 angefangen.

basix
2020-10-16, 18:33:57
AMD hat es also in <1,5 Jahren fertig gebracht ZEN neu zu designen und mit ZEN3 damit 19% mehr IPC "abzuliefern" während Intel für solche Änderungen Äonen benötigt.

AMD hat 2 CPU Design Teams. Also eher 3-4 Jahre ;)

mboeller
2020-10-16, 18:36:36
Wahrscheinlich hast du recht. Trotzdem ... ;)

Bevor ZEN2 rauskam haben "alle" die Chiplet Gerüchte in der Luft zerrissen. Für viele, auch für mich war das eine massive Änderung und hatte nicht wirklich erwartet das AMD das durchzieht.

Jetzt, nach nur 2 bzw. 3 ZEN Iterationen (wenn man Zen+ mitzählt) kommt ein komplettes Redesign des Cores. Dafür bleibt momentan das Außenrum gleich.

Die Änderungen von ZEN(+) auf ZEN2 waren schon sehr groß und haben wahrscheinlich die volle Aufmerksamkeit von AMD erfordert; so groß ist die Firma ja nicht. Und trotzdem kommt jetzt AMD nur 1,5 Jahre nach dem ZEN2 bereits mit einem kompletten Redesign des ZEN-Cores. Die haben wirklich eine sehr hohe Schlagzahl.

Opprobrium
2020-10-16, 20:12:40
Die Änderungen von ZEN(+) auf ZEN2 waren schon sehr groß und haben wahrscheinlich die volle Aufmerksamkeit von AMD erfordert

Die Änderungen waren (im Nachhinein ;)) eigentlich nicht so spektakulär sondern eigentlich nur der nächste logische Schritt hin zu mehr Flexibilität und besserer Die-Ausbeute. Letzten Endes ja hatte schon Zen 1 in Form von Epyc und Threadripper geteilte I/O Dies.

Die haben wirklich eine sehr hohe Schlagzahl.

Aber ja, es ist schon krass. Frau Su hat das Krisengeplagte AMD zu einer wie geschmiert laufenden Maschine gemacht. Und wie man sieht tut das der gesamten Industrie gut und bringt wieder etwas Leben in den PC Markt :up:

aufkrawall
2020-10-16, 20:20:43
Die Änderungen waren (im Nachhinein ;)) eigentlich nicht so spektakulär sondern eigentlich nur der nächste logische Schritt hin zu mehr Flexibilität und besserer Die-Ausbeute.
Natürlich war es spektakulär, dass Zen 2 trotz Chiplet-Design in Spielen im reinen CPU-Limit mitunter +35% draufschlagen konnte.

basix
2020-10-16, 20:43:10
Wahrscheinlich hast du recht. Trotzdem ... ;)

Bevor ZEN2 rauskam haben "alle" die Chiplet Gerüchte in der Luft zerrissen. Für viele, auch für mich war das eine massive Änderung und hatte nicht wirklich erwartet das AMD das durchzieht.

Jetzt, nach nur 2 bzw. 3 ZEN Iterationen (wenn man Zen+ mitzählt) kommt ein komplettes Redesign des Cores. Dafür bleibt momentan das Außenrum gleich.

Die Änderungen von ZEN(+) auf ZEN2 waren schon sehr groß und haben wahrscheinlich die volle Aufmerksamkeit von AMD erfordert; so groß ist die Firma ja nicht. Und trotzdem kommt jetzt AMD nur 1,5 Jahre nach dem ZEN2 bereits mit einem kompletten Redesign des ZEN-Cores. Die haben wirklich eine sehr hohe Schlagzahl.

Beeindruckend ist es allemal für so eine relativ kleine Bude wie AMD (GPUs und so machen die ja auch noch ;)).

Was ich bei Zen 3 aus R&D Sicht sehr interessant und gut finde:
Es werden bei Desktop und EPYC die selben IOD verwendet. Das hält die R&D Kosten tief und auch die NRE Kosten für Chip-Design und Implementation können auf eine viel höhere Stückzahl verteilt werden. Das macht Zen 3 sehr kosteneffizient in der Umsetzung. Zen 2 war vom Entwicklungsaufwand her eine riesen Nummer, deswegen lagen zwischen Zen 1 und 2 Releases auch mehr als 2 Jahre.

In Richtung Zen 4 wird ausserdem eine ganze Plattform neu definiert und gestemmt, inkl. neue IODs, CCDs, 5nm, PCIe 5.0, DDR5, neue Chipsätze und neue Sockel. Hier fällt wieder deutlich mehr Entwicklungsaufwand an. Vermutlich sogar einiges mehr als Bei Zen 2. Deswegen ist es gut, dass man bei Zen 3 den möglichst schlanken Weg gegangen ist.

Edit:
Was haltet ihr von folgendem Gedanken bezüglich der CCD Organisation bei Zen 3 (siehe Attachment)? Damit liesse sich der 8C Cluster mit ebenfalls nur 6 Direktverbindungen zwischen den Cores aufbauen. Es benötigt einfach einen "Core-Hub", welcher entsprechend die Eckpunkte des CCDs verbindet. Das schöne daran wäre, dass dies relativ leicht von 8-16 Cores skalierbar wäre, ohne zusätzliche Verbindungen oder Hops einfügen zu müssen. Wäre ziemlich ideal für Zen 4 und Zen 5. Ich setze hier aber voraus, dass man ab Zen 4 den L3$ stacked. Somit liesse sich bei Zen 4/5 der Hub von 2 auf 4 Cores aufbohren ohne grosse weitere Nachteile.

patrickschur
2020-10-16, 20:58:16
Kannst du schon etwas dazu sagen ob Cezanne und Van Gogh etwas eher im Handel aufschlagen werden als Renoir?

Du wirst schon früh genug über Cezanne zu hören bekommen. :) Du kannst aber mit News zu Cezanne in den nächsten Tagen bzw. Wochen rechnen.

Opprobrium
2020-10-16, 23:06:09
Natürlich war es spektakulär, dass Zen 2 trotz Chiplet-Design in Spielen im reinen CPU-Limit mitunter +35% draufschlagen konnte.

Daß das Resultat spektakulär war habe ich ja auch nicht in Frage gestellt. Ich fand auch schon Zen 1 spektakulär, insbesondere als Threadripper :smile:

HOT
2020-10-16, 23:38:06
Beeindruckend ist es allemal für so eine relativ kleine Bude wie AMD (GPUs und so machen die ja auch noch ;)).

Was ich bei Zen 3 aus R&D Sicht sehr interessant und gut finde:
Es werden bei Desktop und EPYC die selben IOD verwendet. Das hält die R&D Kosten tief und auch die NRE Kosten für Chip-Design und Implementation können auf eine viel höhere Stückzahl verteilt werden. Das macht Zen 3 sehr kosteneffizient in der Umsetzung. Zen 2 war vom Entwicklungsaufwand her eine riesen Nummer, deswegen lagen zwischen Zen 1 und 2 Releases auch mehr als 2 Jahre.

In Richtung Zen 4 wird ausserdem eine ganze Plattform neu definiert und gestemmt, inkl. neue IODs, CCDs, 5nm, PCIe 5.0, DDR5, neue Chipsätze und neue Sockel. Hier fällt wieder deutlich mehr Entwicklungsaufwand an. Vermutlich sogar einiges mehr als Bei Zen 2. Deswegen ist es gut, dass man bei Zen 3 den möglichst schlanken Weg gegangen ist.

Edit:
Was haltet ihr von folgendem Gedanken bezüglich der CCD Organisation bei Zen 3 (siehe Attachment)? Damit liesse sich der 8C Cluster mit ebenfalls nur 6 Direktverbindungen zwischen den Cores aufbauen. Es benötigt einfach einen "Core-Hub", welcher entsprechend die Eckpunkte des CCDs verbindet. Das schöne daran wäre, dass dies relativ leicht von 8-16 Cores skalierbar wäre, ohne zusätzliche Verbindungen oder Hops einfügen zu müssen. Wäre ziemlich ideal für Zen 4 und Zen 5. Ich setze hier aber voraus, dass man ab Zen 4 den L3$ stacked. Somit liesse sich bei Zen 4/5 der Hub von 2 auf 4 Cores aufbohren ohne grosse weitere Nachteile.

Anstatt 2x4 Topologie ist es jetzt 4x2? Das klingt ziemlich gut. Ich könnte mir gut vorstellen, dass das des Rätsels Lösung sein könnte. Zen4 dann 12C CCD (in N5) und Zen5 16C CCD (in N3). Danach muss ne komplett neue Architektur her. Auch, dass der L3 (+ IF) auch gestapelt sein könnte ergibt sehr viel Sinn, das muss nicht mal dasselbe Die sein wie die Kerne. MMn wird der L2 sowieso auf 1 oder 2MB wachsen und den Latenznachteil verdecken. In N3 lohnt es sich übrigens ja nicht, den Cache darin zu fertigen, eine Trennung in einen Core-Die in N3 und einen Cache-Die in N7 wäre da sowieso die bessere Lösung, also 16C in N3 + 48+MB L3$ in N7 (+IF-Links).

Berniyh
2020-10-17, 02:25:06
Was ich bei Zen 3 aus R&D Sicht sehr interessant und gut finde:
Es werden bei Desktop und EPYC die selben IOD verwendet.
Wo hast du das her?
Das war bei Zen 2 nicht so und es würde mich sehr wundern, wenn es bei Zen 3 der Fall wäre.

Skysnake
2020-10-17, 07:22:34
Anstatt 2x4 Topologie ist es jetzt 4x2? Das klingt ziemlich gut. Ich könnte mir gut vorstellen, dass das des Rätsels Lösung sein könnte. Zen4 dann 12C CCD (in N5) und Zen5 16C CCD (in N3). Danach muss ne komplett neue Architektur her. Auch, dass der L3 (+ IF) auch gestapelt sein könnte ergibt sehr viel Sinn, das muss nicht mal dasselbe Die sein wie die Kerne. MMn wird der L2 sowieso auf 1 oder 2MB wachsen und den Latenznachteil verdecken. In N3 lohnt es sich übrigens ja nicht, den Cache darin zu fertigen, eine Trennung in einen Core-Die in N3 und einen Cache-Die in N7 wäre da sowieso die bessere Lösung, also 16C in N3 + 48+MB L3$ in N7 (+IF-Links).

Warum sollte man den core die in N3 und Cache in N7 machen? Das macht absolut keinen Sinn. Cache ist die Schaltung die den größten Benefit überhaupt aus einer neuen Fertigung zieht.

Opprobrium
2020-10-17, 07:37:09
Wo hast du das her?
Das war bei Zen 2 nicht so und es würde mich sehr wundern, wenn es bei Zen 3 der Fall wäre.

Ich glaube er meimt, daß Zen 2 & 3 als Ryzen denselben Dektop-I/O Die nutzen, und daß Zen 2 & 3 als Epyc denselben Server-I/O Die nutzen.

Man muss sich einfach ein paar Worte dazu denken:

"Es werden sowohl bei Desktop als auch EPYC die selben IOD verwendet wie beim jeweiligen Vorgänger."

Berniyh
2020-10-17, 08:07:33
Ach so, ja das ist natürlich möglich.

basix
2020-10-17, 10:03:30
Wo hast du das her?
Das war bei Zen 2 nicht so und es würde mich sehr wundern, wenn es bei Zen 3 der Fall wäre.

Ich glaube er meimt, daß Zen 2 & 3 als Ryzen denselben Dektop-I/O Die nutzen, und daß Zen 2 & 3 als Epyc denselben Server-I/O Die nutzen.

Man muss sich einfach ein paar Worte dazu denken:

"Es werden sowohl bei Desktop als auch EPYC die selben IOD verwendet wie beim jeweiligen Vorgänger."

Genau, danke für die Aufklärung :up:

Anstatt 2x4 Topologie ist es jetzt 4x2?
Im Prinzip ja. Aber innerhalb des 8C CCX ist kein IF involviert, das kommt erst ausserhalb. Das was ich vorschlage ist nichts anderes als der heutige 4-Core CCX Aufbau, wo man so eine Art "Leaflets" (=Cores) bei den Endpunkten der Core zu Core Verbindungen anbringt. Anstatt 1 Core können nun 2-4 Cores mit so einem Endpunkt verbunden werden. Mehr als 2 Cores ist aber nur sinnvoll möglich, wenn man den L3$ in zwischen den Cores wegnimmt. Da kommt dann der stacked L3$ ins Spiel.

Ausserdem bleibt man On Die und muss nicht zum IOD und zurück. Gerade deswegen sollte man die Latenzen beim 8C CCX deutlich tiefer halten können als dass dies heute mit den 2x4C CCX der Fall ist. Da ist eine zusätzliche "Hierarchie-Stufe" sowie etwas zusätzliche Latenz über diese Hubs verkraftbar.

Warum sollte man den core die in N3 und Cache in N7 machen? Das macht absolut keinen Sinn. Cache ist die Schaltung die den größten Benefit überhaupt aus einer neuen Fertigung zieht.
Nicht mehr ;) Zumindest nicht bei TSMC.


N7 -> N5: Logic = 1.8x, SRAM = 1.3x
N5 -> N3: Logic = 1.7x, SRAM = 1.2x

Skysnake
2020-10-17, 10:52:55
Die Density von SRAM wird dennoch viel höher als von Logic sein. Wenn du SRAM selbst in nem Prozess designst ist es unmöglich an die Density von dem SRAM IP der FAB zu kommen. Die halten sich nämlich nicht an ihre eigenen Designrules.

Wobei Density allein ja nicht alles ist. Power zählt ja auch.

basix
2020-10-17, 11:03:50
Der Unterschied der SRAM Density wird bei N5 zu N6 anhand der Werte von TSMC eher gering sein. Da kann es sich schon lohnen, den deutlich günstigeren und erprobteren N6 zu wählen. Ausserdem gibt es da noch das Thema N5 Wafer Capacity. Das würde bei N5+N6 ebenfalls entschärft werden. Klar, wir wären hier bei Die Stacking angelangt und das bringt eine Reihe ganz anderer Anforderungen und Komplikationen mit sich. Aber das wäre eher was für den Zen 4 Thread ;)

Zum Energieverbrauch:
Weiss man eigentlich, wie viel Energie der L3$ von Matisse benötigt? Sind das ein paar einzelne Watt?

TurricanM3
2020-10-17, 13:06:10
Habe mal ein bisschen gelesen bez. OC. Sagt mal, ist es möglich, dass der 5950X wegen CCX da Nachteile gegenüber dem kleineren hat? Der SC Boost ist ja eh für die Katz und liegt im Alltag nie wirklich an. Weil 16 Kernchen wird man wohl kaum so hoch kriege wie Zwölfe. Oder kann man da eine 8er Einheit höher ziehen? Hatte beim Vorgänger gelesen, dass OC Schwachsinn sei, aber Beiträge von 2019.

dildo4u
2020-10-17, 13:11:28
Es wird erst im November umfangreiche Tests dazu geben aber vermutlich bringt Speicher Timings Tuning mehr als die CPU mit 200 watt zu betreiben.

mboeller
2020-10-17, 13:16:19
ich hab mal geschaut wie die +19% IPC einzuordnen sind...

https://www.guru3d.com/articles_pages/amd_ryzen_7_3800x_review,9.html
Der Vergleich ist ST @3.5GHz

1800X: 146 Punkte CB15
2700X: 148 Punkte CB15
3800X: 162 Punkte CB15
FX8370: 86 Punkte CB15 ;)

5800X: geschätzt (+19% IPC): 193 Punkte CB15 @ 3.5GHz

Von 1800X bis 5800X wären das +32% ST-IPC, innerhalb von 3,5 Jahren

basix
2020-10-17, 13:21:44
Es wird erst im November umfangreiche Tests dazu geben aber vermutlich bringt Speicher Timings Tuning mehr als die CPU mit 200 watt zu betreiben.

Japp. Und mit dem Ryzen Clock Tuner wird man relativ einfach noch die letzten Prozent Leistung rausquetschen können, ohne das der Energieverbrauch durch die Decke geht.

Der_Korken
2020-10-17, 18:51:43
Habe mal ein bisschen gelesen bez. OC. Sagt mal, ist es möglich, dass der 5950X wegen CCX da Nachteile gegenüber dem kleineren hat? Der SC Boost ist ja eh für die Katz und liegt im Alltag nie wirklich an. Weil 16 Kernchen wird man wohl kaum so hoch kriege wie Zwölfe. Oder kann man da eine 8er Einheit höher ziehen? Hatte beim Vorgänger gelesen, dass OC Schwachsinn sei, aber Beiträge von 2019.

OC kann gerade bei den 12- und 16-Kernen durchaus nachteilig für die ST-Performance sein, weil du den Allcore-Takt einfach nicht in die Nähe des ST-Boosts bekommst. 4,7Ghz Allcore auf Ryzen 3000 ist z.B. völlig utopisch, selbst mit einer dicken WaKü, die 1,5V wegkühlen könnte. Glaube da waren eher so 4,2-4,3Ghz üblich bei den großen Modellen. Fraglich ob das in Spielen wirklich was bringt, außer dass die CPU das doppelte säuft bei Volllast. Das ist schon ein Unterschied zu Intel, wo der ST-Boost auch auf allen Kernen erreicht werden konnte (oder zumindest knapp drunter). Selbst UV ging bei Zen 2 schon so gut wie gar nicht mehr, weil die Dinger out of the box schon am Limit liefen. Ich bezweifle, dass Zen 3 sich besser für OC eignet.

Nightspider
2020-10-18, 02:11:26
Habe mal ein bisschen gelesen bez. OC. Sagt mal, ist es möglich, dass der 5950X wegen CCX da Nachteile gegenüber dem kleineren hat? Der SC Boost ist ja eh für die Katz und liegt im Alltag nie wirklich an. Weil 16 Kernchen wird man wohl kaum so hoch kriege wie Zwölfe. Oder kann man da eine 8er Einheit höher ziehen? Hatte beim Vorgänger gelesen, dass OC Schwachsinn sei, aber Beiträge von 2019.

Der 16 Kerner gibt pro Chip genauso viel Wärme ab wie ein 8 Kern Ryzen. Vergiss nicht dass das Chiplets sind.

Und dank 7nm Prozess werden die bei weitem nicht so heiß wie Intels Comedy Lake Prozessoren.

Natürlich bringen richtig tiefe Temperaturen auch nochmal einen Vorteil aber die Ryzen Prozessoren haben nicht mehr viel Spielraum beim Takt, da sie von Haus aus schon stark am Architektur-Prozess Taktlimit laufen.

cat
2020-10-18, 10:17:39
Wurde das hier schon thematisiert:
https://www.anandtech.com/show/16176/amd-zen-3-an-anandtech-interview-with-cto-mark-papermaster
Zitat:
IC: Zen 3 is now the third major microarchitectural iteration of the Zen family, and we have seen roadmaps that talk about Zen 4, and potentially even Zen 5. Jim Keller has famously said that iterating on a design is key to getting that low hanging fruit, but at some point you have to start from scratch on the base design. Given the timeline from Bulldozer to Zen, and now we are 3-4 years into Zen and the third generation. Can you discuss how AMD approaches these next iterations of Zen while also thinking about that the next big ground-up redesign?

MP: Zen 3 is in fact that redesign. It is part of the Zen family, so we didn’t change, I’ll call it, the implementation approach at 100000 feet. If you were flying over the landscape you can say we’re still in the same territory, but as you drop down as you look at the implementation and literally across all of our execution units, Zen 3 is not a derivative design. Zen 3 is redesigned to deliver maximum performance gain while staying in the same semiconductor node as its predecessor.

Opprobrium
2020-10-18, 10:18:56
Wurde das hier schon thematisiert:

ja (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12462997#post12462997)

Cyberfries
2020-10-18, 16:53:53
Spezifikationen der APUs der 5000-Serie auf Videocardz:
https://videocardz.com/newz/amd-ryzen-5000u-cezanne-lucienne-mobile-series-specifications-leaked

5800U mit 2,0-4,4GHz, 16mb L3$, Vega 8 2Ghz
5700U mit 1,8-4,3GHz, 8mb L3$, Vega 8 1,9Ghz
5600U mit 2,3-4,2GHz, 12mb L3$, Vega 7 1,8Ghz
5500U mit 2,1-4,0GHz, 8mb L3$, Vega 7 1,8Ghz
5400U mit 2,6-4,0GHz, 8mb L3$, Vega 6 1,6Ghz
5300U mit 2,6-3,85GHz, 4mb L3$, Vega 6 1,5Ghz

Also ca. 200mhz mehr als Renoir.
Gerade Zahlen mit Cezanne (Zen 3), ungerade Lucienne (Zen 2).

Langlay
2020-10-18, 17:10:28
Habe mal ein bisschen gelesen bez. OC. Sagt mal, ist es möglich, dass der 5950X wegen CCX da Nachteile gegenüber dem kleineren hat? Der SC Boost ist ja eh für die Katz und liegt im Alltag nie wirklich an. Weil 16 Kernchen wird man wohl kaum so hoch kriege wie Zwölfe. Oder kann man da eine 8er Einheit höher ziehen? Hatte beim Vorgänger gelesen, dass OC Schwachsinn sei, aber Beiträge von 2019.

Von Zen3 weiss ich es jetzt. Aber bei meinem 3900X ist es z.b. so das ich ein recht gutes CCD(Chiplet) habe und ein richtig bescheidens CDD. CDD 1 macht 4.4 GHz @ 1.3V CCD2 macht 4.2 GHz @ 1.3V. Allcoreoc ist also kontraproduktiv weil das auf 4.2 GHz@1.3V hinausläuft

Allerdings ist mein 3900X auch ein relativ frühes Sample (22. Woche 2019).

Armaq
2020-10-18, 19:01:53
Von Zen3 weiss ich es jetzt. Aber bei meinem 3900X ist es z.b. so das ich ein recht gutes CCD(Chiplet) habe und ein richtig bescheidens CDD. CDD 1 macht 4.4 GHz @ 1.3V CCD2 macht 4.2 GHz @ 1.3V. Allcoreoc ist also kontraproduktiv weil das auf 4.2 GHz@1.3V hinausläuft

Allerdings ist mein 3900X auch ein relativ frühes Sample (22. Woche 2019).
Nur macht der Scheduler das ja automatisch richtig mit den neuesten Updates. Ich hab 2 eher ähnlich starke CCD, und dennoch ist CCD1 deutlich häufiger 1 am arbeiten als CCD2.

Man wird für Zen3 das schon nochmal neu verproben müssen. Man sollte nicht den Fehler machen wie so viele Mags/Youtuber die bei Zen2 sich ja dramatisch selbst in die Ecke stellen, einfach weil sie das Ding wie einen Intel konfigurieren wollten und dann böse waren, weil der 1.5VCore macht wenn er will...:rolleyes:

dargo
2020-10-18, 19:16:11
Unglaublich... jetzt taktet Vega sogar mit 2Ghz. X-D

mboeller
2020-10-18, 19:44:57
Unglaublich... jetzt taktet Vega sogar mit 2Ghz. X-D


bei max. 15w :)

Langlay
2020-10-18, 20:06:32
Nur macht der Scheduler das ja automatisch richtig mit den neuesten Updates. Ich hab 2 eher ähnlich starke CCD, und dennoch ist CCD1 deutlich häufiger 1 am arbeiten als CCD2.


Wenn man den Stock betreibt ist auch alles wunderbar, Und ich hab glaub ich auch ein Exemplar mit ungewöhnlich grossem Spread. Aber das ist halt was man einkalkulieren muss. Wenn ich jetzt einen 5800X kauf kann ich davon ausgehen, dass das CCD was dort verbaut ist wohl ganz brauchbar sein sein. Und man mit Allcoreoc eventuell was reissen kann.

Wenn man einen 5900X kauft wird schon schwieriger weil man 2 gute CCDs braucht und wenn man dort ein Sample wie mein 3900X kriegt ist halt essig mit Allcoreoc.

genervt
2020-10-18, 20:30:59
Spezifikationen der APUs der 5000-Serie auf Videocardz:
https://videocardz.com/newz/amd-ryzen-5000u-cezanne-lucienne-mobile-series-specifications-leaked

5800U mit 2,0-4,4GHz, 16mb L3$, Vega 8 2Ghz
5700U mit 1,8-4,3GHz, 8mb L3$, Vega 8 1,9Ghz
5600U mit 2,3-4,2GHz, 12mb L3$, Vega 7 1,8Ghz
5500U mit 2,1-4,0GHz, 8mb L3$, Vega 7 1,8Ghz
5400U mit 2,6-4,0GHz, 8mb L3$, Vega 6 1,6Ghz
5300U mit 2,6-3,85GHz, 4mb L3$, Vega 6 1,5Ghz

Also ca. 200mhz mehr als Renoir.
Gerade Zahlen mit Cezanne (Zen 3), ungerade Lucienne (Zen 2).
Warum gibt es denn überhaupt diese Zen2 APUs bei den 5000ern. Erschließt sich mir gerade nicht.

Unicous
2020-10-18, 20:54:43
AMD hat zu viele 7nm Produkte und nicht genug Kapazität und füllt die Produktions-Lücken mit Produkten die schon hergestellt werden, eine bessere Ausbeute haben, möglicherweise einen kleineren Die haben und dadurch günstiger herzustellen sind.

Das ist etwas uncool für den Kunden, weil es intransparent ist, verschiedene Architekturen in einer Generation zu mischen, aber im Endeffekt wird ihnen nichts anderes übrig bleiben. Dazu haben jetzt alle SKUs SMT. Das ist eine positive Entwicklung.

Savay
2020-10-18, 20:56:42
Anhand des Caches würde ich aber eher drauf tippen das nur der 5800 und 5600 wirklich Zen3 sind.

Unicous
2020-10-18, 21:03:15
Cezanne
100-0000000285
100-0000000287
100-0000000288

Lucienne
100-0000000371
100-0000000375
100-0000000376


Da bei dem 5400U die OPN auf Cezanne hinweist, ist anzunehmen, dass es Cezanne ist. Macht auch Sinn als Ausschuss-SKU.;)

basix
2020-10-18, 21:42:07
Warum gibt es denn überhaupt diese Zen2 APUs bei den 5000ern. Erschließt sich mir gerade nicht.

Das mit der Fertigung wurde schon angetönt. Das andere kann auch Lagerhaltung sein, mit so einem Lineup kann man die Chips smooth ausphasen. Desweiteren ist da SMT. Da Zen 3 +20% Leistung drauflegt, kann man bei allen SKUs SMT aktiviert lassen und erhält trotzdem noch eine sinnvolle SKU Positionierung. Beim 4700U musste SMT abgeschaltet werden, beim 5700U muss man das nicht mehr. Also 4C/8T, 6C/12T und 8C/16T aber 6 SKUs mit sinnvollen Abständen zueinander. Und durch den ganzen Produktstack durch +20% Performance. Bestehende Designs können mit "neuen" CPUs bestückt werden, weniger Aufwand für die OEMs.

Von der Leistung her wird man den Unterschied zwischen Zen 2 und 3 nicht wahnsinnig merken ausserhalb des normalen SKU Abstands von ca. 20%. Vermutlich das gleiche bei den Idle-Akkulaufzeiten. Die -U Prozessoren werden eher selten mit dGPUs gekoppelt, da limitiert bei der Grafikleistung die integrierte Vega GPU und nicht die CPU.

Anhand des Caches würde ich aber eher drauf tippen das nur der 5800 und 5600 wirklich Zen3 sind.
Der 5400U auch, der hat 8MB Cache bei 4 Cores.

Nightspider
2020-10-18, 22:47:17
Also hat Cezanne doppelt so viel L3 Cache wie Renoir.

Vielleicht wird der IPC Sprung von Renoir zu Cezanne sogar minimal größer als von Zen 2 zu Zen 3.

Vielleicht darf auch Vega etwas mit am L3 lutschen, um weniger an der Bandbreite zu hängen. ^^

Ravenhearth
2020-10-18, 23:13:05
RDNA2 hat ja AV1 Dekodierung, gilt das auch für die Vega in Cezanne? Und wenn ja, was ist mit Lucienne? Wäre schon komisch wenn der 5600U das in Hardware könnte, der 5700U aber nicht.

basix
2020-10-18, 23:21:06
Ich denke nicht, dass AV1 dabei ist, ausser Lucienne ist nicht der selbe Die wie Renoir (eher unwahrscheinlich). Feature-Parität übers Lineup hinweg ist schon wünschenswert.

Bei dem Lucienne/Cezanne Lineup ist es auch sinnvoller, dass beide Vega tragen und nicht ein Vega/RDNA2 Gemisch. Wir haben ja gerätselt, wieso Cezanne nur mit Vega kommt. Mit diesem Lineup, welches vermutlich von Anfang an so geplant wurde, macht das recht viel Sinn.

Zossel
2020-10-19, 07:10:28
Zen3 hat unter anderem Vector-AES Befehle: https://www.phoronix.com/scan.php?page=news_item&px=Znver3-Binutils-Support

Und auch PCID, das hat Intel in der ersten Meltdown Krise den Arsch gerettet.

Berniyh
2020-10-19, 08:26:35
RDNA2 hat ja AV1 Dekodierung, gilt das auch für die Vega in Cezanne? Und wenn ja, was ist mit Lucienne? Wäre schon komisch wenn der 5600U das in Hardware könnte, der 5700U aber nicht.
Cezanne hat VCN 2.2.0. Leider konnte ich jetzt auf die Schnelle nicht rausfinden welche Version Renoir hat, aber ich schätze die ist identisch.
Würde daher nicht davon ausgehen, dass bei Renoir AV1 implementiert wurde, das dürfte erst mit RDNA2 (VCN 3.0.x) der Fall sein.

Edit: die AV1 Definitionen wurden im Linux Kernel nur zu VCN 3.0 hinzugefügt, also dürfte das ein ziemlich sicheres Nein sein.
Könnte höchstens sein, dass die Definitionen für VCN 2.2 (also Cezanne) nachgereicht werden. Glaube aber nicht wirklich dran.

Savay
2020-10-19, 09:56:37
Zen3 hat unter anderem Vector-AES Befehle: https://www.phoronix.com/scan.php?page=news_item&px=Znver3-Binutils-Support


Also doch teile von AVX-512?!

davidzo
2020-10-19, 11:57:38
Hat eigentlich schon jemand diese schöne Aufbereitung der bisherigen Sandra Leaks von AMPISAK gepostet?

https://cdn.wccftech.com/wp-content/uploads/2020/10/AMD-Ryzen-5000-Zen-3-Desktop-CPU-Benchmarks_Ryzen-9-5950X-Ryzen-9-5900X-Ryzen-7-5800X_2.png

https://cdn.wccftech.com/wp-content/uploads/2020/10/AMD-Ryzen-5000-Zen-3-Desktop-CPU-Benchmarks_Ryzen-9-5950X-Ryzen-9-5900X-Ryzen-7-5800X_1.png

For the processor arithmetic tests, the Ryzen 9 5950X is around 9% faster than the Ryzen 9 3950X, the Ryzen 9 5900X is around 18% faster than the Ryzen 9 3900X while the Ryzen 7 5800X is around 20% faster than the Ryzen 7 3800X.

Moving over to the processor multi-media (Mpix/s) tests, here we see a vast improvement in CPU performance. The Ryzen 9 5950X is 25% faster than the Ryzen 9 3950X, the Ryzen 9 5900X is up to 35% faster than the Ryzen 9 3900X and even outpaces the Ryzen 9 3950X. The AMD Ryzen 7 5800X is a massive 42% ahead of its predecessor, the Ryzen 7 3800X, and even comes close to the 12 core Ryzen 9 3900X.


https://wccftech.com/amd-ryzen-9-5950x-ryzen-9-5900x-ryzen-7-5800x-zen-3-cpus-benchmarks-leak/

Der Multimedia-Score wundert mich da schon ein bisschen, solte AMD doch mehr an der FPU gemacht haben? Oder ist das bloß der Cache der hier voll durchschlägt?

5950X ist klar clock/TDP limitiert. Der basetakt liegt ja auch unter dem 3950x. Tendentiell scheinen die Zen3 Cores also doch etwas mehr zu verbrauchen. Vielleicht hätte AMD doch lieber noch mehr binning betreiben sollen und die top SKU noch um 3 Monate verschoben, wie noch beim 3950x.

HOT
2020-10-19, 12:03:25
Sieht ja fast so aus, als hätte man die FPU tatsächlich vergrößert, dazu gabs sehr früh schon Gerüchte.

MR2
2020-10-19, 12:15:17
"MP: Our focus on Zen 3 has been raw performance - Zen 2 had a number of areas of leadership performance and our goal in transitioning to Zen 3 was to have absolute performance leadership. That’s where we focused on this design - that does include floating point and so with the improvements that we made to the FP and our multiply accumulate units, it’s going to help vector workloads, AI workloads such as inferencing (which often run on the CPU). So we’re going to address a broad swatch all of the workloads. Also we’ve increased frequency which is a tide that, with our max boost frequency, it’s a tide that raises all boats. We’re not announcing a new math format at this time"

Was auch immer das aussagt..

https://www.anandtech.com/show/16176/amd-zen-3-an-anandtech-interview-with-cto-mark-papermaster

Denniss
2020-10-19, 12:51:09
Bei den angekündigten Leistungssteigerungen von Zen3 werden die Epycs/TRs nochmals eine gewaltige Schippe drauflegen können zu ihrer bisher schon brachialen Leistung im Mehrkernbereich.
Ist eigentlich bekannt wann der Zen3-TR erscheinen soll?

Tesseract
2020-10-19, 12:53:14
Also doch teile von AVX-512?!

jein. VAES gehört eigentlich zu AES (verschlüsselung) und hat mit AVX-512 nur indirekt zu tun. AVX-512 ist ein völliges chaos.

YfOrU
2020-10-19, 13:12:08
AMD hat zu viele 7nm Produkte und nicht genug Kapazität und füllt die Produktions-Lücken mit Produkten die schon hergestellt werden, eine bessere Ausbeute haben, möglicherweise einen kleineren Die haben und dadurch günstiger herzustellen sind.


Da hätte ich noch eine andere Theorie anzubieten:
Wenn wir davon ausgehen das Lucienne 1 zu 1 Renoir entspricht ist die APU Drop In kompatibel zu bestehenden Notebook Designs (FP6). Also einfache 5000er Refreshs für die OEMs. Bei Cezanne bin ich mir nicht mehr so sicher denn Lucienne bedient nicht nur Entry sondern ebenfalls das gesamte Line Up. Wenn man jetzt bedenkt das Renoir auf FP6 der dGPU nur 8 PCIe 3.0 Lanes zur Verfügung stellen kann ist es durchaus denkbar das AMD noch recht kurzfristig Änderungen an der Plattform vorgenommen hat welche neue PCBs erfordern. Dafür könnte dann Cezanne auch weiter oben mitspielen (Mobile Gaming) denn TGL-H bietet hier schon deutlichst mehr. Effektiv würden dann nur "neue" Designs Cezanne bekommen.

Hammer des Thor
2020-10-19, 13:25:27
Hat eigentlich schon jemand diese schöne Aufbereitung der bisherigen Sandra Leaks von AMPISAK gepostet?


5950X ist klar clock/TDP limitiert. Der basetakt liegt ja auch unter dem 3950x. Tendentiell scheinen die Zen3 Cores also doch etwas mehr zu verbrauchen. Vielleicht hätte AMD doch lieber noch mehr binning betreiben sollen und die top SKU noch um 3 Monate verschoben, wie noch beim 3950x.

Nö, die können dann einfach XT-Modelle nachschieben, beim 5950X dann auch mit 100 MHZ mehr Grundtakt!
Gerade jetzt gibt es ja den 3950X und deren potentielle Käufer dürften eher zum 5950X greifen.

Leonidas
2020-10-19, 13:44:54
Ist eigentlich bekannt wann der Zen3-TR erscheinen soll?


Leider nix. Bin auch erstaunt, das AMD bislang gar nix zu Zen 3 im Server-Bereich gesagt hat.

Leonidas
2020-10-19, 14:02:16
Dumme These:
Zen 3 Chiplets aus GF-Fertigung?

SKYNET
2020-10-19, 14:29:09
Im November gibts News zu Server.
Hintergrund ist man will jetzt erstmal Gaming im Fokus haben.
Server technisch gibt es eine ziemliche Überraschung ;D
Ich sag es mal Vorsicht so. AMD hat einen Weg gefunden den low-end Server Markt mit Dies zu vermixen die nicht NUR 7nm TSMC sind. Somit kann man wesentlich größere Marktanteile erreichen und ist nicht Kapazität eingeschränkt von TSMC



Ich kann nichts dazu sagen wie genau AMD das macht. Ich kann nur sagen das es unterschiedliche Milans gibt (High-Ends und Low-Ends) Und die Low-Ends nutzen nicht ausschließlich Zen3 TSMC 7nm.


lösch nur :tongue:


/Edit Leonidas:
Sorry für Edit. Habe allein die Quelle entfernt.

Opprobrium
2020-10-19, 14:32:02
Zen 3 Chiplets aus GF-Fertigung?

Samsung evtl. :uponder:

Pirx
2020-10-19, 14:34:18
ist doch jetzt schon "vermixt" mit den IO-Dies von GF

Berniyh
2020-10-19, 14:43:47
Samsung evtl. :uponder:
Ich tippe ja auf Intel 14nm++++++ :weg: :D

Leonidas
2020-10-19, 14:45:42
Am 28. Oktober, am Ende der RDNA2-Veranstaltung: One more thing ...

Cyberfries
2020-10-19, 14:48:28
Wenn hier schon Prozesse in den Raum geworfen werden:

GloFo hat doch was neues für Wearables: 22FDX mit Sweetspot bei 0,4Volt Spannung.
Computerbase hat zuletzt darüber berichtet, auch mit Ausblick auf 12FDX,
GloFo wollte angeblich kein Datum nennen....

(nicht zu ernst nehmen)

SKYNET
2020-10-19, 14:58:26
Wenn hier schon Prozesse in den Raum geworfen werden:

GloFo hat doch was neues für Wearables: 22FDX mit Sweetspot bei 0,4Volt Spannung.
Computerbase hat zuletzt darüber berichtet, auch mit Ausblick auf 12FDX,
GloFo wollte angeblich kein Datum nennen....

(nicht zu ernst nehmen)

32-kern zen3 ULV epycs? :freak:

mboeller
2020-10-19, 15:04:04
32-kern zen3 ULV epycs? :freak:

Wäre doch ein guter ARM-Konter ??

w0mbat
2020-10-19, 15:05:50
Ne, das wird der wahre Prozess für Zen4. IPC Steigerung um 378%, dafür nur 500MHz bei 0,4V.

Der_Korken
2020-10-19, 15:10:24
5950X ist klar clock/TDP limitiert. Der basetakt liegt ja auch unter dem 3950x. Tendentiell scheinen die Zen3 Cores also doch etwas mehr zu verbrauchen. Vielleicht hätte AMD doch lieber noch mehr binning betreiben sollen und die top SKU noch um 3 Monate verschoben, wie noch beim 3950x.

Dass der 5950X nur um 9% zulegt, spricht schon klar dafür. Bei Zen 2 hat selbst der 12-Kerner die 140W nicht wirklich nutzen können, weil der 3950X aus dem gleiche PPT >25% Mehrleistung rausgeholt hat, d.h. trotz 33% mehr Kerne nur 5-6% Takt verloren hat. Damit stimmen die +20% bei der Energieeffizienz auch nicht so ganz: Bei den Modellen, die vorher mit gefühlt offenem PT gelaufen sind (3800X/3900X) ist genug Platz für die fetten Cores, aber wo das PT vorher schon drückte, sinkt jetzt der Takt stärker ab und frisst einen Teil des IPC-Zuwachses wieder auf.

Das könnte zur Folge haben, dass wir im 15W-Bereich gar nicht so viel Steigerung sehen und dass Lucienne gar nicht so viel langsamer als Cezanne sein wird. Ansonsten sehe ich die Gefahr, dass der 5600U den 5700U kannibalisiert. Afaik wurde auch mal geleakt, dass Milan bei MT nur um 10-15% zulegen soll, während es bei ST 20-25% sein sollen. Das war schon ein Indikator dafür, dass die Kerne zwar schneller aber nicht so viel effizienter werden. Die MT-Effizienz wird wohl erst mit 5nm/Zen 4 wieder steigen. Ein Grund mehr, warum man für den Desktop länger auf Zen 3 setzt, weil es (außer beim 16-Kerner) einfach kaum was bringt zu shrinken.