Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020
DarknessFalls
2019-07-13, 16:46:37
ich finde es nur einfach merkwürdig, wenn die Preisanstiege von Intel und Nvidia einen Aufschrei produzieren, aber bei AMD ist es dann gerechtfertigt. Können wir bitte mal die Fanboy-Brillen weglassen und objektiv feststellen, dass die Preisanstiege der letzten Jahre weit über der Inflation liegen und nicht mit Preissteigerungen bei Entwicklung/Produktion/Materialeinkauf begründet werden können. .
Du überdramatisierst da jetzt aber gewaltig. Vergleich die Preise zwischen 1600, 2600 und 3600. Nimm 1700X, 2700X und 3700X. Wie oben erwähnt, so passt es. Und 3900X? Gab es bisher nur im High End. Nimm doch mal Releasepreise von 1920X und 2920X her. Was siehst Du dann?
Navi lässt sich wiederum tatsächlich diskutieren. Da es nicht die High-End-Lösung ist, ist der Preis im Vergleich zu Polaris tatsächlich gestiegen, Vega wäre nicht der Vorgänger. Ob es aber unverhältnismässig ist, sei dahingestellt.
reaperrr
2019-07-13, 16:50:11
Können wir bitte mal die Fanboy-Brillen weglassen und objektiv feststellen, dass die Preisanstiege der letzten Jahre weit über der Inflation liegen und nicht mit Preissteigerungen bei Entwicklung/Produktion/Materialeinkauf begründet werden können. Hier geht es um Gewinnmaximierung.
Objektiv wäre zu sagen, dass beides eine entscheidende Rolle spielt.
Der markierte Satz ist Quatsch, weil 7nm eben sehr wohl eine massive Kostensteigerung mit sich bringt. Sowohl bei Design-Fixkosten pro Chip, als auch Preisen pro Wafer. Die werden TSMC auch schön an AMD&Co weitergeben.
Zum Thema Gewinnmaximierung, AMD hat v.a. bei den Bulldozern und Derivaten aus Qualitäts-/Performance-Gründen (zu) billige Preise nehmen müssen, die die Firma fast in die Pleite getrieben hätten.
Das ist momentan eher eine Gewinnnormalisierung.
Die Preise pro Kern sind außerdem auch bei Zen2 noch massiv günstiger, als dies bis 2017 bei Intel der Fall war, und bei allem außer dem 3950X auch gegenüber den Zen1-Launchpreisen vor 2 Jahren. Und das trotz zusätzlich stark gestiegener IPC und moderat gestiegenen Taktraten.
Schnoesel
2019-07-13, 16:57:04
Es war noch nie so viel CPU leistung so günstig wie derzeit. Dass die Power manchmal nicht umgesetzt werden kann liegt unter anderem auch daran, dass die Software nicht hinterherkommt. Bei Spielen ist das besonders zu beobachten in Anwendungen sieht das teilweise ganz anders aus. Leute die Videoschnitt oder dergleichen machen, wo die Kerne ausgeschöpft werden sind wohl gerade im 7. Himmel was CPU Leistung und Preis angeht. Die Zeiten wo man für nen 10 Kerner 1500€ verlangen konnte sind vorbei.
Sunrise
2019-07-13, 17:45:17
Es war noch nie so viel CPU leistung so günstig wie derzeit. Dass die Power manchmal nicht umgesetzt werden kann liegt unter anderem auch daran, dass die Software nicht hinterherkommt. Bei Spielen ist das besonders zu beobachten in Anwendungen sieht das teilweise ganz anders aus. Leute die Videoschnitt oder dergleichen machen, wo die Kerne ausgeschöpft werden sind wohl gerade im 7. Himmel was CPU Leistung und Preis angeht. Die Zeiten wo man für nen 10 Kerner 1500€ verlangen konnte sind vorbei.
So siehts aus. Vor allem beim Encoden macht es sich extrem bemerkbar. Der 3950X ist ziemlich heftig, und wenn erst Threadripper kommt, gibts kein Halten mehr.
Das ist seit Opteron-Zeiten aktuell die beste Zeit, CPUs zu kaufen. Und wenn AMD so weitermacht bei GPUs, wird es hier wieder ebenso wieder einigermaßen vernünftige Preise für 80 oder mehr Prozent der Anwender geben.
myMind
2019-07-13, 18:15:07
ich finde es nur einfach merkwürdig, wenn die Preisanstiege von Intel und Nvidia einen Aufschrei produzieren, aber bei AMD ist es dann gerechtfertigt. Können wir bitte mal die Fanboy-Brillen weglassen und objektiv feststellen, dass die Preisanstiege der letzten Jahre weit über der Inflation liegen und nicht mit Preissteigerungen bei Entwicklung/Produktion/Materialeinkauf begründet werden können. Hier geht es um Gewinnmaximierung.
https://www.3dcenter.org/news/ryzen-3000-launchreviews-die-anwendungs-performance-im-ueberblick
~30% bis 45% mehr Anwendungsperformance für's gleiche Geld.
https://www.3dcenter.org/news/radeon-rx-5700-xt-launchreviews-die-wqhd-performance-im-ueberblick
~8% bis 10% mehr Leistung für's gleiche Geld.
Macht für mich schon einen Unterschied, ob eine Firma mit jeder neuen Hardwaregeneration durch geschicktes Marketing in neue Preisdimensionen vorstößt (Intel, nVidia) oder für's gleiche Geld mehr Leistung bietet als die Konkurrenz (AMD). AMD hängt da einfach nur dran. Letztlich profitieren sie von dem was Intel und nVidia da anrichten, aber ursächlich ist es das geschickte Marketing der Marktführer, dass die Preise treibt. Insbesondere die Marktsegmentierung leistet hier ganze Arbeit. Die Aufpreise für technisch simple Features wie ECC sind doch absurd. Wenn AMD Martkführer wäre, dann würden sie es wahrscheinlich genauso machen, aber das ist eigentlich nicht der Punkt. Die Preistreiberei geht nur weil die Marktsituation so kaputt ist. Was Intel sich da teilweise erlauben kann, ist doch unfassbar. Im Office-Bereich haben sie bis heute nicht auf die Ryzen-APUs von AMD reagiert. Sie haben die Endverbraucher-Preise einfach so gelassen als ob nicht passiert wäre, obwohl Null konkurrenzfähig. Wie kann sowas möglich sein?
SKYNET
2019-07-14, 22:45:09
Ryzen 2000 Serie:
8-Kern 105Watt Top-Dog ist der 2700x, UVP 319 €
2700, 8-Kerne, 65Watt, UVP 299€
Ryzen 3000 Serie:
8-Kern 105Watt Top-Dog ist der 3800x, UVP 429 €
3700x, 8-Kerne, 65Watt, 349 €
Polaris 590: 2304 Shader, 8 GB, UVP 249 €
Polaris 580: 2304 Shader, 8 GB, UVP 199 €
Navi 5700XT: 2560 Shader, 8 GB, UVP 419 €
Navi 5700: 2304 Shader, 8 GB, UVP 369 €
Alle UVPs jeweils zum Marktstart aus den Computerbase-Reviews abgepinnt.
Keine Preiserhöhung??? Das ist kein Vorwurf, sondern einfach Fakt.
preiserhöhung? also die neuen sind günstiger als die alten(zum teil)... 1800X war 499... 3800X deutlich günstiger.
Armaq
2019-07-15, 13:35:29
Vor allem in Hinblick auf Preis zu Leistung, sind die aktuellen Prozessoren sicherlich noch in Ordnung.
Unrockstar
2019-07-15, 14:02:07
Du überdramatisierst da jetzt aber gewaltig. Vergleich die Preise zwischen 1600, 2600 und 3600. Nimm 1700X, 2700X und 3700X. Wie oben erwähnt, so passt es. Und 3900X? Gab es bisher nur im High End. Nimm doch mal Releasepreise von 1920X und 2920X her. Was siehst Du dann?
Wenn man schaut wieso Intel die Preise senkt, merkt es selbst ein blinder.Nur manch Forist nicht xD Das P/L des 3600 ist so gut, dass man damit den 3600X obsolet macht
Lehdro
2019-07-19, 22:31:57
Da hier dazu noch nichts steht: Es scheint so als ob Threadripper 3000 ab Oktober den HEDT Sektor erobern will. (https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Threadripper-Dritte-Generation-im-Oktober-1295108/) Passend dazu soll auch Intel einen weiteren Refresh von Skylake-X vorbereiten.
Wenn TR 3000 auch nur annähernd die Taktraten von Ryzen 3000 erreicht, steht der Sieger schon fest, da Intel maximal mit AVX 512 und leicht erhöhten Taktraten kontern kann - dort haben sie aber schon heute Probleme gegen AMD und sind arg TDP-begrenzt. Die Single Core Performance wird maximal leicht höher als beim 3950X sein, vielleicht sogar nur gleichauf. Bei IPC als auch Corecount ist AMD in jedem Falle in Front, das beweist Ryzen 3000 ja schon. Preismäßig wird AMD wohl nach oben gehen, allerdings unter Intel bleiben wollen oder mehr Kerne zum selben Preis anbieten (analog zu Ryzen 3000). Die Effizienzkrone wird an AMD gehen, ebenso die absolute Leistungskrone (32-48-64 Cores locker möglich, bei Intel nur 18, mit dem W3175X sogar 28), dort oben wird sich das AMD aber wirklich vergolden lassen. Kompatibilität zu X399 sollte gesetzt sein, allerdings bei den höheren SKUs abhängig vom Board, da dort ganz andere Lasten zu schultern sind. TR 3000 wird zudem mit der Problematik der unterschiedlichen Latenzen aufräumen, da dank I/O Die überall (ausgenommen innerhalb der CCX) die gleichen, im Vergleich zu TR 1000 & 2000, deutlich niedrigeren Latenzen herrschen. Mehr Bandbreite gibts noch dazu oben drauf, denn 3200er Memorysupport sollte ebenso an Bord sein.
ChaosTM
2019-07-19, 23:03:07
Er spekuliert sogar mit einem Dual Sockel TR Brett.
KKkCVHtpKRU
Ziemlicher Fanboy , lag aber in letzter Zeit oft richtig.
add.: Igors Lab kommt auch vor
Gebrechlichkeit
2019-07-19, 23:22:50
AMD Quad FX (https://techreport.com/review/11353/amds-quad-fx-platform/)
Lehdro
2019-07-20, 00:06:49
Er spekuliert sogar mit einem Dual Sockel TR Brett.
Ziemlicher Fanboy , lag aber in letzter Zeit oft richtig.
Finde ich Schwachsinn. Intel hat Glück wenn AMD nur den 32 Kerner TR bringt, geschweige denn 48c. Was sollte AMD mit einem Dual Sockel TR machen? Das was er da beschreibt, passt eher in die Serversparte, für den derzeitigen HEDT Markt wäre das so krasser Overkill dass das wahrscheinlich niemand bezahlen könnte - immerhin würde AMDs minimaler HEDT Markt (selbst Intels ist klein im Vergleich zu Workstation/Server/Desktop) das alles alleine bezahlen. Das passt gar nicht in AMDs "high margin" Strategie die man mit 7nm fahren muss.
SKYNET
2019-07-20, 00:47:51
Finde ich Schwachsinn. Intel hat Glück wenn AMD nur den 32 Kerner TR bringt, geschweige denn 48c. Was sollte AMD mit einem Dual Sockel TR machen? Das was er da beschreibt, passt eher in die Serversparte, für den derzeitigen HEDT Markt wäre das so krasser Overkill dass das wahrscheinlich niemand bezahlen könnte - immerhin würde AMDs minimaler HEDT Markt (selbst Intels ist klein im Vergleich zu Workstation/Server/Desktop) das alles alleine bezahlen. Das passt gar nicht in AMDs "high margin" Strategie die man mit 7nm fahren muss.
warum nicht zahlen könnte? 64 kerner wird sich bei +/- $3200 bewegen, das board dürfte um die 1000 kosten... brauch man noch speicher, 16x 32GB 3200er der mit 6400 zubuche schlägt... bei intel bekommst für die ganze kohle nicht mal ne CPU mit 28 kernen: https://geizhals.eu/intel-xeon-platinum-8280l-cd8069504228201-a2035714.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Lehdro
2019-07-20, 01:19:27
warum nicht zahlen könnte? 64 kerner wird sich bei +/- $3200 bewegen, das board dürfte um die 1000 kosten... brauch man noch speicher, 16x 32GB 3200er der mit 6400 zubuche schlägt... bei intel bekommst für die ganze kohle nicht mal ne CPU mit 28 kernen: https://geizhals.eu/intel-xeon-platinum-8280l-cd8069504228201-a2035714.html?hloc=at&hloc=de&hloc=eu&hloc=pl&hloc=uk
Es geht nicht um den möglichen 64 Kerner, sondern die fabulierte 64 Core + 2t Sockel mit spezialisierten Rechenkernen (machine learning etc) Lösung aus dem Video. Sowas würde wohl weit über 10k kosten. Ist halt Schwachsinn, wenn sowas kommt, dann zuerst für EPYC. Threadripper wird immer ein zusammengeschnippelter EPYC bleiben, mit weniger Speicherkanälen und evtl. nun auch weniger PCIe Lanes (trotzdem immerhin 64) da EPYC 2.0 dort deutlich zulegt.
Zossel
2019-07-20, 10:57:16
Es geht nicht um den möglichen 64 Kerner, sondern die fabulierte 64 Core + 2t Sockel mit spezialisierten Rechenkernen (machine learning etc) Lösung aus dem Video. Sowas würde wohl weit über 10k kosten. Ist halt Schwachsinn, wenn sowas kommt, dann zuerst für EPYC.
Eine Entwicklungsplattform für den Atombombencomputer den AMD demnächst ans Militär liefern will würde schon Sinn machen. Es gab vor ein paar Tagen schon Patches für die neuen FP-Monster von AMD für Linux.
Um erste Erfahrungen mit der HW zu machen und um die Software rechtzeitig an den Start zu bekommen bietet sich sich die TR-Plattform an. Multiple Sockel kann man den später angehen.
Je früher (auch ohne multiple Sockel) sowas lieferbar wäre umso besser, um Software schneller auf diese Plattform anpassen zu können. Je mehr angepasste Software es gibt umso mehr und umso schneller würden sich auch kleinere Versionen des Atombombencomputers von AMD verkaufen.
drmaniac
2019-07-20, 12:38:51
Da hier dazu noch nichts steht: Es scheint so als ob Threadripper 3000 ab Oktober den HEDT Sektor erobern will. (https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Threadripper-Dritte-Generation-im-Oktober-1295108/) Passend dazu soll auch Intel einen weiteren Refresh von Skylake-X vorbereiten.
Wenn TR 3000 auch nur annähernd die Taktraten von Ryzen 3000 erreicht, steht der Sieger schon fest, da Intel maximal mit AVX 512 und leicht erhöhten Taktraten kontern kann - dort haben sie aber schon heute Probleme gegen AMD und sind arg TDP-begrenzt. Die Single Core Performance wird maximal leicht höher als beim 3950X sein, vielleicht sogar nur gleichauf. Bei IPC als auch Corecount ist AMD in jedem Falle in Front, das beweist Ryzen 3000 ja schon. Preismäßig wird AMD wohl nach oben gehen, allerdings unter Intel bleiben wollen oder mehr Kerne zum selben Preis anbieten (analog zu Ryzen 3000). Die Effizienzkrone wird an AMD gehen, ebenso die absolute Leistungskrone (32-48-64 Cores locker möglich, bei Intel nur 18, mit dem W3175X sogar 28), dort oben wird sich das AMD aber wirklich vergolden lassen. Kompatibilität zu X399 sollte gesetzt sein, allerdings bei den höheren SKUs abhängig vom Board, da dort ganz andere Lasten zu schultern sind. TR 3000 wird zudem mit der Problematik der unterschiedlichen Latenzen aufräumen, da dank I/O Die überall (ausgenommen innerhalb der CCX) die gleichen, im Vergleich zu TR 1000 & 2000, deutlich niedrigeren Latenzen herrschen. Mehr Bandbreite gibts noch dazu oben drauf, denn 3200er Memorysupport sollte ebenso an Bord sein.
genial ;)
Ich hoffe auf 16 oder auch 24er TR CPUs, mit wesentlich höherer TDP als beim 3950X um quasi mindestens die SC Leistung des 3950X zu haben, aber noch höhere MC Leistung...(wenn TR bei 32 Cores einsteigt, wird der im Gaming wohl ggü. dem 3950x zurückfallen)
Dazu mehr PCIe Lanes und min. 8 Ram Slots.
Btw:
https://www.pcgameshardware.de/RAM-Hardware-154108/News/Corsair-stellt-Speicher-Kits-mit-32-GiByte-Modulen-und-neue-16-GiByte-Dual-Kits-vor-1295209/
256 GB ab 1.259 Euro ;D
mboeller
2019-07-20, 13:14:39
Er spekuliert sogar mit einem Dual Sockel TR Brett.
https://youtu.be/KKkCVHtpKRU
Ziemlicher Fanboy , lag aber in letzter Zeit oft richtig.
add.: Igors Lab kommt auch vor
der für mich wichtigste Part in dem Video sind wohl die APU's. Wenn die ZEN2 APUs wirklich schon in Q4 kommen dann sollte das AMD bei den OEMs wirklich helfen.
SKYNET
2019-07-20, 13:28:01
der für mich wichtigste Part in dem Video sind wohl die APU's. Wenn die ZEN2 APUs wirklich schon in Q4 kommen dann sollte das AMD bei den OEMs wirklich helfen.
ich spekuliere mal: 16CU navi inside :)
ChaosTM
2019-07-20, 14:24:31
der für mich wichtigste Part in dem Video sind wohl die APU's. Wenn die ZEN2 APUs wirklich schon in Q4 kommen dann sollte das AMD bei den OEMs wirklich helfen.
Absolut.
Bei Dell oder HP Fuß fassen zu können wäre langfristig extrem wichtig.
Für Gelegenheitsspieler sollte das völlig ausreichen. Man hat dann halt einen PC mit PS4Pro Leistung oder knapp darüber. (falls ich mich da nicht irre)
reaperrr
2019-07-20, 14:46:28
ich spekuliere mal: 16CU navi inside :)
Erstens sprechen die Gerüchte doch davon, dass Renoir noch Vega haben soll, zweitens wäre alles über 8 Navi-CUs allein schon wegen des Bandbreitenlimits kompletter Overkill. Selbst mit Navi's verbesserter DCC und vielleicht noch verdoppeltem GPU-L2$ sind bei gleichem RAM-Takt vielleicht ~20-25% mehr GPU-Leistung als bei 2400G/3400G drin bevor man wieder ins Bandbreitenlimit rennt. Mehr gibt die Platform ohne HBM oder ähnliches nicht her, und das ist nach wie vor VIEL zu teuer für Mainstream.
Einen Durchbruch bei der IGP-Performance werden wir m.E. erst dann sehen, wenn AMD (oder Intel...) bei den APUs auf Die-Stacking setzt und einen schnellen, evtl. selbst designten Speicher-Chip unter oder über die APU setzt. Und ich gehe stark davon aus, dass das für Renoir noch nicht der Fall sein wird.
w0mbat
2019-07-20, 14:48:22
APUs werden erst mit DDR5 wieder wirklich einen Sprung machen.
Desktop ja. Bei den mobilen liegt noch viel drin wenn man sich den 15W Bereich anschaut, erstens wegen dem Powerlimit und zweitens weil es mit LPDDR4x und LPDDR5 effizientere Alternativen gibt, die deutlich über DDR4 JEDEC gehen können. Auch die Speicherkompression von GPUs wird eigentlich jede Generation verbessert.
SKYNET
2019-07-20, 15:18:51
Desktop ja. Bei den mobilen liegt noch viel drin wenn man sich den 15W Bereich anschaut, erstens wegen dem Powerlimit und zweitens weil es mit LPDDR4x und LPDDR5 effizientere Alternativen gibt, die deutlich über DDR4 JEDEC gehen können. Auch die Speicherkompression von GPUs wird eigentlich jede Generation verbessert.
LPDDR4X geht doch laut jedec bis 4266 wenn ichs recht im kopf habe?
LPDDR4X geht doch laut jedec bis 4266 wenn ichs recht im kopf habe?
https://www.samsung.com/semiconductor/dram/lpddr4x/ ("the highest 4266 Mbit/s speed grade")
Jap
M.f.G. JVC
reaperrr
2019-07-20, 15:32:54
LPDDR4X geht doch laut jedec bis 4266 wenn ichs recht im kopf habe?
Richtig, und DDR4 geht laut jedec nur bis 3200.
mboeller
2019-07-20, 15:38:14
Erstens sprechen die Gerüchte doch davon, dass Renoir noch Vega haben soll,
Renoir =/ ZEN2 (**)
Deshalb fand ich das Video ja so interessant. :)
**: falls die Gerüchte zu Renoir stimmen.
edit:
https://www.reddit.com/r/Amd/comments/aemjjb/amd_nextgen_apu_renoir_uses_vega_graphics_gfx9/
https://www.techquila.co.in/7nm-zen-2-amd-ryzen-apus-renoir/
liest sich für mich eher so als wie wenn Renoir ein 7nm Picasso ist, also eher ZEN1+ / Ryzen2000
LPDDR4X geht doch laut jedec bis 4266 wenn ichs recht im kopf habe?
Ja genau. Die mobilen "APUs" laufen dagegen nur mit DDR4-2400/2666.
Screemer
2019-07-20, 16:20:04
Renoir =/ ZEN2 (**)
Deshalb fand ich das Video ja so interessant. :)
**: falls die Gerüchte zu Renoir stimmen.
edit:
https://www.reddit.com/r/Amd/comments/aemjjb/amd_nextgen_apu_renoir_uses_vega_graphics_gfx9/
https://www.techquila.co.in/7nm-zen-2-amd-ryzen-apus-renoir/
liest sich für mich eher so als wie wenn Renoir ein 7nm Picasso ist, also eher ZEN1+ / Ryzen2000
völlig sinnfrei noch mal ein weiteres coredesign für 7nm aufzulegen.
BoMbY
2019-07-20, 16:32:27
Ich denke eher die Zen2-APUs werden nur den halben Cache der Zen2-CPUs haben, aber eventuell reicht es dann sogar für bis zu 8c/16t mit ~16 CUs ohne vom Die her größer als Raven/Picasso zu werden.
MSABK
2019-07-20, 16:38:38
Ich denke eher die Zen2-APUs werden nur den halben Cache der Zen2-CPUs haben, aber eventuell reicht es dann sogar für bis zu 8c/16t mit ~16 CUs ohne vom Die her größer als Raven/Picasso zu werden.
Würde ein großer Cache (128MB z.B) wie bei den Intel Chips die Performance nicht massiv erhöhen? Somit könnte man sich ja Luft verschaffen wegen der Limitierten Speicherbandbreite.
mczak
2019-07-20, 17:07:22
Würde ein großer Cache (128MB z.B) wie bei den Intel Chips die Performance nicht massiv erhöhen? Somit könnte man sich ja Luft verschaffen wegen der Limitierten Speicherbandbreite.
Damit das der GPU hilft müsste der Cache ausserhalb der CCX sein. Dass AMD da sowas baut sehe ich zur Zeit nicht.
(Den Cache innerhalb der GPU kann man dagegen sicher vergrössern, nicht sicher was RR da hat aber glaube es ist nicht allzu viel. Icelake hat da z.B. zugelegt gegenüber Skylake von 768kB auf 3MB - diese Menge findet man sonst eher in High-End GPUs, sollte aber für Renoir problemlos machbar sein braucht ja nicht allzuviel Fläche.)
BoMbY
2019-07-20, 18:01:32
Man könnte sicher eine Monster-APU bauen, wie für die Konsolen, aber dafür gibt es im Moment scheinbar keinen Markt.
Bei den Zen2-CCX sieht es jedenfalls so aus als würde der L3-Cache etwa 2/3 der Fläche ausmachen.
Locuza
2019-07-20, 18:19:20
Damit das der GPU hilft müsste der Cache ausserhalb der CCX sein. Dass AMD da sowas baut sehe ich zur Zeit nicht.
(Den Cache innerhalb der GPU kann man dagegen sicher vergrössern, nicht sicher was RR da hat aber glaube es ist nicht allzu viel. Icelake hat da z.B. zugelegt gegenüber Skylake von 768kB auf 3MB - diese Menge findet man sonst eher in High-End GPUs, sollte aber für Renoir problemlos machbar sein braucht ja nicht allzuviel Fläche.)
1MB L2$ laut Hot-Chips-Präsentation*:
https://fuse.wikichip.org/wp-content/uploads/2018/08/hc30-amd-rr-block-768x387.png
https://www.hotchips.org/hc30/1conf/1.05_AMD_APU_AMD_Raven_HotChips30_Final.pdf
Carrizo soll 512KB gehabt haben und ich denke bei Kaveri waren es ebenso 512KB.
https://cdn.wccftech.com/wp-content/uploads/2015/08/AMD-Carrizo-APU_Graphics-Engine-740x416.jpg
*(Auf den Hot Chips Folien von Raven Ridge spricht AMD auf Seite 14 von vier mal mehr L2$ im Vergleich zu Bristol Ridge, was bedeutet das eine Angabe falsch ist, entweder die vierfache Größe oder 1MB L2$, ich denke es sind 1MB L2$ und damit nur eine doppelt so große Kapazität).
Lehdro
2019-07-24, 14:10:11
Erster Threadripper 3000 im Userbenchmark:
https://www.userbenchmark.com/UserRun/18683463
2950X vs der 16 Kern TR 3000 (https://cpu.userbenchmark.com/Compare/AMD-Ryzen-TR-2950X-vs-AMD-100-000000011-12/m569025vsm858271)
3900X vs der 16 Kern TR 3000 (https://cpu.userbenchmark.com/Compare/AMD-Ryzen-9-3900X-vs-AMD-100-000000011-12/4044vsm858271)
Hier mal meiner zum Vergleich, mit fixen 4.3 GHz. (https://www.userbenchmark.com/UserRun/17633425)
Scheint also doch wieder ein kleiner Threadripper zu kommen.
Complicated
2019-07-24, 14:37:04
Würde ein großer Cache (128MB z.B) wie bei den Intel Chips die Performance nicht massiv erhöhen? Somit könnte man sich ja Luft verschaffen wegen der Limitierten Speicherbandbreite.
Man darf hier nicht vergessen, dass Intel über seinen LLC die Cache Kohärenz für den gemeinsamen Speicherzugriff von CPU und iGPU realisiert hat. AMD macht das seit der ersten APU mittels RMB und FCH mit zusätzlichen Interconnects. Daher ist der Effekt bei Intel größer. L3 Cache kam ja erst mit der aktuellsten APU bei AMD hinzu,
][immy
2019-07-24, 15:53:36
APUs werden erst mit DDR5 wieder wirklich einen Sprung machen.
Das kann man schon bezweifeln, da auch die Kernanzahl von APUs zugenommen hat. Sind ja aktuell schon 4 Kerne und 8 Threads. Mit den nächsten APUs (und dann vielleicht auch mit DDR5 Speicher) werden es wohl auch deutlich mehr kerne werden, denn das untere Segment hat sich doch in den letzten Jahren deutlich hin zu mehr Kernen verschoben.
Mehr als 6 Kerne würden bei einer APU wohl kaum Sinn machen.
unl34shed
2019-07-24, 16:17:30
Doch 8 machen schon Sinn, ist aber architektur bedingt - 4 Core CCX -
irgendwann wird wieder die Package Power alles begrenzen. 8 Kerne mit mäßiger GPU Leistung werden nicht der Bringer sein.
dildo4u
2019-07-24, 16:57:59
Du brauchst den 8 Core mit IGP für Gameing Notebooks,du kannst die Akkulaufzeit vergessen wenn die externe GPU die ganze Zeit mitläuft.
Turing Notebook GPUs unterstützten immer noch Optimus zum umschalten von GPU auf IGP.
amdfanuwe
2019-07-24, 17:17:19
2C4T hat sich ja anscheinend jetzt schon gelohnt.
Könnte mir vorstellen, dass AMD für 2C4T, 4C8T, 8C16T jeweils eigene Chips in 7nm auflegt.
Anfang 2021 dann ein Refresh in 6nm.
5W APUs scheinen ja gefragt zu sein für 2000€ Chicki Micky Powerpoint / Internet Notebooks.
Renoir 4C8T wird der großen Masse noch lange genügen und für Embedded ein effizientes Replacement zu Picasso sein.
8C16T für diejenigen, die auch wirklich mit einem Notebook arbeiten müssen und als ergänzung zu Matisse.
8C16T als APU dürften etwas günstiger in der Fertigung sein als das Chiplet Design bei Matisse. Könnte dann im Desktop Single Chiplet CPUs ablösen und die Chiplets stehen gewinnbringenderen teureren CPUs zur Verfügung.
Ende 2021 sollte es dann mit 5nm, DDR5 oder gar mit Stacked APUs mit eigenem Speicher...
wie es Intel letztens angekündigt hat.
Vielleicht Kleben sie 2 Dies mit Igpu zusammen :confused:
(der "Chipsatz" ist eh schon "in der CPU")
M.f.G. JVC
SKYNET
2019-07-24, 22:29:49
Ja genau. Die mobilen "APUs" laufen dagegen nur mit DDR4-2400/2666.
was vollkommen bescheuert ist, gerade die IGP würde nen massiven boost erfahren, hat schon gründe warum intel zumindest auf 3733 gegangen ist für die neue mobil plattform.
MSABK
2019-07-24, 22:38:07
was vollkommen bescheuert ist, gerade die IGP würde nen massiven boost erfahren, hat schon gründe warum intel zumindest auf 3733 gegangen ist für die neue mobil plattform.
Dafür müsste doch AMD aber erst auf LPDDR gehen oder?
mczak
2019-07-24, 23:43:30
Dafür müsste doch AMD aber erst auf LPDDR gehen oder?
Das ist korrekt. Aber zumindest ddr4-3200 sollte gehen (kann ICL-U auch). Gibt es mittlerweile auch ohne factory-oc (d.h. mit Normalspannung, wobei die meisten Module mit dem Speed immer noch höhere Spannung haben).
SKYNET
2019-07-25, 00:27:58
Dafür müsste doch AMD aber erst auf LPDDR gehen oder?
die embedded ryzen haben schon 3200MHz, ggü 2400/2666 ist das auch schon nen guter sprung...
robbitop
2019-07-25, 12:12:47
irgendwann wird wieder die Package Power alles begrenzen. 8 Kerne mit mäßiger GPU Leistung werden nicht der Bringer sein.
Dank Power- und Clockgating heute alles kein Problem mehr. Kann man deaktivieren, kostet dann auch keinen Strom mehr.
Oder man läßt sie an und die heutigen modernen Boost Algorithmen kümmern sich darum, das best Mögliche aus der TDP zu holen. Nimmt die Anwendung weniger Threads, können weniger Kerne höher boosten. Nimmt sie viele Threads ist der Takt durch die TDP halt eingeschränkt.
Die Anzahl der Kerne ist auch im Mobilbereich nur eine Frage der Größe des Kerns und somit der Produktionskosten.
Aber jede neue Maske und Produktionslinie kostet auch wieder. Wenn die entsprechenden Stückzahlen da sind, lohnt es sich. Wenn nicht, deaktiviert man halt.
Wenn die entsprechenden Stückzahlen da sind, lohnt es sich. Wenn nicht, deaktiviert man halt.
Siehe "2080"-SUPER ....
M.f.G. JVC
Deinorius
2019-07-27, 14:46:46
Vielleicht Kleben sie 2 Dies mit Igpu zusammen :confused:
(der "Chipsatz" ist eh schon "in der CPU")
M.f.G. JVC
Stellt sich halt die Frage, was AMD eher machen wird. Einen monolithischen Die entwickeln, der sicher bessere Effizienzen liefert, oder wieder auf die Chiplets setzen, dafür aber einen I/O-Die mit iGPU in 7 nm entwickeln. Gäbe es eine weitere Methode? Wenigstens können sie jetzt auf bessere IPC setzen. Dann könnte AMD im mobilen Bereich endlich durchstarten, aber nur solange die Akkulaufzeit im selben Rahmen wie bei Intel ist.
Ravenhearth
2019-07-27, 14:59:05
Wenn der IO-Die eh 7nm wird, erscheint der Chiplet-Ansatz jedenfalls nicht mehr als so sinnvoll
Deinorius
2019-07-27, 15:15:34
An sich ja, außer man spart sich dennoch genug, da die Chiplets so oder so produziert werden. Auf der anderen Seite hätte der monolithische Ansatz immer noch die bessere Energie- und Temperatureffizienz. Und gerade im höherpreisigen Notebook-Segment wäre letzteres wichtiger.
amdfanuwe
2019-07-27, 15:30:00
Stellt sich halt die Frage, was AMD eher machen wird. Einen monolithischen Die entwickeln, der sicher bessere Effizienzen liefert, oder wieder auf die Chiplets setzen, dafür aber einen I/O-Die mit iGPU in 7 nm entwickeln.
Warum nicht beides?
Monolitisch 4C, Chiplet 6+ Cores.
Wenn der IO-Die eh 7nm wird, erscheint der Chiplet-Ansatz jedenfalls nicht mehr als so sinnvoll
Doch, jedes für sich ist kleiner und bietet somit besseren Yield. Zudem lassen sich Chiplets anderweitig noch verwenden, wo die schlechten verbaut werden können.
Letztendlich geht es nur um den Gewinn. AMD wird sich ausrechnen, was sie sich leisten können und mit welchem Design sie den meisten Gewinn realisieren werden.
Ging beim Bulldozer in die Hose und danach konnten sie sich erstmal keine vielfältigen Designs leisten. Das sieht jetzt wieder besser aus und AMD kann sich wieder mehrere Designs leisten. Ist wohl momentan eher ein Kapazitätsproblem der Entwicklungsabteilung, weshalb es sich so zieht von einem Chip zum nächsten.
Deinorius
2019-07-27, 15:59:01
Warum nicht beides?
Monolitisch 4C, Chiplet 6+ Cores.
Zwar grundsätzlich eine Möglickeit, aber ob AMD schon bereit dafür ist? Der monolithische Die wäre für Ultrabooks besser geeignet. Die Frage hier ist dann eher, ob der High-Performance Notebook Markt groß genug ist, als dass es sich für AMD lohnen würde, dann auch einen extra I/O/GPU-Die zu entwickeln. Vielleicht wäre ein 6-8C Ryzen 3000H ohne iGPU mit deren derzeitiger Strategie sinnvoller, auch wenn das grundsätzlich weniger Sinn macht.
Gepaart mit ner N14, warum nicht?
Renoir hat eh wieder nur 4 Kerne.
Piefkee
2019-07-27, 16:11:42
Gepaart mit ner N14, warum nicht?
Renoir hat eh wieder nur 4 Kerne.
Nope 8/6/4..😉
Hat der nicht. Der ist in erster Linie mobil und wird gegen Intels U gestellt. Mehr als 4 Kerne kannst vergessen. Auch der Cache wird wieder massiv gekürzt werden. Ich wette, der hat ein CCX mit nur noch 4 MB L3 und 14 CUs, das wars. Reines Mobilprodukt eben.
Wenn Vermeer tatsächlich größere CCX bringen sollte, gehts dann mal 2021 dann auf 6 hoch.
robbitop
2019-07-27, 16:32:42
Was hat die Anzahl der Kerne mit mobil oder nicht mobil zu tun? Power und Clockgating. Im 15W Bereich kann man ja ein paar Kerne/CUs dealtivieren. Im größeren Segment alles aufmachen.
MSABK
2019-07-27, 16:44:20
Ich tippe auf bis zu 8 Kerne im mobilen Bereich. Ryzen 3 bis Ryzen 9 mit jeweils 2, 4, 6 und 8 Kernen. Sie können ja nicht ewig bei 4 Kernen bleiben. Was genauso wichtig ist, endlich mal TB3 implementieren.
LasterCluster
2019-07-27, 17:12:01
Irgendwo muss ja auch noch Dali hin. Der ist ja unter Renoir als value mobile plaziert. Frage mich was es zu bedeuten hat, dass dieser mobile only ist. Schließlich herrscht ja auch prinzipiell Bedarf an billig APUs für office
reaperrr
2019-07-27, 18:21:45
Irgendwo muss ja auch noch Dali hin. Der ist ja unter Renoir als value mobile plaziert. Frage mich was es zu bedeuten hat, dass dieser mobile only ist. Schließlich herrscht ja auch prinzipiell Bedarf an billig APUs für office
Naja, den (nativen) 2C Raven kriegen wir ja bisher auch nirgends im Desktop zu sehen, das sind alles teildeaktivierte RR bzw. bald Picasso.
Wahrscheinlich unterm Strich günstiger, teildeaktivierte RR/Picasso/Renoir für die billigen Desktop-Athlons zu nehmen, als für ne relativ niedrige Zahl Chips mit niedriger Marge noch ein extra Desktop-Package aufzulegen.
Außerdem kann man auch innerhalb des gleichen Prozesses noch in den Fertigungsparametern variieren, gut möglich, dass Chips wie Dali einfach noch stärker auf wenig Leakage und höhere Effizienz in niedrigen bis mittleren Taktbereichen ausgelegt sind und dafür nicht so ohne weiteres Taktraten von 3,5Ghz+ mitmachen.
LasterCluster
2019-07-27, 19:19:17
Außerdem kann man auch innerhalb des gleichen Prozesses noch in den Fertigungsparametern variieren, gut möglich, dass Chips wie Dali einfach noch stärker auf wenig Leakage und höhere Effizienz in niedrigen bis mittleren Taktbereichen ausgelegt sind und dafür nicht so ohne weiteres Taktraten von 3,5Ghz+ mitmachen.
Interessanter Punkt! Könnte man so weit gehen und Dali in 7nm mobile fertigen?
... aber nur solange die Akkulaufzeit im selben Rahmen wie bei Intel ist.
Das sollten sie langsam hin bekommen ;)
(ich warte noch immer auf brauchbare integrierte Gaming Lösungen)
M.f.G. JVC
basix
2019-07-27, 20:00:56
Hmm wieso nicht 4C + GPU + I/O als Standard bei 7-25W und bei 35W+ kommt zusätzlich noch ein halbdefektes Chiplet mit 4C zum Einsatz. Das würde einem ausgewogenen und skalierbaren Design entsprechen. Der GMI Link kostet fast keine Fläche und auch nur moderat Energie. Dann hätte AMD sogar noch eine 12C APU in der Hinterhand, wenn man Intel kontern will.
Die Frage ist, ob sich das bei den vielleicht 25mm2 des zusätzlichen CCX lohnt, den nicht gleich mitzuintegrieren.
reaperrr
2019-07-27, 20:59:44
Hmm wieso nicht 4C + GPU + I/O als Standard bei 7-25W und bei 35W+ kommt zusätzlich noch ein halbdefektes Chiplet mit 4C zum Einsatz. Das würde einem ausgewogenen und skalierbaren Design entsprechen. Der GMI Link kostet fast keine Fläche und auch nur moderat Energie. Dann hätte AMD sogar noch eine 12C APU in der Hinterhand, wenn man Intel kontern will.
Die Frage ist, ob sich das bei den vielleicht 25mm2 des zusätzlichen CCX lohnt, den nicht gleich mitzuintegrieren.
Das Hauptproblem dürfte einfach sein, dass Chiplets mit IF verbunden werden müssen und du dadurch zu viel statischen Stromverbrauch selbst im Idle hast, um das ganze dann auch noch mit vernünftigen Taktraten in <=15W unterbringen zu können.
Selbst der 3600 mit nur einem CPU-Chiplet hat laut CB schon allein 15W mehr Idle-Verbrauch als ein 2400G: https://www.computerbase.de/2019-07/amd-ryzen-3000-test/4/#abschnitt_leistungsaufnahme_im_leerlauf_und_unter_last
Locuza
2019-07-27, 21:11:07
Der 3600 verbraucht im Leerlauf nur 5W (46W vs. 41W) bzw. 12% mehr, als der 2400G:
m Leerlauf zeigt Ryzen 3000 auf dem verwendeten Mainboard Asus Crosshair VIII Hero Wi-Fi geschlossen um die zehn Watt mehr Verbrauch als Ryzen 2000 auf dem Asus Crosshair VII Hero Wi-Fi. Der Mehrverbrauch ist allerdings der Platine zuzuschreiben, wie der Vergleich eines Ryzen 5 3600 auf altem X470-Mainboard (MSI X470 Gaming M7 AC) zeigt: Exakt 46 Watt sind es dann im Leerlauf und damit so viel wie die bisherigen CPUs auf den alten Mainboards.
Unicous
2019-07-27, 21:15:18
Warum den Fließtext lesen, wenn das die eigene Argumentation zerstört.:freak:
reaperrr
2019-07-27, 22:29:11
Warum den Fließtext lesen, wenn das die eigene Argumentation zerstört.:freak:
Jetzt verwechsel Schlampigkeit nicht mit Absicht, ich habe schlicht nicht dran gedacht, dass die Zeiten, in denen alle CPUs einer Marke (so weit möglich) auf dem gleichen Board getestet wurden, um die Vergleichbarkeit zu gewährleisten, leider vorbei sind :rolleyes:
Für den 15W-Bereich wären außerdem auch 5W Unterschied im Idle schon zu viel.
Unicous
2019-07-27, 22:34:18
Was für ein Vergleich.:rolleyes:
Erstens gibt es momentan keine Chiplet-Designs in diesem Bereich, dafür ist Raven Ridge/Picasso zuständig, 2. gäbe es da eh keinen externen Chipsatz und 3. wäre I/O deutlich abgespeckt, was die Leistungsaufnahme weiter drosselt.
Also bitte nicht die Torpfosten verschieben, das Eigentor geht trotzdem rein.:wink:
Locuza
2019-07-27, 23:07:58
Jetzt verwechsel Schlampigkeit nicht mit Absicht, ich habe schlicht nicht dran gedacht, dass die Zeiten, in denen alle CPUs einer Marke (so weit möglich) auf dem gleichen Board getestet wurden, um die Vergleichbarkeit zu gewährleisten, leider vorbei sind :rolleyes:
[...]
Ja, dass war indem Fall leider nicht möglich bzw. nicht ohne andere Vorbehalte.
Denn offiziell unterstützen die X570-Boards nicht Zen1:
https://www.pcgameshardware.de/screenshots/original/2019/07/ug2ahg9soo031-pcgh_b2article_artwork.jpg
Funktioniert hat das dennoch bei CB und PCGH (Hier nach einem BIOS-Update nicht mehr, keine Ahnung ob jetzt wieder), aber um auf der sicheren Seite zu sein hat man den offiziellen Angaben nach getestet.
Ebenso gab es die Aussage das Zen+ auf X570 erst später optimiert wird.
Und auf der anderen Seite waren die BIOS-Versionen für X470-Boards nicht ausgereift für Zen2-Support und erst zum Launch gab AMD die neuste AGESA-Version frei.
Auf einem Asus Crosshair VII Hero Wi-Fi (X470) lief der Ryzen 9 3900X mit BIOS 2304 zwar mit den richtigen Taktraten, der RAM wollte aber nicht über DDR4-2400 gehen – egal welche Einstellung vorgenommen wurde
Der Ryzen 7 3700X zeigte auf dieser Platine in den Anwendungen daraufhin die identische Leistung, Unterschiede unterliegen der Messungenauigkeit. Sowohl die Platine von MSI als auch die von Asus benötigte unter Windows 10 allerdings mehr Strom als der Rechner mit X570 – das entspricht nicht den Erwartungen.
" R3000@X470 und R2000@X570 werden erst nach dem Launch optimiert sobald AGESA 1003 (oder neuer) verfügbar sind."
Aussage eines Mainboard-Herstellers
https://www.computerbase.de/2019-07/amd-ryzen-3000-test/5/
Deswegen war es am Ende X470 für die älteren Zen-CPUs und X570 für Zen2.
PS: Das soll jetzt keine Dresche sein, ich merke es nur an. :)
spotz
2019-07-28, 19:48:47
Interessanter Punkt! Könnte man so weit gehen und Dali in 7nm mobile fertigen? Bestimmt - was immer Dali auch werden soll. Bis jetzt kenne ich dazu nur die Beschreibung "Value Mobile APU" aus der Roadmap. Das könnte eine 5 Watt APU wie Intels Gemini Lake sein oder ganz was anderes.
LasterCluster
2019-07-28, 21:30:50
Bestimmt - was immer Dali auch werden soll. Bis jetzt kenne ich dazu nur die Beschreibung "Value Mobile APU" aus der Roadmap. Das könnte eine 5 Watt APU wie Intels Gemini Lake sein oder ganz was anderes.
2c/4t braucht man in 7nm nicht mehr, 8c/16t ist nicht Value. Also kann man wohl von 4c/8t monolithisch mit wahrscheinlich wenig cash/CUs/IO ausgehen.
Renoir dann 8c/16t, wobei ich bei einem chiplet design eher skeptisch bin
amdfanuwe
2019-07-29, 11:38:10
2c/4t braucht man in 7nm nicht mehr,
Das bezweifle ich mal. Wird auch in Zukunft genügend embedded Geräte geben, die nur wenig Leistung benötigen (IoT) und noch weniger verbrauchen sollen.
Ist dann nur eine Kostenfrage, ob sich dafür ein eigener Chip lohnt.
Käsetoast
2019-07-29, 14:21:24
Das bezweifle ich mal. Wird auch in Zukunft genügend embedded Geräte geben, die nur wenig Leistung benötigen (IoT) und noch weniger verbrauchen sollen.
Ist dann nur eine Kostenfrage, ob sich dafür ein eigener Chip lohnt.
Da sehe ich aber eher irgendwelche kleinen ARM Chips vorne. Die haben auch eine ganz ordentliche Leistung und sind stromsparender und kleiner als ein x86 Desktop Chip mit seinen im Vergleich riesigen Caches & Co. Ich denke in diesem "Low End" Leistungsbereich braucht man mit Architekturen die für Performance Desktop x86 Anwendungen gedacht sind nicht zu konkurrieren. Ich denke das haben sowohl AMD als auch Intel inzwischen eingesehen...
amdfanuwe
2019-07-29, 15:14:17
Schau dir mal an, was in Geldautomaten, Fahrkartenautomaten etc. steckt. Die embedded Welt ist groß.
Complicated
2019-07-29, 17:04:30
Der Mythos ARM wäre für Lowend geeigneter ist schon lang widerlegt. Es hängt ausschließlich von der Implementierung ab wie durstig die Chips sind. Auch x86 kann ohne große Caches funktionieren.
aufkrawall
2019-07-29, 17:16:39
Ich hoffe, damit meinst du nicht Gemini Lake?
ChaosTM
2019-07-29, 17:33:16
Wenn man momentan "ARM Macbook" googelt könnte man fast glauben das da was dran ist .. ;)
Der Switch wird kommen. Schön langsam von unten nach oben.
Das hätte in den Intel thread gehört. Sorry. Vielleicht kanns wer verschieben.
ARM ist kein Allheilmittel und hat selbst genug Nachteile. Und von der anderen Seite her stuerzen sich u.A. die Chinesen auf Risc-V. Es ist ja gut moeglich, dass das ARM mittelfristig den Rang ablaeuft.
Käsetoast
2019-07-30, 00:43:48
Schau dir mal an, was in Geldautomaten, Fahrkartenautomaten etc. steckt. Die embedded Welt ist groß.
Klar - gerade wenn man auch an Spieleautomaten denkt, die vielleicht ein wenig mehr Grafik Bling Bling brauchen ist AMD & Co schon ganz gut dabei. Wenn ich an die ganz kleinen IoT denke, dann führt da eigentlich kaum was an SBCs wie dem Raspberry Pi vorbei - wenn man sich die Preise von x86 SBCs anguckt dann liegen da schon Welten dazwischen und wenn es um's reine Datenübertragen und vielleicht ein wenig Datenverarbeitung geht, dann sind die modernen ARM Chips schon sehr stark...
Der Mythos ARM wäre für Lowend geeigneter ist schon lang widerlegt. Es hängt ausschließlich von der Implementierung ab wie durstig die Chips sind. Auch x86 kann ohne große Caches funktionieren.
Ich denke es geht da vor allem um den Preis. Wenn ich mir da die bestehenden SBCs angucke, dann sind die günstigeren Geräte alles ARM Geräte. SBCs mit x86 (alte Intel SOCs aus den Tablets) gibt es inzwischen zwar auch, spielen preislich aber in einer anderen Liga und jetzt wo man mit einem Raspberry Pi für Kleingeld sogar leidlich gut im Internet surfen kann & Co gibt es jetzt auch nicht sooo viele Einsatzgebiete wo die CPU Leistung von ARM zu gering ist...
Grundsätzlich sehe ich bei ARM aber zwei Dinge kritisch: Während die den CPU Bereich die letzten Jahre eigentlich prima ausbauen, so sieht es hinsichtlich der GPUs noch ein wenig mau aus, wobei ich da in erster Linie noch den Treibersupport ansehe. Unter Linux gibt es ja nicht umsonst das Panfrost Projekt und auch die proprietären Userspace Treiber sollen nicht so das Gelbe vom Ei sein...
Was aber sehr interessant ist: Momentan kommen ja Gerüchte auf, dass ARM ggf. auch eine Desktop GPU entwickelt. Da gab es zumindest ein Gerücht in der Richtung das von jemandem kommen soll, der an Unity und UE4 Engine Optimierungen für ARM arbeitet. Das wäre dann sehr interessant, denn ARM CPU mit gescheiter GPU das hätte schon was...
ARM ist kein Allheilmittel und hat selbst genug Nachteile. Und von der anderen Seite her stuerzen sich u.A. die Chinesen auf Risc-V. Es ist ja gut moeglich, dass das ARM mittelfristig den Rang ablaeuft.
Da sehe ich die Treiber noch als Problem. Bei den SBCs gibt es zwar z.B. Rockchip die an und für sich gute ARM Produkte auflegen, nur hapert es dann sehr häufig an den Treibern wenn man das was die Dinger können auch einfach mal nutzen will und das ggf. dann eben nicht unter einem Android Betriebssystem. Bei Risc-V sehe ich die Lage da eher noch schlechter...
robbitop
2019-07-30, 09:19:01
Das ARM Instruction set soll bzgl decoder doch ein Stück weit energieeffizienter sein.
Aktuell ist ein Quervergleich schwierig. Wenn es wirklich ein Macbook mit ARM SoC geben sollte, kann man da etwas genauer hinsehen und vergleichen.
Cache ist auf jeden Fall sinnvoll, um Energie einzusparen. Datenlokalität spart Energie.
1.) Renoir ist ja fast ein reines OEM-Produkt. 8 Kerne sind hier illusorisch mMn.
2.) man kann ein x86-Frontend sicherlich genauso sparsam bauen, wenn man das wirklich will. Den Anbietern dafür (Intel, AMD) fehlt mMn einfach das KnowHow dafür, dass sich Qualcomm und ARM dafür angeeignet haben.
robbitop
2019-07-30, 10:25:45
Da gab es mal ein Paper / Fachbeitrag der beschrieb dass x86 vom Instructionset zu aufwändigeren Decodern führt, was sich auch energetisch niederschlägt.
Warum illusorisch? Ein CCX in 7nm ist winzig. Insbesondere wenn man weniger L3 verbaut. Im Gegenzug kannst du mit einem Die alle Zielgruppen bedienen und zur Not Einheiten deaktieren.
Piefkee
2019-07-30, 10:47:24
Da gab es mal ein Paper / Fachbeitrag der beschrieb dass x86 vom Instructionset zu aufwändigeren Decodern führt, was sich auch energetisch niederschlägt.
Warum illusorisch? Ein CCX in 7nm ist winzig. Insbesondere wenn man weniger L3 verbaut. Im Gegenzug kannst du mit einem Die alle Zielgruppen bedienen und zur Not Einheiten deaktieren.
Sehe ich genauso Renoir wird sicherlich bis 8C gehen. Alles andere Macht keinen Sinn, außer es ist kein Zen2.
Auf den Roadmap ist es doch ziemlich ersichtlich.
Unter Renoir ist Dali. Gibt ein ziemlich rundes Bild.
Dali --> max. 4C
Renoir -> max.8C
][immy
2019-07-30, 10:55:54
1.) Renoir ist ja fast ein reines OEM-Produkt. 8 Kerne sind hier illusorisch mMn.
2.) man kann ein x86-Frontend sicherlich genauso sparsam bauen, wenn man das wirklich will. Den Anbietern dafür (Intel, AMD) fehlt mMn einfach das KnowHow dafür, dass sich Qualcomm und ARM dafür angeeignet haben.
Naja, das sind 2 vollkommen unterschiedliche Ansätze. Ohne jetzt die die Befehlsverarbeitung einzusteigen, sind die derzeitigen x86er Prozessoren besonders darauf ausgelegt zu skalieren.
D.h. du muss schon die Energieversorgung so einplanen das sie größere Schwankungen verträgt.
Allein diese Skalierung vor zu halten dürfte schon recht viel Energie verschlingen. Intel hat es ja schon mal mit dem Atom versucht und AMD mit dem Jaguar. Sie waren schon sehr energiesparsam, allerdings fehlten ihnen neben der Rechenkraft auch extra für die Prozessoren angepasste Applikationen.
Der Prozessor muss ja auch von Anfang an so ausgelegt werden, das er entsprechende Energiemengen verarbeiten kann. Würdest du einen ARM mit an die 100W füttern, würde dieser einfach nur dahinschmelzen, weil die CPUs beim Design niemals dafür ausgelegt wurden diese Energiemengen aufzunehmen und zu nutzen. Natürlich könntest du auch eine ARM CPU mit entsprechender Energieskalierung bauen, aber dann würdest du auch direkt den größten Vorteil einer ARM basierten CPU aufgeben.
Abgesehen davon, hatten ARM CPUs in der Vergangenheit immer einen Fertigungsvorteil (da einfacher gestrickt und daher eher für kleinere Fertigungen geeignet), der fällt nun auch weg (da es da nicht mehr so viele Sprüngen geben wird) und in den letzten Jahren wurden auch bei den ARM CPUs größere Performance-Sprünge mit mehr Leistungsaufnahme erkauft, der stark durch immer bessere Akkus in Smartphones abgefedert wurde und z.B. auch durch sparsamere Bildschirme. Aber die immer größer werdende Wärmeentwicklung stößt auch langsam an Grenzen in dem Bereich. D.h. langsam aber sicher bröckelt der große Vorteil der Architektur.
ARM im Macbook könnte eventuell noch funktionieren, da auch die Software auf dem Mac ziemlich an die Hardware angepasst ist. Aber dann würdest du auch in die Falle tappen regelmäßiger neue Macs zu kaufen weil dann wieder irgendein Codec erneuert wurde, der von der Fix Function Hardware dann nicht mehr beschleunigt werden kann und das System spürbar langsamer wird. Apple ist halt ziemlich gut damit, ihr OS und ihre Software genau auf eine Hardware zuzuschneiden.
So gut wie das erste IPhone damals auch lief, die Hardware (besonders der Speicher) darin war eher lächerlich. Es war halt das Gesamtpaket was daraus ein rundes Produkt gemacht hat, aber ein wenig später war es nur noch dazu gut E-Mails abzufragen. Heute kann man sich fragen, wie man damals überhaupt einen Browser mit so wenig Hauptspeicher öffnen konnte. Schon ein Tab mit einer geöffneten Google-Suchmaschine nimmt mehr Speicher ein, als das gesamte Smartphone hatte ^^
Was ich mich Frage ist, was macht AMD eigentlich mit DDR5?
kommt dann AM5 oder wird es dann weiterhin AM4 Boards mit DDR5 Slots geben? Sitzt zwar inzwischen alles in der CPU aber die Plattform noch eine Weile aufrecht zu erhalten könnte Vorteilhaft für AMD sein, da es das Aufrüsten doch erheblich erleichtert.
Ich denke es geht da vor allem um den Preis. Wenn ich mir da die bestehenden SBCs angucke, dann sind die günstigeren Geräte alles ARM Geräte. SBCs mit x86 (alte Intel SOCs aus den Tablets) gibt es inzwischen zwar auch, spielen preislich aber in einer anderen Liga und jetzt wo man mit einem Raspberry Pi für Kleingeld sogar leidlich gut im Internet surfen kann & Co gibt es jetzt auch nicht sooo viele Einsatzgebiete wo die CPU Leistung von ARM zu gering ist...
Ja, es geht um den Preis. Und der kommt rein ueber die Menge. Keiner interessiert sich fuer Intel SBCs, deshalb gibt es auch kaum Angebot und sie sind relativ teuer.
Ergibt in dem Fall dann halt auch ueberhaupt keinen Sinn, auf einen Intel SBC zu gehen, wenn es fuer denselben Preis schon einen ganzen Laptop mit Full-HD IPS Panel, 4 GiB RAM, Netzteil, Akku, Eingabegeraete und 64 GiB eMMC gibt, einfach weil das in hoher Stueckzahl gebaut wird. Da geht es bei 160 € los. (https://geizhals.de/?cat=nb&xf=1482_Intel%7E83_IPS)
Der aktuelle Pi kostet 50-60 €, dazu kommen (oft vergessen) Netzteil, SD Karte, Gehaeuse und Eingabegeraete. Da fehlt also ueberhaupt nicht mehr viel. Demgegenueber steht z.B. der UDOO x86 II mit vergleichbarem Celeron, aber halt "nur" als PCB+SoC, ohne den ganzen Rest fuer 174 $. Dass das nicht zusammenpasst, sieht glaube ich jeder, das ist dann halt einfach ein Nischenprodukt.
Wenn jemand z.B. einen SBC mit Raven2/Banded Kestrel in der Stueckzahl von Raspberrys auflegen wuerde, kaeme man da auch sehr billig weg. Vielleicht nicht ganz so billig, das muss aber auch gar nicht sein, weil das Produkt einfach besser waere. Selbst die gesockelte, beschnittene Version des grossen Raven kostet ja schon nur 40 € inkl. Kuehler.
Der Raspberry war nie als Desktop PC gedacht und macht dafuer auch immer noch genausowenig Sinn wie damals in der ersten Version. Der hat ausserdem genau dieselben Probleme, die alle anderen SBCs auch haben, nur dass er halt beliebter ist. Dazu haben sie es diesmal sogar beim USB-Anschluss verkackt...
Fuer das Geld bekommt man Gebrauchthardware, mit der man als Desktop-user mehr anfangen kann.
Das waere was fuer einen AM1 Nachfolger gewesen. Aber da gibt's halt auch nur embedded Kram, der fuer Consumer gar nicht greifbar oder zu teuer ist, oder es wird gleich wieder overkill und damit relativ teuer (Athlon 200GE, A300, 8 GiB RAM machen gut 200 €).
Grundsätzlich sehe ich bei ARM aber zwei Dinge kritisch: Während die den CPU Bereich die letzten Jahre eigentlich prima ausbauen, so sieht es hinsichtlich der GPUs noch ein wenig mau aus, wobei ich da in erster Linie noch den Treibersupport ansehe. Unter Linux gibt es ja nicht umsonst das Panfrost Projekt und auch die proprietären Userspace Treiber sollen nicht so das Gelbe vom Ei sein...
Die Treibersituation ist einfach nur katastrophal, und das betrifft nicht nur die GPUs.
Bei den SBCs gibt es zwar z.B. Rockchip die an und für sich gute ARM Produkte auflegen, nur hapert es dann sehr häufig an den Treibern wenn man das was die Dinger können auch einfach mal nutzen will und das ggf. dann eben nicht unter einem Android Betriebssystem. Bei Risc-V sehe ich die Lage da eher noch schlechter...
RISC-V startet gerade erst. ARM ist verglichen damit steinalt. Das kann man noch gar nicht beurteilen. Ich kann mir aber gut vorstellen, dass die Hersteller genau die Probleme sehen und es diesmal eben nicht nochmal so machen wollen.
Auf den Roadmap ist es doch ziemlich ersichtlich.
Unter Renoir ist Dali. Gibt ein ziemlich rundes Bild.
Dali --> max. 4C
Renoir -> max.8C
Oder es werden doch nochmal 4 und 2. Bei Raven2 hatte man damit eigentlich auch nicht mehr gerechnet, wenn es aber ausreichend nachgefragt wird, wird es gebaut.
Piefkee
2019-07-30, 11:13:07
Oder es werden doch nochmal 4 und 2. Bei Raven2 hatte man damit eigentlich auch nicht mehr gerechnet, wenn es aber ausreichend nachgefragt wird, wird es gebaut.
Kann natürlich sein. Ein Problem worüber niemand spricht ist natürlich die Produktionskapazität von AMD. Wenn die jetzt APU von unten 4 bis oben 8-Core Zen2 bieten. Dann greifen sie in den Megavolumenmark ein. Ich weiß nicht ob AMD bereit ist das Liefern zu können. Naja abwarten.
SKYNET
2019-07-30, 11:42:30
Kann natürlich sein. Ein Problem worüber niemand spricht ist natürlich die Produktionskapazität von AMD. Wenn die jetzt APU von unten 4 bis oben 8-Core Zen2 bieten. Dann greifen sie in den Megavolumenmark ein. Ich weiß nicht ob AMD bereit ist das Liefern zu können. Naja abwarten.
och, da mache ich mir keine gedanken... und würd mich nicht wundern wenn AMD die 7nm produktion auf samsung ausweitet.
amdfanuwe
2019-07-30, 11:58:45
Sehe ich genauso Renoir wird sicherlich bis 8C gehen. Alles andere Macht keinen Sinn, außer es ist kein Zen2.
Da kennst du die Industrie aber schlecht. Solange etwas mehr Gewinn verspricht, macht es auch Sinn. Halt eine Sache der Stückzahl. Irgendwo ein paar Millionen Cents eingespart, schon ist der Urlaub für den Chef bezahlt.
Piefkee
2019-07-30, 12:11:59
Da kennst du die Industrie aber schlecht. Solange etwas mehr Gewinn verspricht, macht es auch Sinn. Halt eine Sache der Stückzahl. Irgendwo ein paar Millionen Cents eingespart, schon ist der Urlaub für den Chef bezahlt.
Aha du weißt also bescheid in welcher Branche ich arbeite okeee :rolleyes:
Back to topic:
AMD ist nicht mehr das AMD von früher. Früher wollte man an jeder Front etwas haben (meisten schlechter und deshalb auf volumen und keine marge). Heute sieht das ganz anders aus. AMD wählt sehr genau die Bereich wo sie wirklich etwas machen wollen. Prio bei Zen war Server und nichts anders. Desktop naja kann man sehen wie man will. Jetzt greift man Server + Desktop an, jedoch nicht den Mobile Bereich. Und dass ist ebenfalls klar warum diese Entscheidung getroffen worden ist.
Das gleiche spiegelt sich doch bei Intel wieder. Die wissen genau das sie im Desktop + HEDT + Server mächtig Probleme bekommen. Deshalb fokussieren sie alles auf mobile (hier ist das Volumen).
AMD wird man für Mobile erst wirklich in Richtung 2020/2021 ernst nehmen können. Dafür fehlt einfach die Größe und auch die Ressourcen.
AMD 2020 (7nm Chips)
-> 7nm Rome
-> 7nm Matisse
-> 7nm Navi10
-> 7nm Navi12
-> 7nm Navi20
-> PS5 (CPU+GPU)
-> Xbox (CPU+GPU)
-> Dali
-> Renoir
Das sind verdammt viele Chips. Ich glaube kaum AMD möchte aktuell den Mobile Markt angreifen, das wird erst 2021 passieren. JM2C
robbitop
2019-07-30, 13:00:05
Ja man darf nicht vergessen, dass AMD nur einen Bruchteil der Stückzahl (noch) von Intel hat und auch nur einen Bruchteil der Design- und Implementierungsteams. Entsprechend ist es ggf sinnvoll, mit weniger Kernen mehr abzudecken.
AMD muss schauen, dass sie mit dem was sie haben, dort Treffer zu landen, wo es möglichst viel Effekt hat.
... und würd mich nicht wundern wenn AMD die 7nm produktion auf samsung ausweitet.
AMD nimmt alles was es kriegen kann ;)
Find es trotzdem scheisse, das ich noch immer keine CPU habe :usad:
(dein tolles RAM-OC Erlebnis, spare ich mir lieber auf ^^)
Ich hoffe ich erwische einen 3950X ....
sonnst greif ich wohl auch zu nem 3600 und teste was der verträgt bevor er abraucht :devil:
und kauf dann den Zen3 16Kerner.
M.f.G. JVC
Zossel
2019-07-30, 18:54:52
2.) man kann ein x86-Frontend sicherlich genauso sparsam bauen, wenn man das wirklich will. Den Anbietern dafür (Intel, AMD) fehlt mMn einfach das KnowHow dafür, dass sich Qualcomm und ARM dafür angeeignet haben.
ARM hat IMHO feste Längen für die Codierung der Befehle, die variablen Längen von X64 kosten sicherlich einiges an Logik, Strom und Takt.
rentex
2019-07-30, 20:04:37
Jetzt haben die Leute immer noch nicht ihre CPUs bekommen🙄
Nightspider
2019-07-30, 20:40:15
Die Dies wandern vielleicht alle in die Server und HPCs. ^^
~Cashflow~
Deinorius
2019-07-30, 22:21:34
Was genauso wichtig ist, endlich mal TB3 implementieren.
Das wird erst mit USB 4 passieren, sicher nicht früher.
Zossel
2019-07-31, 08:16:47
Die Treibersituation ist einfach nur katastrophal, und das betrifft nicht nur die GPUs.
Einige Chinesen sind da wirklich furchtbar, allerdings gibt es auch Gegenbeispiele von NXP, TI und ST.
Relativ spannend finde ich die STM32MP1 Reihe, mit Vivante GPU und einem zusätzlichen Cortex-M4 drauf.
offizieller EPYC (Rome) - Launch am 7.8.
https://www.planet3dnow.de/cms/49097-epyc-2-rome-mit-offiziellem-start-am-7-august/
offizieller EPYC (Rome) - Launch am 7.8.
https://www.planet3dnow.de/cms/49097-epyc-2-rome-mit-offiziellem-start-am-7-august/
Die Dies wandern vielleicht alle in die Server und HPCs. ^^
~Cashflow~
Sehe ich auch so :(
Oder die Ausbeute bei 4,4Ghz+ ist wirklich gering...
(hab aber schon 3800X mit 4,5Ghz bei 100% AC mit~1,35-1,4v gesehen, natürlich unter ner Custom Wakü)
(z.b.: https://www.userbenchmark.com/UserRun/18846768 der erste Versuch war noch Boxd~4,25Ghz AC)
M.f.G. JVC
Server bekommt die schlechtesten Dies. Die brauchen ja nur maximal 3,x GHz.
SKYNET
2019-07-31, 10:00:59
Sehe ich auch so :(
Oder die Ausbeute bei 4,4Ghz+ ist wirklich gering...
(hab aber schon 3800X mit 4,5Ghz bei 100% AC mit~1,35-1,4v gesehen, natürlich unter ner Custom Wakü)
(z.b.: https://www.userbenchmark.com/UserRun/18846768 der erste Versuch war noch Boxd~4,25Ghz AC)
M.f.G. JVC
in HWL rennt nen 3900X mit 4.6GHz AC und 1.38V :smile:
in HWL rennt nen 3900X mit 4.6GHz AC und 1.38V :smile:
NEED :ulol:
Wie lange es wohl dauert bis man vorselektierte CPUs kaufen kann?
M.f.G. JVC
Piefkee
2019-07-31, 10:14:28
Server bekommt die schlechtesten Dies. Die brauchen ja nur maximal 3,x GHz.
Nope...
Die besten Dies...
Geringste Leakage und beste Perf/Watt
Alles andere (der Schrott) bekommt Desktop
"geringste Leckage" heißt nicht automatisch "größtes OC Potential" ...
(es ist nicht falsch, aber nur n teil der Wahrheit)
M.f.G. JVC
amdfanuwe
2019-07-31, 15:22:38
ARM hat IMHO feste Längen für die Codierung der Befehle, die variablen Längen von X64 kosten sicherlich einiges an Logik, Strom und Takt.
Hat beides Vor- und Nachteile. X86 kann mit wenigen Instruktionen Aufgaben bewältigen, für die ARM dutzende von Befehlen braucht z.B.
Hat ARM eigentlich mittlerweile atomares ReadModifyWrite implementiert?
Vor ein paar Jahren mußte ich immer erst die Interrupts sperren um sicher zu gehen, dass mir kein anderer Thread dazwischen funkt. Ist schon ein ziemlicher Overhead und taugte nicht für Multithreading.
Nope...
Die besten Dies...
Geringste Leakage und beste Perf/Watt
Alles andere (der Schrott) bekommt Desktop
Nein, Server bekommen die, die am schlechtesten Takten, das ist einfach logisch. Die laufen halt immer nah am Sweetspot.
Nein, Server bekommen die, die am schlechtesten Takten, das ist einfach logisch. Die laufen halt immer nah am Sweetspot.
Und am "Sweetspot" egalisieren sich die unterschiede ... daher doppelt schlüssig :tongue:
Und daher sag ich es stimmt. Die Server bekommen den "Abfall".
AMD hat einfach nicht wirklich viel glück mit 4,5Ghz+ ... was sich aber mit der Zeit merklich bessern sollte ;)
(dafür packen fast alle 4,2Ghz, "die Produktion läuft gut"...)
(Zen3 soll angeblich "Änderungen für n Takt Sprung" erhalten...)
M.f.G. JVC
Langlay
2019-07-31, 18:01:05
Und daher sag ich es stimmt. Die Server bekommen den "Abfall".
Wenn man von Desktopcpu zur Servercpu schaut bekommen die Server den "Abfall", wenn man von Servercpu zur Desktopcpu schaut bekommen die Desktops den "Abfall".
Die Desktopcpus sind eher die CPUs die mehr Leakage haben, also mehr Spannung vertragen und höher Takten.
Servercpu bekommen eher die Chips die wenig Leakage haben, die takten dann nicht so hoch aber sind etwas besser im Stromverbrauch bei niedrigeren Taktraten.
Unicous
2019-07-31, 18:30:22
Server bekommen natürlich nicht die schlechten bins, wie kommt man denn da rauf.:rolleyes:
Naja, typische HOT'sche takes.
AMD hatte es bei Zen iirc sogar erläutert. Threadripper bekommt die Créme de la Créme, dann kommt Epyc und dann Ryzen.
(del)
2019-07-31, 18:45:24
AMD hatte es bei Zen iirc sogar erläutert. Threadripper bekommt die Créme de la Créme, dann kommt Epyc und dann Ryzen.
So ganz kann ich das nicht glauben.
Ich komme mit meinem 2990WX mit Allcore knapp auf 4050 Mhz, mehr ist nicht drin.
Wenn die Dies so Créme de la Créme wären würde da sicher mehr gehen.
Unicous
2019-07-31, 19:00:11
Dein Ernst?:freak:
Dein 32 Kerner!!!! kommt nicht über die 4,05GHz hinaus... während der 2700X 4,3GHz schafft... aber literally 1/4 der Kerne hat.;D;D;D
Meinst du das wirklich ernst.:eek:
Screemer
2019-07-31, 19:02:06
Man beachte das allcore. Er hat sicher jeden einzelne ccx auf taktbarkeit getestet.
(del)
2019-07-31, 19:03:39
Meinst du das wirklich ernst.:eek:
Ja, wieso nicht?
Es liegt weder an der Stromversorgung noch an der Kühlung.
Zossel
2019-07-31, 19:11:22
Hat beides Vor- und Nachteile. X86 kann mit wenigen Instruktionen Aufgaben bewältigen, für die ARM dutzende von Befehlen braucht z.B.
Allerdings hilft das wenig wenn die Compiler das nicht nutzen. Welche X64 Befehle bringen den richtig Vorteile?
Hat ARM eigentlich mittlerweile atomares ReadModifyWrite implementiert?Vor ein paar Jahren mußte ich immer erst die Interrupts sperren um sicher zu gehen, dass mir kein anderer Thread dazwischen funkt. Ist schon ein ziemlicher Overhead und taugte nicht für Multithreading.
Es gibt da was, aber es gibt auch diverse verschiedene ARM Versionen. IRQs kurz zu sperren ist nicht schön aber funktioniert.
Zossel
2019-07-31, 19:14:26
Wenn man von Desktopcpu zur Servercpu schaut bekommen die Server den "Abfall", wenn man von Servercpu zur Desktopcpu schaut bekommen die Desktops den "Abfall".
Genauso wie mit RAM :-)
Lehdro
2019-07-31, 19:47:58
So ganz kann ich das nicht glauben.
Ich komme mit meinem 2990WX mit Allcore knapp auf 4050 Mhz, mehr ist nicht drin.
Wenn die Dies so Créme de la Créme wären würde da sicher mehr gehen.
Was legst du denn für Spannung bei dir an? Würde mich btw nicht wundern wenn der 2990WX "schlechtere" Dies im Sinne von max Takt spendiert bekommt, als ein 2950X. Bei dem 2990WX geht es eher um möglichst wenig Leakage, als um maximal hohe Taktraten. Der 2950X hat ja schon so out of the Box wesentlich mehr Spielraum bei der TDP. Ich meine: Doppelte Kerne für gerade mal +70W TDP? Das sind +39% TDP für 100% mehr Kerne - deutlich anders als ein kleiner Threadripper.
Ich habe zum Beispiel mit meinem 2950X maximal ein Temperaturproblem. Ich kann sicherlich noch höher als 4.3 GHz allcore gehen, allerdings habe ich dann bei richtigen Stresstests (Blender oder LinX, p95 ist nen Witz) Probleme mit der Kühlung im Sommer. Im Winter geht das alles, aber wenn die ambient Temp im Sommer bei >30°C rumeiert hilft auch die dickste Wakü nicht mehr weiter, man kommt dann schnell an die 70°C ran, was eher nicht so toll ist. Ebenso schluckt der dann mit jedem Grad mehr noch mehr Watt - ich bin so schon bei >360W unter Volllast. Also auf die paar MHz verzichten und über die 4.3 GHz selbst im wärmsten Sommer freuen.
(del)
2019-07-31, 20:02:12
Was legst du denn für Spannung bei dir an?
Wenn ich versuche über 4,05Ghz zu kommen kann ich so viel Spannung anlegen wie ich will, es geht einfach nicht höher.
Aber im Normalbetrieb aktiviere ich einfach PBO und stelle einen Spannungsoffset von -100mv ein. Das läuft gut aber natürlich ist der Allcore Takt dann wesentlich geringer.
basix
2019-07-31, 20:17:14
Server bekommen natürlich nicht die schlechten bins, wie kommt man denn da rauf.:rolleyes:
Naja, typische HOT'sche takes.
AMD hatte es bei Zen iirc sogar erläutert. Threadripper bekommt die Créme de la Créme, dann kommt Epyc und dann Ryzen.
Wobei mich fasziniert, dass zwischen TR und Ryzen fast kein Unterschied herrscht. Dasselbe bei 3700X vs. 3800X. Ich habe das Gefühl, dass AMD hier ein Dedign entwickelt hat, welches die Design-Grenzen sehr gut auslotet. Bei Ryzen 3000 gilt das umso mehr. Ein 3800X ist faktisch gleich schnell wie ei 3700Y.
AMD hatte es bei Zen iirc sogar erläutert. Threadripper bekommt die Créme de la Créme, dann kommt Epyc und dann Ryzen.
So wart es Zen und Zen+
Ist es Zen2 auch so? (hab gehört TR soll nicht mehr die SC Takt Krone haben?)
M.f.G. JVC
amdfanuwe
2019-07-31, 20:48:54
Allerdings hilft das wenig wenn die Compiler das nicht nutzen. Welche X64 Befehle bringen den richtig Vorteile?
Na, welche 8 und 16Bit Opcodes hat denn x86? die kann man auch noch bei X64 verwenden.
Zossel
2019-07-31, 21:15:22
Na, welche 8 und 16Bit Opcodes hat denn x86? die kann man auch noch bei X64 verwenden.
Und wobei bringt das Vorteile?
amdfanuwe
2019-07-31, 22:04:30
Erzähl mir mehr über die Nachteile.
Linmoum
2019-08-01, 00:59:59
E: Passt besser in den Review-Thread
mksn7
2019-08-01, 13:33:13
Und wobei bringt das Vorteile?
Wenn viele von den Standardinstructions nur 1B oder 2B benötigen, steigt die Dichte instructions pro Byte. Das spart Platz im instruction cache und fetch Bandbreite.
Gleichzeitig können memory Operanden und intermediates in vielen Befehlen direkt angegeben werden. In RISC braucht das typischerweise extra moves aus dem Speicher in Register. Diese Befehle sind dafür halt wieder länger, was die Vorteile vielleicht wieder auffrisst.
Es ist aber sehr fraglich ob das heute noch relevant ist. Die modernen CPUs laufen am liebsten aus ihrem mikro op cache - und der enthält fixed length decoded instructions.
Weder eine x86 noch eine ARM Implementierung erhalten heute durch ihren Befehlssatz einen relevanten Vorteil in Power, Area oder Performance. Das mag in extremen kleinen Power oder Transistorbudgets anders aussehen.
Zossel
2019-08-01, 21:46:49
Wenn viele von den Standardinstructions nur 1B oder 2B benötigen, steigt die Dichte instructions pro Byte. Das spart Platz im instruction cache und fetch Bandbreite.
Möglicherweise handelt man sich damit fiese Pitfalls folgender Art ein: https://www.agner.org/optimize/microarchitecture.pdf (Nach "Partial register access" suchen)
Oder die alten Opcodes fliegen in ein paar Jahren aus dem CPUs und dann gibt es einen illegal Instruction Trap.
mczak
2019-08-02, 02:21:03
Wenn viele von den Standardinstructions nur 1B oder 2B benötigen, steigt die Dichte instructions pro Byte. Das spart Platz im instruction cache und fetch Bandbreite.
Das Problem hier ist aber dass diese Instruktionen mit superkurzen Encodings nicht mehr unbedingt die sind die man heute auch braucht. Ist ja nett dass man sowas wie "add byte" mit bloss einem Byte encodieren kann (wobei ein Quell/Zielregister fix ist) (also ich habe jetzt nicht nachgeschaut ob genau das Beispiel bei x86 wirklich geht, aber genau so funktioniert das normalerweise). Moderner Code braucht manche dieser Instruktionen quasi gar nie, und die haben eben zur Folge dass neuere Instruktionen dann länger sind.
Hast du SIMD-Code (ich habe das mal analysiert bei sehr SIMD-lastigem Code (mit über 90% Anteil an SIMD-Befehlen)) ist die durschschnittliche Befehlslänge dann höher als sie das bei fixem Encoding wäre. Mit AVX-Code beispielsweise kommst du kaum unter 5B / Befehl aus (weil der VEX Prefix allein schon 2 oder 3 Byte ist - sehr häufig sind es 3 Bytes schon nur weil man mit 2 Byte VEX bloss die unteren 8 Register addressieren kann).
Nutzt du AVX-512 ist es noch schlimmer (EVEX encoding benutzt einen 4 Byte Prefix), das dürften dann wohl im Schnitt 6B / Befehl sein (aber gut damit kann man dann auch eine Menge anstellen, unter anderem kann man da maximal 4 Register (und zwar je 32 davon) addressieren plus noch das Maskenregister).
amdfanuwe
2019-08-02, 08:57:42
Und wieviel Bytes braucht ein ARM Prozessor um AVX 512 Aufgaben zu erledigen?
mczak
2019-08-02, 09:56:50
Und wieviel Bytes braucht ein ARM Prozessor um AVX 512 Aufgaben zu erledigen?
ARM hat z.B SVE Extension (habe aber keine Ahnung ob das wer implementiert...). Das kann auch noch grössere Vektorlängen und hat auch Dinge die AVX-512 nicht kann - bin sicher umgekehrt ist das auch der Fall (hat z.B. Predicate Register statt Maskenregister). Alles in allem würde ich sagen das ist ähnlich mächtig (aber Details kenne ich keine, alles bloss aus 1 Minute google...). Und SVE passt ganz normal in das 32bit Encoding.
Loeschzwerg
2019-08-02, 10:25:05
ARM hat z.B SVE Extension (habe aber keine Ahnung ob das wer implementiert...).
Fujitsu in der A64FX CPU.
mksn7
2019-08-02, 13:12:59
Möglicherweise handelt man sich damit fiese Pitfalls folgender Art ein: https://www.agner.org/optimize/microarchitecture.pdf (Nach "Partial register access" suchen)
Oder die alten Opcodes fliegen in ein paar Jahren aus dem CPUs und dann gibt es einen illegal Instruction Trap.
Ja, das ist eher ein prinzipiell möglicher Vorteil eines variable length encodings. Weil ich eigentlich keine Ahnung hab welchen Anteil die 1B Befehle eigentlich haben, hab ich mal ein binary an dem ich gerade arbeite geobjdumpt. Die einzigen 1B Befehle die ich gefunden habe waren nop, cltd, push, pop, retq. Und das waren eine kleine Handvoll aus tausenden Befehlen, bestimmt deutlich weniger als 1%. 2B und 3B sind deutlich häufiger, der subjektive Median liegt vielleicht bei 3B oder 4B. Gibt aber auch viele 8B und 9B Befehle, letzteres bei AVX mit memory operand mit offset.
Ich hatte mal einen Fall, wo wegen einer leicht anderen Addressberechnung (im high level code) der Durchsatz einer Schleife langsamer wurde. Im Assembler sah alles gleich aus, bis auf den Addressierungsmodus, der aus einem 8B einen 9B Befehl gemacht hatte. Das passt dann nicht mehr in irgendein Instructionfetchdurchsatz. Ich weiß nicht mehr welche Architektur das war, evtl. wars auch Knights Corner, der alte Xeon Phi.
Meine Schlüsse: Bei x86 im Schnitt 3B-4B, bei ARM fix 4B. Was bei x86 ein 8B Befehl ist, sind bei ARM zwei 4B Befehle. Insgesamt vielleicht ein kleiner Vorteil bei der code density für x86, aber nichts was am Schluss große Unterschiede macht.
mboeller
2019-08-02, 14:26:41
X86 und X86_64 haben im Vergleich eine bessere Code-Dichte als zum Beispiel ARM:
http://web.eece.maine.edu/~vweaver/papers/iccd09/iccd09_density.pdf
http://web.eece.maine.edu/~vweaver/papers/iccd09/ll_document.pdf
die interne Verarbeitung bei X86/_64 ist aber AFAIK seit vielen Jahren wie bei einer RISC-CPU aufgebaut, also durchgängig 32 od. 64bit.
https://de.wikipedia.org/wiki/Intel_Pentium_Pro
Der Pentium Pro enthielt einige wichtige neue Konzepte, wie einen RISC-Kern. Er war also kein reiner CISC-Prozessor mehr, sondern eher eine Art Hybrid. Außerdem wurde mit der „Out-of-order execution“ ein Konzept eingeführt, welches das Leistungspotenzial erhöhte
mczak
2019-08-02, 18:50:24
X86 und X86_64 haben im Vergleich eine bessere Code-Dichte als zum Beispiel ARM:
http://web.eece.maine.edu/~vweaver/papers/iccd09/iccd09_density.pdf
http://web.eece.maine.edu/~vweaver/papers/iccd09/ll_document.pdf
Die Dokumente sind uralt. Könnte gut sein dass das mittlerweile nicht mehr der Fall ist (weil z.B. im Schnitt viel mehr Vektorbefehle gebraucht werden). Der Vergleich ist auch nicht gegenüber armv8 (keine Ahnung wie sich das da geändert hat).
Ist aber schon möglich dass x86_64 im Schnitt immer noch einen Vorsprung hat.
die interne Verarbeitung bei X86/_64 ist aber AFAIK seit vielen Jahren wie bei einer RISC-CPU aufgebaut, also durchgängig 32 od. 64bit.
Die Grösse der internen microops mag ja fix sein ist aber mit Sicherheit nicht sowas "schönes" wie 32bit oder 64bit. Das ist was immer halt gerade praktisch passt, können auch 37 bit sein (da findet man auch keine Angaben dazu, immer nur Anzahl der micro-ops, eine Bytegrösse ergibt keinen Sinn).
mboeller
2019-08-02, 19:16:43
Die Dokumente sind uralt.
das erste Dokument ist von 2009; das 2. von 2017
Zossel
2019-08-02, 19:42:11
Die Dokumente sind uralt. Könnte gut sein dass das mittlerweile nicht mehr der Fall ist (weil z.B. im Schnitt viel mehr Vektorbefehle gebraucht werden). Der Vergleich ist auch nicht gegenüber armv8 (keine Ahnung wie sich das da geändert hat).
Ist aber schon möglich dass x86_64 im Schnitt immer noch einen Vorsprung hat.
Bitte beachten: In dem Dokument ist Thumb von ARM separat aufgeführt.
mczak
2019-08-02, 20:08:16
das erste Dokument ist von 2009; das 2. von 2017
Das habe ich glatt übersehen (habe bloss das erste angeschaut, das zweite war ja im selben iccd09 Ordner also habe ich angenommen das sei auch so alt...).
Ok bei den 2 spezifischen Benchmarks ist der Unterschied immer noch gross. Aber ob man das allgemein auf allen Code übertragen kann finde ich fraglich. Bei der Codegrösse über alle Benchmarks (auch wenn das wie da steht auch plattform-spezifischen Code enthält) ist der Unterschied aber am Ende marginal, bei beiden Papers.
dildo4u
2019-08-06, 07:16:45
Geleakte Rome Benches.
https://www.tomshardware.com/news/amd-epyc-7742-vs-intel-xeon-benchmarks,40089.html
der non Turbo takt bei dem 64c Monster ist noch echt interessant. In der der Tabelle bei THW steht noch "unbestätigt".
Mit den immer stärker werden Turbos (im Verhältnis zur Base-Leistung):
müsste man da nicht in jedem Benchmark eigentlich die Frequenz dazu schreiben? Alternativ einmal mit und einmal ohne Turbo testen?
Besonders im Server Bereich wo es ja oft Dauerlasten gibt...
Sonst kann es ja auch sein das nur genau ein Run des Benchmarks mit dieser Geschwindigkeit geschafft wird...
dildo4u
2019-08-06, 08:25:05
Was mich am meisten gewundert hat der Intel ist neu dachte das ist alter Schrott.Cooperlake nutzt 2020 auch 14nm+++ also kommt vor 2021 keine Konkurrenz?
Linmoum
2019-08-06, 08:38:03
ICL-SP soll Ende 2020 kommen.
ICL-SP soll Ende 2020 kommen.
Alibiprodukt in Minimalserie. Da muss ich erst von Gegenteil überzeugt werden.
ICL-SP soll Ende 2020 kommen.
ja mit max 26 Kernen und vielleicht sehr niedrigen Frequenzen.. siehe ICL mobil...
dildo4u
2019-08-06, 08:44:46
ICL-SP soll Ende 2020 kommen.
Cooper Lake scheint die Antwort auf Rome zu sein bis 56 Cores,Ice Lake 26.
https://www.golem.de/news/cooper-lake-intels-xeons-mit-bfloat16-instruktion-haben-56-kerne-1908-143024.html
M4xw0lf
2019-08-07, 08:32:38
Heute ist Epyc-Release, oder?
Ja, leider gibts noch nix....
..............
es geht los:
https://www.computerbase.de/2019-08/amd-epyc-7742-benchmarks/
AMD Epyc mit 64 Kernen: Rome vor Marktstart gegen Intel Xeon im Benchmark
..............
https://www.reddit.com/r/Amd/comments/cn69a4/comment/ew78lwt
Um Mitternacht deutscher Zeit
Es geht los. Live Blog: https://www.anandtech.com/show/14724/the-amd-epyc-rome-launch-live-blog
Benutzername
2019-08-08, 01:40:15
El Reg dazu
Rome wasn't built in a day, wasn't teased in a day, either: AMD's 7nm second-gen 64-core Epyc server chip finally lands
https://www.theregister.co.uk/2019/08/07/amd_rome_epyc_processor_launch/
dildo4u
2019-08-08, 04:48:29
Rome Benchmarks:
https://www.anandtech.com/show/14694/amd-rome-epyc-2nd-gen
https://www.phoronix.com/scan.php?page=article&item=amd-epyc-7502-7742&num=1
YfOrU
2019-08-08, 07:19:24
Und: https://www.servethehome.com/amd-epyc-7002-series-rome-delivers-a-knockout/
Linmoum
2019-08-08, 08:34:28
Einfach nur beeindruckend, wie man Intel quasi von vorne bis hinten deklassiert.
Das werden ganz harte Zeiten.
Armaq
2019-08-08, 09:05:01
Einfach nur beeindruckend, wie man Intel quasi von vorne bis hinten deklassiert.
Das werden ganz harte Zeiten.
Naja, Intel wird wieder in die alten Trickkiste greifen, da bin ich mir sicher.
Absolut tolle Vorstellung. In 2020 seh ich keinen vernünftigen Menschen der nen Server mit Intel CPUs bestellt.
taddy
2019-08-08, 09:05:27
Einfach nur beeindruckend, wie man Intel quasi von vorne bis hinten deklassiert.
Das werden ganz harte Zeiten.
Ich wäre ja froh, wenn mein 3900x endlich Mal geliefert wird
Jo Zen2 gegen Cascade, Vermeer mit AVX512 und anderem dann gegen Cooper Lake. Rosige Zeiten für AMD.
Loeschzwerg
2019-08-08, 10:35:56
Absolut tolle Vorstellung.
Allerdings, das ist eine richtig beeindruckende Kiste :cool: Für interne Tests will ich schon lange ein EPYC System haben... aber irgendwie zieht da der Geldgeber nicht so recht und es wird wieder gegeizt.
In 2020 seh ich keinen vernünftigen Menschen der nen Server mit Intel CPUs bestellt.
Die Software kann je nach Fall trotzdem entscheidend sein.
reaperrr
2019-08-08, 11:48:45
ja mit max 26 Kernen und vielleicht sehr niedrigen Frequenzen.. siehe ICL mobil...
Die Vögel zwitschern von den Dächern, dass es von ICL-SP wohl neben dem 26C-Modell tatsächlich auch einen XCC-Die mit immerhin 38 Kernen gibt. Allerdings sollen Yields und Taktbarkeit der ersten aus der Fab zurückgekommenen Test-Chips auch so mies sein, wie man es von einem großen Chip in Intels 10nm erwartet, was vermutlich (eigene Speku!) auch der Grund ist, warum die Kernzahl nicht auf der Roadmap auftaucht.
Man weiß bei Intel wohl noch nicht, ob man den überhaupt je auf markttaugliche Yields und Specs bekommen wird.
Die sitzen das einfach aus bis 7nm.
Armaq
2019-08-08, 11:58:28
Allerdings, das ist eine richtig beeindruckende Kiste :cool: Für interne Tests will ich schon lange ein EPYC System haben... aber irgendwie zieht da der Geldgeber nicht so recht und es wird wieder gegeizt.
Die Software kann je nach Fall trotzdem entscheidend sein.
Ich sehe das aus meiner Brille als Cloud-Anbieter mit eher allgemeinem Workload. Perf/Watt ist für uns inzwischen die Kenngröße. Wenn man genau weiss, dass man diesen oder jenen Workload hat, dann geht das sicherlich. Aber diese Fälle halten sich in Grenzen.
Die sitzen das einfach aus bis 7nm.
Das wäre für AMD um Marktanteile zu kapern wiederum gut:D
Benutzername
2019-08-08, 14:47:58
Allerdings, das ist eine richtig beeindruckende Kiste :cool: Für interne Tests will ich schon lange ein EPYC System haben... aber irgendwie zieht da der Geldgeber nicht so recht und es wird wieder gegeizt.
AMD kann mit der zweiten Epyc-Generation einen prestigeträchtigen Kunden für sich gewinnen: Google. Das Unternehmen baut die interne Server-Struktur mit der zweiten Epyc-Generation alias Rome aus und möchte die Epyc-7002-Prozessoren bis zum Jahresende als Cloud-Instanzen anbieten.https://www.heise.de/newsticker/meldung/AMD-Epyc-7002-Google-kauft-ein-4490998.html
Mit google hat AMD schon einmal eine echten Großkunden. Um die "für IBM kaufen wurde noch nie jemand gefeuert" Fraktion ruhig zu stellen.
Die Software kann je nach Fall trotzdem entscheidend sein.
natürlichj, aber die meisten Server sachen brauchen viele viele threads. Besodners wenn man VMs benutzt und Wölkchen baut. Aber kommt natürlich darauf an, was ihr genau macht und benutzt.
mboeller
2019-08-08, 15:30:32
https://www.anandtech.com/show/14724/the-amd-epyc-rome-launch-live-blog
imho SEHR beeindruckend. Microsoft; HPE; Lenovo; Google; Cray ... da waren viele On Stage.
Was, wie ich finde gut ist: Milan ist bereits fertig!
Wie lange dauert es von "Design Complete" (übersetze ich mal mit Tape-out) bis Lieferung? 9 Monate?
Unicous
2019-08-08, 15:46:45
Design Complete bedeutet mMn nicht tape-out, sondern dass sie die Designphase abgeschlossen haben und das Design jetzt zur Fab "schicken". Tapeout kann 6 Monate dauern, kann 12 Monate dauern, kann 18 Monate dauern. Das kann man heutzutage nicht mehr eindeutig beziffern. Ein Jahr war früher glaube ich die Faustregel.
Loeschzwerg
2019-08-08, 15:52:01
Aber kommt natürlich darauf an, was ihr genau macht und benutzt.
Ich brauche primär viel Takt und maximalste I/O Leistung, weniger viele Kerne. Die weiteren, aktuell auf Intel Arch zugeschnittenen, Kniffe in der Emulationsschicht würde man im Nachgang immer noch überarbeiten können. Sofern die initialen Messergebnisse stimmen.
Ein weiteres Problem dürfte der etwas ältere Linux Kernel sein, der bei uns zum Einsatz kommt. Die Portierung auf einen neueren (und in meinen Augen für ZEN2 benötigten) Kernel verschlingt zusätzliche Mann-Ressourcen die eigentlich nicht vorhanden sind.
Naja, ich bleibe hartnäckig :D
Edit:
Apropos Takt... der Turbo erscheint mir durchgehend etwas niedrig. Dennoch, der 7302 und 7262 könnten gut passen.
amdfanuwe
2019-08-08, 15:55:43
zusätzliche Mann-Ressourcen die eigentlich nicht vorhanden sind.
Dürfte auch nicht mehr ausmachen, als das Einpflegen der Sicherheitspatches für Intel.
Loeschzwerg
2019-08-08, 15:58:00
Öhh... nein ^^ Wäre schön wenn dem so wäre, aber ganz klar nein.
fondness
2019-08-08, 16:08:37
Das ist ja ein regelrechtes Massaker:
For those with little time: at the high end with socketed x86 CPUs, AMD offers you up to 50 to 100% higher performance while offering a 40% lower price. Unless you go for the low end server CPUs, there is no contest: AMD offers much better performance for a much lower price than Intel, with more memory channels and over 2x the number of PCIe lanes. These are also PCIe 4.0 lanes. What if you want more than 2 TB of RAM in your dual socket server? The discount in favor of AMD just became 50%.
So has AMD done the unthinkable? Beaten Intel by such a large margin that there is no contest? For now, based on our preliminary testing, that is the case. The launch of AMD's second generation EPYC processors is nothing short of historic, beating the competition by a large margin in almost every metric: performance, performance per watt and performance per dollar.
https://www.anandtech.com/show/14694/amd-rome-epyc-2nd-gen
MSABK
2019-08-08, 16:30:50
Jetzt müssen nur noch die Kunden statt Intel die AMD Produkte kaufen. Mal schauen wie viel Rabatte Intel gewähren wird.
ChaosTM
2019-08-08, 18:02:26
Jetzt müssen nur noch die Kunden statt Intel die AMD Produkte kaufen. Mal schauen wie viel Rabatte Intel gewähren wird.
Das machen die nie und nimmer. Viel zu überheblich. Aber ich lass mich gerne überraschen.
Langlay
2019-08-08, 18:11:25
Jetzt müssen nur noch die Kunden statt Intel die AMD Produkte kaufen. Mal schauen wie viel Rabatte Intel gewähren wird.
Es gibt einen irgendwo einen Punkt der spielt der Rabatt keine Rolle mehr, weil die Folgekosten (grösseres Rechenzentrum, aufwendigere Kühlung usw. ) deutlich mehr ausmachen als die Anschaffungskosten.
Ob der Punkt schon erreicht ist kann ich natürlich nicht sagen. Aber nach dem was man liesst, hat AMD aufjedenfall ein sehr überzeugendes Angebot.
Und hinzu kommt ja auch noch der Kram mit den Sicherheitslücken, da sprichts ja auch nicht unbedingt für Intel. Beim neuen Sidechannelangriff soll der Fix ja auch wieder 4-8% weniger Leistung verursachen.
MSABK
2019-08-08, 18:13:56
Das machen die nie und nimmer. Viel zu überheblich. Aber ich lass mich gerne überraschen.
Ich hatte das mit dem Rabatt von Intel bei der ersten Generation von Epyc gelesen.:)
Intel soll sich durch AMDs Epyc-Prozessoren auf Zen-Basis stark genug bedroht fühlen, um Interessenten hohe Rabatte auf die hauseigenen Xeon-CPUs zu gewähren, wenn diese die Konkurrenz in Betracht zögen. Habe es früher selbst bei Abnahmemengen von 1.000 CPUs nur kleine Preisnachlässe gegeben, soll es inzwischen auch schon bei deutlich kleineren Bestellungen Rabatte geben.
https://www.pcgameshardware.de/AMD-Zen-Architektur-261795/News/Epyc-vs-Xeon-Intel-Rabatte-1265290/
Armaq
2019-08-08, 18:25:08
Solange das nicht die Preisliste ist, gibt Intel massiv Rabatt.
Gipsel
2019-08-08, 18:27:22
Beim Test von ServeTheHome wird von bis zu 60% Preisnachlässen gesprochen, die bei intel für größere Serveranbieter inzwischen drin sein sollen und daß das für die Zukunft noch (deutlich) mehr werden muß.
Die halten insgesamt auch wenig hinter dem Berg und ich weiß nicht, ob man bei solchen Sätzen nicht schon auch Sarkasmus mit reinspielt: "AMD still has the better platform, but we think here the Xeon Platinum 8280 can be very competitive with an 80% discount off of list price."
Oder:
"We think Intel is still very competitive here with Xeon Platinum 8280 street pricing in the $1000-1200 range."
:freak:
Der Platinum 8280 mit Support für 1TB Speicher (alle Epycs können mit 4 TB RAM umgehen) kostet ~10.000$ laut Liste, der mit 2TB Support schon ~13.000 und der mit 4,5TB Support sogar fast ~18.000$ (https://ark.intel.com/content/www/us/en/ark/compare.html?productIds=192478,192472,192473). Viel von der früher wohl mal exorbitanten Gewinnmarge bleibt da für intel wohl nicht mehr übrig, wenn sie die Preise (inoffiziell über Rabatte) auf das vorgeschlagene Niveau senken. Das wären rechnerisch zwischen 88% und 94% Rabattierung. :rolleyes:
Diese Aufpreisliste für mehr Speichersupport (2TB => +3.000$; 4,5TB Support => +7.900$, gilt nicht nur für den 8280 sondern auch für die etwas kleineren Modelle) ist wirklich kaum noch zu rechtfertigen, weil bei AMD selbst der kleinste Epyc für etwas über 500$ schon 4 TB kann. :lol:
PS:
https://www.servethehome.com/amd-epyc-7002-series-rome-delivers-a-knockout/9/
AMD specifically asked us not to use power consumption from the 2P test server with pre-production fan control firmware we used for our testing. We are also not allowed to name because Intel put pressure on the OEM who built it to have AMD not disclose this information, despite said OEM having their logo emblazoned all over the system. Yes, Intel is going to that level of competitive pressure on its industry partners ahead of AMD’s launch.
Armaq
2019-08-08, 18:32:38
Bei den Tests von ServeTheHome wird von bis zu 60% Preisnachlässen gesprochen, die bei intel für größere Serveranbieter inzwischen drin sein sollen und das für die Zukunft das noch mehr werden muß.
Die halten insgesamt auch wenig hinter dem Berg und ich weiß nicht, ob man bei solchen Sätzen nicht schon auch Sarkasmus mit reinspielt: "AMD still has the better platform, but we think here the Xeon Platinum 8280 can be very competitive with an 80% discount off of list price."
Oder:
"We think Intel is still very competitive here with Xeon Platinum 8280 street pricing in the $1000-1200 range."
:freak: Der Platinum 8280 (mit Support für 2TB Speicher [Epyc kann 4 TB]) kostet ~13.000$ laut Liste.
Exakt. Alle Anlagen sind bezahlt, jetzt muss nur noch Silizium und Personal bezahlt werden und das klappt auch bei 15% vom Ursprungspreis. :)
y33H@
2019-08-08, 18:36:45
Intel wird schon die Preise so machen, dass ihnen möglichst wenig Kunden davon laufen ^^
Zossel
2019-08-08, 18:36:54
Exakt. Alle Anlagen sind bezahlt, jetzt muss nur noch Silizium und Personal bezahlt werden und das klappt auch bei 15% vom Ursprungspreis. :)
Dann kann sich Intel bessere Fertigungsprozesse komplett in die Haare schmieren, die neuen Fabs wollen ja bezahlt werden, und das nicht zu knapp.
ChaosTM
2019-08-08, 18:49:24
Und der Kurs rasselt in den Keller aber das wird sich sowieso nicht vermeiden lassen.
Armaq
2019-08-08, 18:50:36
Dann kann sich Intel bessere Fertigungsprozesse komplett in die Haare schmieren, die neuen Fabs wollen ja bezahlt werden, und das nicht zu knapp.
Das ist eines der kommerziell erfolgreichsten Unternehmen überhaupt. Das ist lange investiert und überhaupt kein Problem. In 5-7 Jahren vll. aber wenn ich mit 80% Rabatt noch immer 30% Marge mache, dann ist doch alles super.
LadyWhirlwind
2019-08-08, 18:55:12
Das ist eines der kommerziell erfolgreichsten Unternehmen überhaupt. Das ist lange investiert und überhaupt kein Problem. In 5-7 Jahren vll. aber wenn ich mit 80% Rabatt noch immer 30% Marge mache, dann ist doch alles super.
Die Frage ist, wie lange die Durststrecke ist. Intel muss/will ja möglichst verhindern, dass AMD sich im Markt etablieren kann.Selbst wenn Intel da 9 Monate lang drauf legt, könnte es sich noch lohnen.
Problematisch wird es dort, wo Intel Fantasiepreise hat und AMD nicht mitmacht, da kann es dann passieren, dass die Kunden nixht mehr bereit sind, Intels Preise zu bezahlen.
Edit: Oder die Kunden verlangen explizit AMD Server nach... Da hat AMD aktuell gute Chancen, dass das z.T. passiert, weil die TCO auch bei 125% Nachlass noch schlechter ist.
gravitationsfeld
2019-08-08, 19:04:17
Sunny Cove sieht ziemlich uebermaechtig aus, das Blatt koennte sich ganz schnell wieder wenden.
Zossel
2019-08-08, 19:10:00
Die Frage ist, wie lange die Durststrecke ist. Intel muss/will ja möglichst verhindern, dass AMD sich im Markt etablieren kann.Selbst wenn Intel da 9 Monate lang drauf legt, könnte es sich noch lohnen.
Die Durststrecke hat schon vor Jahren längst begonnen, nämlich als die Verkäufe von Smartphone-SOCs durch die Decke gingen und Intel kein Bein in diesen Markt bekommen hat.
Und wann sollen konkurrenzfähige Server CPUs von Intel kommen?
Und diesmal wird AMD mit TSMC sicherlich auch ordentliche Stückzahlen liefern können.
Armaq
2019-08-08, 19:13:12
Sunny Cove sieht ziemlich uebermaechtig aus, das Blatt koennte sich ganz schnell wieder wenden.
Das Pferd wird jeder Intel Sales Mitarbeiter reiten solange sie können. Warten sie, da kommt noch was usw.
Fakt ist, dass AMD die Chiplets einführte und echte Innovation hervorbringt.
M4xw0lf
2019-08-08, 19:13:16
Sunny Cove sieht ziemlich uebermaechtig aus, das Blatt koennte sich ganz schnell wieder wenden.
Ganz schnell wenn die Desktop- und Serverabkömmlinge von Sunny Cove den Markt erreichen. Schon 2021 könnte es soweit sein! :uup:
ChaosTM
2019-08-08, 19:17:11
Auf jeden Fall sollte es gut für uns Kunden sein, wenn sich die Server (Housing) Kosten innerhalb kurzer Zeit halbieren oder übersehe ich da was?
Das größere Problem seh ich im technologischen Rückfall. TSMC und vor allem Samsung haben Intel innerhalb von ein paar Jahren überholt und abgehängt.
Intel Fabless ?
add.:"schon" 2021 ? Das sind 2 Jahre lang dürre Margen.
Blediator16
2019-08-08, 19:17:43
Sunny Cove sieht ziemlich uebermaechtig aus, das Blatt koennte sich ganz schnell wieder wenden.
Wo kann man diese Übermacht eigentlich sehen? Es sei denn Sie stehen under NDA, dann erübrigt sich meine Frage.
nullpunkt
2019-08-08, 19:20:48
Beim Test von ServeTheHome wird von bis zu 60% Preisnachlässen gesprochen, die bei intel für größere Serveranbieter inzwischen drin sein sollen und daß das für die Zukunft noch (deutlich) mehr werden muß.
Die halten insgesamt auch wenig hinter dem Berg und ich weiß nicht, ob man bei solchen Sätzen nicht schon auch Sarkasmus mit reinspielt: "AMD still has the better platform, but we think here the Xeon Platinum 8280 can be very competitive with an 80% discount off of list price."
Oder:
"We think Intel is still very competitive here with Xeon Platinum 8280 street pricing in the $1000-1200 range."
:freak:
Der Platinum 8280 mit Support für 1TB Speicher (alle Epycs können mit 4 TB RAM umgehen) kostet ~10.000$ laut Liste, der mit 2TB Support schon ~13.000 und der mit 4,5TB Support sogar fast ~18.000$ (https://ark.intel.com/content/www/us/en/ark/compare.html?productIds=192478,192472,192473). Viel von der früher wohl mal exorbitanten Gewinnmarge bleibt da für intel wohl nicht mehr übrig, wenn sie die Preise (inoffiziell über Rabatte) auf das vorgeschlagene Niveau senken. Das wären rechnerisch zwischen 88% und 94% Rabattierung. :rolleyes:
Diese Aufpreisliste für mehr Speichersupport (2TB => +3.000$; 4,5TB Support => +7.900$, gilt nicht nur für den 8280 sondern auch für die etwas kleineren Modelle) ist wirklich kaum noch zu rechtfertigen, weil bei AMD selbst der kleinste Epyc für etwas über 500$ schon 4 TB kann. :lol:
PS:
https://www.servethehome.com/amd-epyc-7002-series-rome-delivers-a-knockout/9/
Gipsel, ich kenne die Rabatte die solche Hersteller geben... Zwischen 50 - 70% ist normal, bis über 90% zum Bleistift im Weihnachtsgeschäft ebenso möglich und bereits in der Vergangenheit passiert.
Beispiel: Storagekübel All Flash eines grossen Herstellers, 600k Listenpreis, 35k effektiv...
Dies plus die Tatsache, dass Intel einen viel besseren Ruf hat was Support, Langlebigkeit usw. anbelangt, wird noch immer den Grossteil der Kunden ins blaue Lager wandern lassen (O-Ton eines Herstellers: Bei AMD hast Du Null Support, effektiv erhälst Du einfach Ersatz, aber nie die Unterstützung wie von Intel - desaströse Aussage).
Persönlich ist für mich klar, wir werden in Zukunft auf AMD CPU's setzen, vor Allem wegen den Energiekosten in Rechenzentren.
Zossel
2019-08-08, 19:21:53
Ganz schnell wenn die Desktop- und Serverabkömmlinge von Sunny Cove den Markt erreichen. Schon 2021 könnte es soweit sein! :uup:
Also wird Intel ab 2021 große Serverdies@10nm in Stückzahlen produzieren können?
Weder Ringbus noch Mesh scheint mir tauglich für Chiplets.
AMD schläft auch nicht und sie sind durch Intels Verhalten in der Vergangenheit gewarnt.
ChaosTM
2019-08-08, 19:24:25
Wo kann man diese Übermacht eigentlich sehen? Es sei denn Sie stehen under NDA, dann erübrigt sich meine Frage.
Wishful thinking.
Und ja, es freut mich, wenn quasi Monopolisten die uns jahrelang ausgesaugt haben straucheln -- sehr sogar :D
MadPenguin
2019-08-08, 19:25:43
Wo kann man diese Übermacht eigentlich sehen? Es sei denn Sie stehen under NDA, dann erübrigt sich meine Frage.
Wunschdenken, bzw. falsch interpretierte News. Eigentlich existieren aktuell nur mobile Ableger davon (so viel ich weiss). Die Tests, welche gemacht worden sind, wurden oft in Konfiguration 28W gegen 15W AMD Ableger oder ältere 15W Intel Ableger gemacht
Locuza
2019-08-08, 19:55:21
Ganz schnell wenn die Desktop- und Serverabkömmlinge von Sunny Cove den Markt erreichen. Schon 2021 könnte es soweit sein! :uup:
Mitte 2020 ist der Plan und wenn man Intels Aussagen nach all den Jahren noch traut oder wieder, dann verläuft die Entwicklung bisher besser als erwartet.
Wo kann man diese Übermacht eigentlich sehen? Es sei denn Sie stehen under NDA, dann erübrigt sich meine Frage.
Die ersten Ice-Lake Tests sind draußen.
+18% IPC kommt hin und die Cores sind sehr mächtig in gewissen Feldern.
Auch wird Intel mit ICL-SP 8 Memory-Channels und PCIe4 anbieten.
Die Frage ist wie viel Kerne und Lanes Intel mit ICL-SP bereitstellen wird und wie die Energieeffizienz aussieht.
Cooper Lake auf der selben Plattform gibt es schließlich nicht umsonst.
Die letzte Roadmap sprach von 26 Ice-Lake Kernen und 48 Cooper Lake Kernen.
https://www.golem.de/1905/141423-196701-196700_rc.jpg
Allerdings hat Intel mittlerweile Cooper Lake offiziell mit bis zu 56 Kernen angekündigt.
Aber wenn alles gut bei AMD verläuft, dann wird sich Intel Mitte 2020 auch mit Milan (Zen3) herumschlagen müssen.
Grendizer
2019-08-08, 20:20:53
Die Rome CPUs sehen super aus und ich bin mal gespannt, was man dann tatsächlich auf dem Markt bezahlt.
Allerdings wirkt sich die Differenz bei den Kosten der CPUs in einigen Nutzungsszenarien viel geringer aus, als man auf dem Papier anhand des Listenpreises denkt.
Die Server können stark rabattiert sein. Wenn ich unsere HPE Geräte so anschaue, bekommt man grundsätzlich 40-50% auf den Listenpreis. Wenn man 3 gleiche Geräte abnimmt, können das dann auch 60-70% werden.
Was man gerne vergißt: Wenn man Windows braucht, das so ein Windows 2016 Datacenter mit vielen Keren verdammt teuer wird und die Kosten werden dann auch nur auf 3 Jahre verteilt. Die Serverhardware wird auf 7 Jahre abgeschrieben, so da 4000 Euro Unterschied dann 47 Euro Unterschied pro Monat auf einer Kostenstelle ausmacht. Wenn man da dann die Personalkosten einer IT Abteilung mit 3 Mitarbeitern sieht, sind das Peanuts.
Relevant sind tatsächlich die reduzierten Stromkosten, das könnte tatsächlich einen signifikanten Unterschied auf die 7 Jahre Nutzung ausmachen.
Zossel
2019-08-08, 20:26:32
Interessante Zahlen:
Für ihre sogenannten "Hyperscale"-Rechenzentren kaufen die großen Cloud-Anbieter mehr als die Hälfte aller Server-Prozessoren auf dem Weltmarkt, beispielsweise gut 52 Prozent aller Xeons. Dieser Markt ist für AMD deshalb der wichtigste, um Marktanteile zu gewinnen.
https://www.heise.de/newsticker/meldung/AMD-Epyc-7002-Google-kauft-ein-4490998.html
In dem Zusammenhang ist sicherlich auch das zu sehen:
So I asked Forrest Norrod, SVP & GM of the Datacenter and Embedded Solutions Business Group, over the prospects of seeing such open-source support or Coreboot possibilities. Forrest though to my surprise said they are basically working on it. He didn't offer up any detailed explanation of expected deliverables or any timeline, but that they are aware of the situation and working on it.
https://www.phoronix.com/scan.php?page=news_item&px=AMD-EPYC-Coreboot-Open-Austin
gravitationsfeld
2019-08-08, 20:34:18
Wo kann man diese Übermacht eigentlich sehen? Es sei denn Sie stehen under NDA, dann erübrigt sich meine Frage.
https://www.anandtech.com/show/14664/testing-intel-ice-lake-10nm
20% IPC ueber die 14nm-Generation sind schon ne Ansage. Immerhin sind sie auch mit Coffee Lake immer noch staerker als Zen2. Die Frage ist halt wie und in welchen Mengen koennen sie 10nm produzieren?
Von wegen Fanboy-Gefasel mal wieder, ich hab nen Ryzen 3700X gekauft? Trotzem muss AMD schauen, dass sie Zen 3 auf das selbe IPC-Niveau wie Sunny Cove bekommen, sonst sieht's wieder aus wie zu Ryzen-2000-Zeiten naechstes Jahr fuer Consumer.
Im Gegensatz dazu kann AMD bereits liefern.
gravitationsfeld
2019-08-08, 20:57:35
Meine Aussage war "das Blatt kann sich auch schnell wieder wenden", das impliziert Zukunft, oder nicht?
bloodflash
2019-08-08, 21:07:05
Ich kopiere hier mal Postings von mir von woandres rein:
Flächenverbrauch
Abwärme abführen und Kühlung
Notstromauslastung
Die drei Dinge allein enstprechen schon den Kosten für Hardware und Stromverbrauch der eigentlichen Hardware.
Mit Epyc sind bei ähnlichen Workloads eine Halbierung des Flächenverbrauchs, bei änlichen Kühlungsanforderungen und Notstromdimensionierungen möglich.
Und AMD setzt da noch zusätzlich eine Performanceverdoppelung bei halbem Preis obendrauf!
Und wir reden hier von vergleichbaren Workloads bei unoptimierter Software!
IO-Bound: Nimm Epyc https://www.heise.de/forum/images/smileys/zwinkernd.png 2-3fache Performance
Speicherdurchsatz: Nimm Epyc https://www.heise.de/forum/images/smileys/zwinkernd.png 1,5fache Performance
VM-Instanzen: Nimm Epyc https://www.heise.de/forum/images/smileys/zwinkernd.png 2fache Performance
Preis: Nimm Epyc https://www.heise.de/forum/images/smileys/zwinkernd.png 4fache Performance (Euro/Kern)
Stromverbrauch:: Nimm Epyc https://www.heise.de/forum/images/smileys/zwinkernd.png 2fache Performance (Watt/Kern)
Epyc ist in den adressierten Bereichen ein Gamechanger!
Das ist kein erfrischendes "Ich Auch" wie bei Ryzen 3700x vs 9900k mit 50% niedrigerem Preis bei 50% weniger Energieverbrauch/Kühlleistung aber nur 5% weniger Leistung (oder auch mal mehr, je nach Benchmark) - wir reden hier von ganzzahligen Grössenordnungen!
Zossel
2019-08-08, 21:11:27
Und noch mehr Marktanteil:
Supercomputerhersteller Cray gab außerdem an, dass die Bestellungen für High-Perfomance Serversysteme mit AMD-Prozessoren bald den Umfang von einer Milliarde US-Dollar erreichen würden. Davon entfallen allerdings bereits etwa 600 Millionen US-Dollar auf den Auftrag des ExaFlop Supercomputers “Frontier”.
https://www.planet3dnow.de/cms/49428-amd-stellt-zweite-generation-epyc-vor-und-praesentiert-google-und-twitter-als-kunden/
Scheint als würde AMD von oben in den Markt einsteigen. Und Intel bastelt immer wieder neue Sockel.
mboeller
2019-08-08, 21:28:21
"AMD still has the better platform, but we think here the Xeon Platinum 8280 can be very competitive with an 80% discount off of list price."
Oder:
"We think Intel is still very competitive here with Xeon Platinum 8280 street pricing in the $1000-1200 range."
:freak:
Der Platinum 8280 mit Support für 1TB Speicher (alle Epycs können mit 4 TB RAM umgehen)
spielt das überhaupt eine Rolle?
Geht es nicht immer um TCO? Da sollte AMD immer, bzw. nahezu immer vorne sein.
https://images.anandtech.com/doci/14724/8D411CD7-B340-4074-A822-76D27E456DA2.jpeg
Linmoum
2019-08-08, 21:41:19
Trotzem muss AMD schauen, dass sie Zen 3 auf das selbe IPC-Niveau wie Sunny Cove bekommen, sonst sieht's wieder aus wie zu Ryzen-2000-Zeiten naechstes Jahr fuer Consumer.Hm? Wie kommst du darauf, dass es nächstes Jahr im Consumer-Segment dann so aussehen wird? Intel hat dann nichts außer Comet Lake im Desktop zu bieten und das ist alter 14nm++++++++ Käse mit 10C. Darüber lacht sich Zen3 zu Tode. Wobei, das ist zu weit ausgeholt. Das gilt ja jetzt schon für Zen2.
Wenn Intel im Desktop dann 10nm bringt, oder eher gleich auf 7nm geht, dann muss man sich bereits mit Zen4 anlegen - u.U. in 5nm. Von Servern fang ich mal gar nicht erst an, die Durststrecke wird über 2020 hinaus andauern. Da wird man gerade auf kompletter Front aufs Übelste deklassiert und es gibt nichts, was das im nächsten Jahr ändern wird.
Aber vielleicht findet Intel ja noch die geheime Schublade. Soll's ja geben, hab ich immer wieder gelernt.
gravitationsfeld
2019-08-08, 22:11:20
Ja gut, wenn die gelakten Roadsmaps stimmen und sie wirklich bis 2022 meinen 14nm verkaufen zu koennen, dann ja, ist fuer die Tonne.
Ich frag mich echt ob sie nicht irgend wann ihre Fabs aufgeben muessen?
Thomas Gräf
2019-08-08, 22:32:08
Ja gut, wenn die gelakten Roadsmaps stimmen und sie wirklich bis 2022 meinen 14nm verkaufen zu koennen, dann ja, ist fuer die Tonne.
Ich frag mich echt ob sie nicht irgend wann ihre Fabs aufgeben muessen?
Puh, das fette musste ich zweimal lesen.
Haben die sich, ausser ins Knie, noch woanders hingeschossen?
Der_Korken
2019-08-08, 22:43:21
Man muss auch erstmal sehen, wie hoch Sunny Cove am Ende taktet. Dass die neuen Mobile-Chips "nur" 3,9 statt 4,6Ghz in der Spitze schaffen, frisst einen guten Teil der IPC-Steigerung wieder auf. Nicht auszuschließen, dass man die 5Ghz eines 9900K gar nicht erreicht in 10nm bzw. diese muss dafür erst so lange reifen, wie es die 14nm getan haben.
Irgendwo habe ich beim Zen2-Launch auch gelesen, dass der Chip eigentlich gar nicht für den Desktop gedacht war, der Takt aber am Ende doch höher ausgefallen ist als erwartet und es sich daher trotzdem gelohnt hat. Das ließe bei Zen 3 dann wenigstens auf ein Takt-Upgrade hoffen.
LadyWhirlwind
2019-08-08, 22:45:22
spielt das überhaupt eine Rolle?
Geht es nicht immer um TCO? Da sollte AMD immer, bzw. nahezu immer vorne sein.
https://images.anandtech.com/doci/14724/8D411CD7-B340-4074-A822-76D27E456DA2.jpeg
Ist der Rabatt gross genug, dann kann das auch den TCO Vorteil ausgleichen. Die Frage ist halt, wie weit will und kann Intel mit dem Preis runtergehen, ohne dass sie sich den Preis kaputt machen. Passt man sich preislich AMD an, können sie den Preis nie mehr so hoch treiben.
Linmoum
2019-08-08, 22:49:45
Irgendwo habe ich beim Zen2-Launch auch gelesen, dass der Chip eigentlich gar nicht für den Desktop gedacht war, der Takt aber am Ende doch höher ausgefallen ist als erwartet und es sich daher trotzdem gelohnt hat. Das ließe bei Zen 3 dann wenigstens auf ein Takt-Upgrade hoffen.Ja, das hatte hwluxx geschrieben.
Die Zen-Microarchitektur war kein One-Shot, sondern es wurden von Anfang an mehrere Generationen angelegt, die im Zusammenspiel mit den erwarteten Fertigungstechnologien, unterschiedliche Ziele hatten. Als Zen 2 im Jahre 2015 projektiert wurde, wurde schon eine Fertigung in 7 nm angestrebt. Zum damaligen Zeitpunkt war jedoch nicht ganz klar, ob dies auch funktionieren würde. So war Zen 2 als Serverarchitektur mit niedrigem Takt geplant und auch dementsprechend ausgelegt. Und genau dies werden wir mit den EPYC-Prozessoren der zweiten Generation und bis zu 64 Kernen ab Spätsommer auch sehen.
Ende 2015 hat AMD nach eigener Aussage dann aber gesehen, dass man die Prozessoren, bzw. Chips doch deutlich höher takten kann. So wurde wiederum entschieden, dass Zen 2 auch für die Ryzen-Desktop-Prozessoren zum Einsatz kommen kann. Daraus erwachsen sind die nun neuen Ryzen-Prozessoren.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/50163-amds-ryzen-7-3700x-und-ryzen-9-3900x-im-test.html
Und wenn ich mir Rome so anschaue ergibt das auch immer mehr Sinn. Für Server ist das einfach nur monströs. Matisse im Desktop ist quasi gleichgezogen, Rome hingegen frisst Xeons zum Frühstück.
Und wenn der Takt von zen2 niedriger wie "ursprünglich gedacht" gewesen wäre...was hätte man dann im Desktop gehabt?
Ich kann das nicht so richtig glauben....
gravitationsfeld
2019-08-08, 23:07:51
Wahrscheinlich weiterhin Zen1 bis Zen3 fertig waere.
Skysnake
2019-08-08, 23:11:24
So jetzt ist die Katze aus dem Sack.
Btw ich hatte heute echt schmackhaftes EPYC doof;D
Sonst noch jemand?
PS: habt ihr die 129 PCIE Lanes mitbekommen? ;)
Locuza
2019-08-08, 23:30:03
Ende 2015 hat AMD nach eigener Aussage dann aber gesehen, dass man die Prozessoren, bzw. Chips doch deutlich höher takten kann. So wurde wiederum entschieden, dass Zen 2 auch für die Ryzen-Desktop-Prozessoren zum Einsatz kommen kann.
Das klingt so nach Bullshit.
Zen2 hat 15% mehr IPC und Full-Rate AVX- Durchsatz, was sich mittlerweile auch niederschlägt.
Selbst wenn man Anfangs keine höheren Taktraten erwartet hat oder gar Niedrigere, wohl kaum soviel weniger, dass man am Ende langsamer gewesen wäre (Man kann es auch noch pessimistischer sehen und annehmen das man Anfangs nur 8-10% IPC-Increase vor sich sah).
Dagegen hätten 7nm immer für eine deutlich bessere Effizienz gesorgt und die Möglichkeit mehr als 8-Cores anzubieten.
Eine sinnige Alternative fällt mir nicht ein.
14nm Zen+ hätte 2019 keinen hinterm Ofen gelockt und Zen2 ist von der Architektur nahezu 1:1 Zen1, nur aufgebohrt, nahezu alle Designaspekte sind die gleichen in Bezug auf Pipelinelänge und internen Aufbau.
Also Zen1 unter 7nm wäre auch keine bessere Alternative gewesen.
w0mbat
2019-08-08, 23:49:59
Was, wenn Zen2 max. 3,8GHz schaffen würde? Das hätte sich nicht gelohnt. Zen2 war als reine Server-CPU geplant, hat sich dann aber sehr schnell auch als Desktop-CPU herausgebildet.
Locuza
2019-08-09, 00:43:25
Dafür hätte man Zukunft sehr negativ betrachten müssen.
So etwas wie 8% mehr IPC vom Zen2-Design, dafür über 8% weniger Takt als unter 14/12nm und noch einen super teuren 7nm Schritt, sodass sich das wirklich nicht gelohnt hätte.
Das hätte sich ja eher auf einem Brainstorming-Level befinden müssen und ein gutes Stück fernab von handfesten Plänen.
w0mbat
2019-08-09, 00:51:20
Für Server hätte es ja trotzdem gereicht, der schnellste Rome taktet mit 3,4GHz im boost. Und Zen+ wäre auch 2019 immer noch deutlich besser als was AMD vor Zen hatte.
amdfanuwe
2019-08-09, 01:03:59
Interessanter Prozessorstack für Rome
https://www.amd.com/en/press-releases/2019-08-07-2nd-gen-amd-epyc-processors-set-new-standard-for-the-modern-datacenter
48 Kerne mit 128 oder 256 MB L3.
16 Kerner mit 64 und 128 MB.
8 Kerner mit 32, 64 oder 128 MB L3 Cache.
8 Kerne 128MB können eigentlich nur 4 Chiplets je 2 CCX, 1 Kern sein. Also 4 * 2 * 1.
8 Kerne 32MB kann ein voll funktionierendes 8 Kern Chiplet sein, 1 * 2 * 4, oder 2 Chiplets mit jeweils nur einem CCX, 2 * 1 * 4.
Da verbaut AMD alles an Chiplets bei dem der L3 im CCX OK ist und ein Kern funktioniert.
Dürfte einen super Yield für die Chiplets bedeuten.
Benutzername
2019-08-09, 02:39:05
8 Kerne und 128MB L3 Cache? Ist das dann ganz besonders toller gaming cache? ;)
----------------------
Für Server hätte es ja trotzdem gereicht, der schnellste Rome taktet mit 3,4GHz im boost. Und Zen+ wäre auch 2019 immer noch deutlich besser als was AMD vor Zen hatte.
"Zen++" in 7 nm?
wäre mal interessant zu wissen, was die eigentliche Planung war bevor Zen2 sich als so taktfreudig herausstellte.
Ben Carter
2019-08-09, 08:18:09
wäre mal interessant zu wissen, was die eigentliche Planung war bevor Zen2 sich als so taktfreudig herausstellte.
Zen 3 in 7nm EUV. Es wäre halt eine Durststrecke bis dahin gewesen, aber wenn gleichzeitig der Server-Bereich nach oben geht (wovon ich nach der Vorstellung mal ausgehe), dann wäre es wirtschaftlich nicht so das große Problem. Zudem denke ich, dass Zen2 auch bei max. 3,8 GHz in den Konsolenchips super angekommen wäre bzw. rechne ich, dass die Konsolen so oder so nicht sonderlich hoch takten werden. Eher so in den Regionen, wie EPYC. Dürfte wohl der Leistungs-/Verbrauchssweetspot sein.
Die Konsolen dürften in N7 Pro gefertigt werden und dann auf N6 geändert werden, sobald das verfügbar ist.
Freestaler
2019-08-09, 08:28:01
Die kleine Epyc (8,12) haben im Verhältnis zu den gleichen Corezahl Ryzen 3000 relativ hohe TDP und deutlich tiefere Takt raten. Ist dies dem min. Doppelten, 4fach ccx geschuldet, dem Speicherinterface und co oder wird die TDP Epyc vs Ryzen anders "definiert"? Hat da einer Hinweise?
Ben Carter
2019-08-09, 08:29:56
Dem I/O insgesamt. 128 PCIe Lanes, das größere Speicherinterface, usw.
Piefkee
2019-08-09, 08:37:21
Die Konsolen dürften in N7 Pro gefertigt werden und dann auf N6 geändert werden, sobald das verfügbar ist.
Schwachsinn...
Schwachsinn...
Jo, das sind immer die tollsten Antworten :D.
Immer diese Leute, die die Wirtschaftlichkeit vergessen...
Käsetoast
2019-08-09, 10:01:12
Jo, das sind immer die tollsten Antworten :D.
Immer diese Leute, die die Wirtschaftlichkeit vergessen...
Auch wenn ich es nicht so hart formulieren würde, denke ich auch nicht, dass es so ablaufen wird - zumindest was den zweiten Teil angeht. Dass die Konsolen 7nm mit EUV nutzen werden ist denke ich sehr sicher. Bei 6nm sehe ich das dann aber etwas anders. Zum einen wird es nicht genutzt werden "sobald das verfügbar ist", sondern wenn überhaupt dann erst sobald das gute Yields bei guten Kosten hat. Ich glaube aber tatsächlich nicht, dass 6nm genutzt werden wird, weil der Unterschied zu 7nm ja recht gering sein wird (ist soweit ich weiß ja "nur" ein 7nm Prozess mit kleinerem Detailupgrade). Ich sehe da eher 5nm als Sprung für einen Shrink - das ist zeitlich nicht so weit weg und dürfte dann auch nennenswerte Vorteile gegenüber 7nm EUV haben...
Was Desktop Zens angeht bin ich mal gespannt wie AMD das handhabt und ob jeder Prozessschritt mitgenommen wird oder man auch da direkt zu 5nm springt...
mczak
2019-08-09, 10:02:24
8 Kerne 32MB kann ein voll funktionierendes 8 Kern Chiplet sein, 1 * 2 * 4, oder 2 Chiplets mit jeweils nur einem CCX, 2 * 1 * 4.
Ich gehe nicht davon aus dass es 1 CCD Chips gibt? Da könnte man (bei Bestückung aller Speicherkanäle) bloss maximal (bei optimaler Verteilung von Lese/Schreiboperationen) 1/3 der Speicherbandbreite nutzen. Aber klar hat man so wenig Kerne braucht man eigentlich auch nicht wirklich soviel Gesamtbandbreite... Scheint aber trotzdem irgendwie ein Missverhältnis zu sein.
Theoretisch wären zudem doch auch Chips mit teildeaktiviertem Cache denkbar.
dildo4u
2019-08-09, 10:37:40
Die Konsolen dürften in N7 Pro gefertigt werden und dann auf N6 geändert werden, sobald das verfügbar ist.
Wenn bei TSMC alles so super laufen würde hätten sie jetzt auch genug 3900X und könnten die Notebook Chips liefern.Man sollte eher mit Verschiebungen rechnen nicht mit unrealistischen vorziehen von N6.
AMD hätte mit Sicherheit jetzt lieber 7nm Notebooks Chip gegen Ice Lake,wenn die erst zu CES kommen dauert es wieder bis zum Sommer bis es eine nennenswerte Anzahl an Geräten damit gibt.
muß nicht an TSMC liegen, gibt ja noch andere in der Kette
amdfanuwe
2019-08-09, 11:09:50
Theoretisch wären zudem doch auch Chips mit teildeaktiviertem Cache denkbar.
Denkbar ist vieles. Ich denke eher, dass bei einem Fehler im Cache direkt das ganze CCX deaktiviert wird. Ob 12 und 16 Kerner mit 2 oder 4 Chiplets gebaut werden, sieht man erst, wenn der Deckel entfernt wird.
Der Punkt ist eigentlich, dass AMD bei den Servern auch die Defekten gut unterbringt und durch die relativ hohe TDP bei einigen Chips und den niedrigen Turbo auch schlechte Chips unterbringt. Gibt also nur sehr wenig Ausschuss bei den Chiplets, der dann noch als Fülldummy eingesetzt werden kann.
Der Yield von ROME dürfte hauptsächlich durch den Yield des I/O Chips bestimmt sein.
LadyWhirlwind
2019-08-09, 11:18:09
Denkbar ist vieles. Ich denke eher, dass bei einem Fehler im Cache direkt das ganze CCX deaktiviert wird. Ob 12 und 16 Kerner mit 2 oder 4 Chiplets gebaut werden, sieht man erst, wenn der Deckel entfernt wird.
Der Punkt ist eigentlich, dass AMD bei den Servern auch die Defekten gut unterbringt und durch die relativ hohe TDP bei einigen Chips und den niedrigen Turbo auch schlechte Chips unterbringt. Gibt also nur sehr wenig Ausschuss bei den Chiplets, der dann noch als Fülldummy eingesetzt werden kann.
Der Yield von ROME dürfte hauptsächlich durch den Yield des I/O Chips bestimmt sein.
Der ja ein anderer Chip ist und im ausgereiften 14nm Verfahren hergestellt wird. Da dürfte es auch mehr kapazitäten geben, weil vieles ja nun auf 12nm oder 7nm wechselt. Da hat AMD wahrscheinlich keine Probleme genügend Chips produzieren zu lassen.
Birdman
2019-08-09, 11:38:35
Die kleine Epyc (8,12) haben im Verhältnis zu den gleichen Corezahl Ryzen 3000 relativ hohe TDP und deutlich tiefere Takt raten. Ist dies dem min. Doppelten, 4fach ccx geschuldet, dem Speicherinterface und co oder wird die TDP Epyc vs Ryzen anders "definiert"? Hat da einer Hinweise?
Der Cache wird keinen zu unterschätzenden Stromverbrauch haben.
Intel hat z.B. bei Xeon Scalable gen2 auch diverse Modelle mit gleicher Core/Takt Anzahl, aber unterschiedlichem Cache und da haben die grösseren auch eine deutlich höhere TDP.
amdfanuwe
2019-08-09, 11:41:42
Ahh, und für 12nm wurden extra Fabs gebaut? Denke mal eher, die laufen bei GF auf umgerüsteten 14nm Produktionslinien oder teilen sich diese mit 14nm.
Ich denke, dass durch die 14nm I/O Dies für ROME und der AM4 Chipsatz sowie die 12nm I/O für Matisse und steigender Picasso Bedarf, GF besser ausgelastet ist als zuvor mit ZEN 1 Produkten.
davidzo
2019-08-09, 11:45:22
So jetzt ist die Katze aus dem Sack.
Btw ich hatte heute echt schmackhaftes EPYC doof;D
Sonst noch jemand?
PS: habt ihr die 129 PCIE Lanes mitbekommen? ;)
Ja, diesmal sind die internen PCIE Lanes vom Server-OEM/Boardhersteller frei belegbar, sogar auf Kosten der Socket zu Socket IF Links. Das heißt in 2P bis zu 160 PCIE 4.0 Lanes statt 128 PCIE 3.0 :eek:
Wenn bei TSMC alles so super laufen würde hätten sie jetzt auch genug 3900X und könnten die Notebook Chips liefern.Man sollte eher mit Verschiebungen rechnen nicht mit unrealistischen vorziehen von N6.
AMD hätte mit Sicherheit jetzt lieber 7nm Notebooks Chip gegen Ice Lake,wenn die erst zu CES kommen dauert es wieder bis zum Sommer bis es eine nennenswerte Anzahl an Geräten damit gibt.
Ich glaube kaum dass die Verfügbarkeit des 3900x an Engpässen bei TSMC liegt. AMD hat vielmehr nicht soviel geordert wie jetzt nachgefragt werden. Das ist völlig verständlich, denn die Waferverträge werden abgeschlossen bevor die genauen SKUs definiert sind. Damit weiß man noch nicht präzise wie konkurrenzfähig man sein wird. Die OEMs sind noch konservativer mit ihren Bestellungen und werden erst kurz vor oder jetzt nach Marktstart ihre Bestellungen für AMD Chips signifikant erhöht haben. Das erklärt wieso AMD einfach nicht genug Wafer bei TSMC bestellt hat. Manchmal unterschätzt man den eigenen Erfolg, bzw. handelt bei solchen Dingen eher Risikoavers. Und das kann man nicht so schnell ändern, in so kritischen Produktionsprozessen werden alle einzelnen Waferstarts für 6-10 Monate im vorraus geplant und terminiert, da kann man nicht mal eben ne "Überstundenschicht" für AMD rein schieben, wegen der hohen Nachfrage. Forrest Norrod hatte ja schon vor dme Launch von Rome gesagt, dass man eigentlich mit Ice lake SP als Konkurrenz gerechnet hat und daher nicht mit einer derartigen Marktdominanz von Epyc gerechnet hat.
Was Desktop Zens angeht bin ich mal gespannt wie AMD das handhabt und ob jeder Prozessschritt mitgenommen wird oder man auch da direkt zu 5nm springt...
Das hängt imo völlig davon ab wie der Introduction Cycle der Prozesse bei der Foundry ist und der Design->Implementation Zyklus von AMD.
Das sind ja mehrjährige Planungen, Zen2 z.B. wurde im Jahr 2015 designt.
Wenn das Designteam von AMD in einem bestimmten Halbjahr fertig ist, wird man wohl kaum 6 Monate däumchen drehen, bloß weil TSMC eben gerade keine neue Fertigungsstufe auf Lager hat. Dann guckt man eher noch mal zu Samsung und GF ob die gerade einem passenden Prozess auf Lager haben oder nimmt dann halt zur Not einen älteren Prozess, der am besten in den Implementationszeitraum passt. Die stimmen sich da schon auf Jahre im vorraus ab, wenn die genauen Daten der kommenden Prozesse erst aus Interpolatioenen und basic Tests bestehen.
Bei den GPUs sieht man das gerade ganz anschaulich. Nvidia hat die nächste Architektur schon vor größerer Verfügbarkeit von 7nm fertig gestellt und sich daher lieber mehr Zeit für die Implementierung in 14/12nm genommen. Da zwischenzeitlich aber der 7nm Prozess zur Verfügung steht, was aber nicht zum Timing der Nachfolgegeneration passt nimmt man dafür lieber schon die nächste Fertigungsstufe, 7nmEUV. AMDs Design/Implementations-teams haben ein ganz anderes Timing und daher passte 7nm gerade sehr gut. Zuerst Vega20 als low Volume Chip und mit zunehmender Verfügbarkeit des Prozesses dann Navi im mainstream.
basix
2019-08-09, 12:05:31
Der Yield von ROME dürfte hauptsächlich durch den Yield des I/O Chips bestimmt sein.
Grundsätzlich stimme ich dir in allem zu. Mit einer Ausnahme: Packaging Yield. Weniger Chiplets = Höherer Yield ;)
LadyWhirlwind
2019-08-09, 12:06:53
Ja, diesmal sind die internen PCIE Lanes vom Server-OEM/Boardhersteller frei belegbar, sogar auf Kosten der Socket zu Socket IF Links. Das heißt in 2P bis zu 160 PCIE 4.0 Lanes statt 128 PCIE 3.0 :eek:
Ich glaube kaum dass die Verfügbarkeit des 3900x an Engpässen bei TSMC liegt. AMD hat vielmehr nicht soviel geordert wie jetzt nachgefragt werden. Das ist völlig verständlich, denn die Waferverträge werden abgeschlossen bevor die genauen SKUs definiert sind. Damit weiß man noch nicht präzise wie konkurrenzfähig man sein wird. Die OEMs sind noch konservativer mit ihren Bestellungen und werden erst kurz vor oder jetzt nach Marktstart ihre Bestellungen für AMD Chips signifikant erhöht haben. Das erklärt wieso AMD einfach nicht genug Wafer bei TSMC bestellt hat. Manchmal unterschätzt man den eigenen Erfolg, bzw. handelt bei solchen Dingen eher Risikoavers. Und das kann man nicht so schnell ändern, in so kritischen Produktionsprozessen werden alle einzelnen Waferstarts für 6-10 Monate im vorraus geplant und terminiert, da kann man nicht mal eben ne "Überstundenschicht" für AMD rein schieben, wegen der hohen Nachfrage. Forrest Norrod hatte ja schon vor dme Launch von Rome gesagt, dass man eigentlich mit Ice lake SP als Konkurrenz gerechnet hat und daher nicht mit einer derartigen Marktdominanz von Epyc gerechnet hat.
Man muss ja planen bevor man die Chips fertig hat und weiss wie sie performen. Da kann es gut sein, dass AMD erstmal konservativ geordert hat und halt jetzt 6-8 Wochen weniger Liefern kann als sie eigentlich verkaufen könnten. Das ist zwar schade, aber ein Teil der Kunden wird auch zwei bis drei Wochen warten. Solange man aber genügend Kapazitäten hat um damit einen soliden Umsatz und Gewinn zu erzielen, ist das vielleicht besser als wenn mn Überkapazitäten hat.
Ausserdem könnte es auch im Frühsommer-Sommer teurer sein, produzieren zu lassen, da dann alle die Chips für das Weihnachtsgeschäft produzieren lassen wollen.
Nachtrag: Produktionskapazitäten lassen sich nicht mit mit linearen Kosten skalieren. Sprich: eine Produktionsstrasse hat vielleicht bei 1000 Stück die optimale Auslastung und niedrigste Kosten. Wenn ich 10001 Stück produzieren will, muss ich dann eine neue Anlage bauen. Es kommt zu einem Kostensprung. Das lohnt sich natürlich nicht.
fondness
2019-08-09, 12:21:00
https://www.anandtech.com/show/14664/testing-intel-ice-lake-10nm
20% IPC ueber die 14nm-Generation sind schon ne Ansage. Immerhin sind sie auch mit Coffee Lake immer noch staerker als Zen2.
Coffee Lake hat sicher nicht über Zen2-IPC. Schon gar nicht mit Mesh. Am Desktop rettet sie nur der Ringbus plus der höhere Takt.
dildo4u
2019-08-09, 12:30:12
Meinst du Anwendungen? Games laufen @4Ghz mit Zen 2 im schnitt ca auf Coffeelake Level,eher da drunter.
https://www.techspot.com/article/1876-4ghz-ryzen-3rd-gen-vs-core-i9/
Ice Lake@4GHz wäre ein Biest aber natürlich schwer zu fertigen da sie mehr als 8 Kerne brauchen.
davidzo
2019-08-09, 12:39:03
Man muss ja planen bevor man die Chips fertig hat und weiss wie sie performen. Da kann es gut sein, dass AMD erstmal konservativ geordert hat und halt jetzt 6-8 Wochen weniger Liefern kann als sie eigentlich verkaufen könnten. Das ist zwar schade, aber ein Teil der Kunden wird auch zwei bis drei Wochen warten. Solange man aber genügend Kapazitäten hat um damit einen soliden Umsatz und Gewinn zu erzielen, ist das vielleicht besser als wenn mn Überkapazitäten hat.
Das wir wohl kaum in 6-8 Wochen änderbar sein. Wafer kapazitäten werden normalerweise viel früher schon reserviert.
Nachtrag: Produktionskapazitäten lassen sich nicht mit mit linearen Kosten skalieren. Sprich: eine Produktionsstrasse hat vielleicht bei 1000 Stück die optimale Auslastung und niedrigste Kosten. Wenn ich 10001 Stück produzieren will, muss ich dann eine neue Anlage bauen. Es kommt zu einem Kostensprung. Das lohnt sich natürlich nicht.
Ich glaube nichtmal das TSMC irgendwas da so kurzfristig für AMD anpassen kann. Man darf nicht vergessen das AMD nur ein mittelgroßer Kunde für TSMC ist, weit hinter Großkunden wie Apple, Huawei und Nvidia. TSMCs hat eine bestimmte Menge an Scannern die für 7nm gerüstet sind und da ist jeder einzelne über Jahre im vorraus für einen bestimmten Kunden reserviert. Sowas wie 40 Scanner von KW10 bis KW40 für AMD Matisse DIEs reserviert und zusätzliche 20 ab KW25, ab KW40 dann 20 Scanner für Navi12.
Alleine ein kurzfristiger Shift innerhalb der AMD reservierten Kapazitäten, z.B. weniger Navi10 Chips, dafür mehr Matisse DIEs, dürfte mit mehrmonatigen Vorbereitungen verbunden sein. Zuerst braucht man ja ein weiteres Set an Masken und dann müssen die auf den Scannern installiert werden und Tests und yield-Optimierung gefahren werden. Die Umrüstkosten und Downtimes bei solch einer Aktion sind nicht zu unterschätzen, das es sich für AMD wahrscheinlich nicht lohnt sowas mal eben nach ein paar Wochen besserem Markterfolg als erwartet übers Knie zu brechen.
Man wird eher versuchen ob man nicht durch trilaterale Verhandlungen mittelfristig Kapazitäten der anderen Kunden für AMD requirieren kann. Und falls TSMC noch einige Scanner für Testprojekte oder Umrüstung frei hat könnten sie versuchen diese AMD noch gewinnbringend anzubieten.
Die Ausbaupläne sind bei TSMC ja mehrjährig geplant, da hängen Reinraumverfügbarkeit, Personalplanung, Lieferverträge mit ASML etc. dran. Man kann nicht mal eben zwei-drei Scanner mehr kaufen und sich hinstellen, so funktioniert der Markt für Litographie Scanner nicht. Die werden alle einzeln handmontiert und mehrere Jahre im vorraus bei ASML reserviert.
dildo4u
2019-08-09, 15:15:07
N5hibuBHlfw
Freestaler
2019-08-09, 15:26:38
Der Cache wird keinen zu unterschätzenden Stromverbrauch haben.
Intel hat z.B. bei Xeon Scalable gen2 auch diverse Modelle mit gleicher Core/Takt Anzahl, aber unterschiedlichem Cache und da haben die grösseren auch eine deutlich höhere TDP.
Hmm nur haben die kleinen Epyc ja nicht mehr Cache als die Ryzen. Und io Chip sollte auch keine 60watt+ sein.
Gipsel
2019-08-09, 16:02:14
Hmm nur haben die kleinen Epyc ja nicht mehr Cache als die Ryzen. Und io Chip sollte auch keine 60watt+ sein.
Hmm, wenn der Traffic von 128 PCIe-Lanes (256GB/s pro Richtung, also 512GB/s aggregiert) und dem 8-Channel DDR4-3200 Interface (205GB/s) irgendwie über das Die geroutet und dann die Signale über das Board getrieben werden müssen, dürften da schon ein paar Watt zusammenkommen.
Mal eine kleine Überschlagsrechnung:
PCIe3 lag bei ~10pJ pro Bit. Nehmen wir für PCIe4 der Einfachheit halber das Gleiche an.
Dann landen wir bei 512GB/s, also 4TBit/s schon bei 40Watt nur für die Datenübertragung über PCIe (okay, nur die Hälfte, also 2,2*1012 Bit/s werden maximal gesendet, der Rest empfangen, aber die Eingangselektronik und Routing über das on-Die Fabric sind auch nicht umsonst). Rechne noch das Speicherinterface dazu (DDR4-3200 liegt angeblich im Optimum [mit 1.2V] bei ~5pJ/bit [>8W nur für die Datenübertragung, da ECC sind es >9W], Speichercontroller kommt noch dazu, der bei Epyc ja on-the-fly AES En-/Decryption mit voller Bandbreite kann]) und 60W sind vermutlich recht realistisch. ;)
Laut der Patch Serie (https://lists.freedesktop.org/archives/amd-gfx/2019-August/038383.html) hat man die Bestätigung für Vega. Also wirklich kein Navi, das ist ein krasses Ding. Gerade im mobilen Bereich wäre eine effizientere Architektur von Vorteil. Aber nein, sie bringen nochmal den ausgelutschten Vega für das Jahr 2020.
dildo4u
2019-08-09, 21:56:30
Vega in 7nm könnte um 20% Leistung beim selben TDP bringen,laut den ersten Ice Lake Benches reicht selbst die aktuelle 12nm GPU locker mit viel langsameren Ram.
https://hothardware.com/reviews/intel-10nm-ice-lake-performance-and-benchmarks?page=6
AMD muss eigentlich nur den Ram Support verbessern und die Sache ist gegessen.
Vega in 7nm könnte um 20% Leistung beim selben TDP bringen,laut den ersten Ice Lake Benches reicht selbst die aktuelle 12nm GPU locker mit viel langsameren Ram.
Mit nur +20% wird das Tigerlake GT2 aber vernichten.
Unicous
2019-08-09, 22:16:31
AMD unterstützt bei den Embedded RR Chips bereits 3200MHz, keine Ahnung warum sie es bei Picasso nicht tun. Allein, das würde schon einen ordentlichen Boost geben. Natürlich ist die Geschichte mit dem LPDDR-Support komisch, andererseits führt LPDDR ja nicht automatisch zu besserer Performance bei weniger Leistungsaufnahme.:wink:
Bislang sieht es nach einem Shrink aus, da könnte sich also Einiges an der Effizienz tun, zudem höhere Frequenzen für CPU und GPU, und das ist für AMD im mobilen Sektor momentan wichtiger als die IGP-Leistungskrone zu haben, die sie wahrscheinlich eh verteidigen können.
Etwas langweilig, aber wahrscheinlich nicht vermeidbar. Die Zeitpläne könnten da kollidiert sein. Wenn und falls aber die Kerne auf Zen2 geupdatet wurden dürfte es definitiv ein Timing-Problem gewesen sein.
gravitationsfeld
2019-08-09, 22:30:32
Coffee Lake hat sicher nicht über Zen2-IPC. Schon gar nicht mit Mesh. Am Desktop rettet sie nur der Ringbus plus der höhere Takt.
Bloedsinn. Intel hat immer noch ~10% IPC-Vorsprung bei gleichem Takt in Single-Threaded Workloads. Das hat ueberhaupt nichts mit dem Interconnect zu tun.
Schnoesel
2019-08-09, 22:58:20
Zeig mal.
Freestaler
2019-08-09, 23:14:14
Gipsel, interessante Ausführung. Dann sind ca. 32w vom Speicherzugriff/verwaltung zum 3700x schonmal erklärbar. Find jedoch trotzdem noch heftig weil der Epyc auch noch deutlich tiefere Taktraten hat. Vermutlich wie ihr sagt, vor allem ein bisschen. Freue mich auf Reviews.
][immy
2019-08-09, 23:21:26
Laut der Patch Serie (https://lists.freedesktop.org/archives/amd-gfx/2019-August/038383.html) hat man die Bestätigung für Vega. Also wirklich kein Navi, das ist ein krasses Ding. Gerade im mobilen Bereich wäre eine effizientere Architektur von Vorteil. Aber nein, sie bringen nochmal den ausgelutschten Vega für das Jahr 2020.
Macht schon Sinn. Das Design kam ja nicht erst letzte Woche auf. Rdna war noch nicht fertig und zu unsicher ob es am Ende wirklich wie erhofft funktioniert oder doch noch Mal geschoben werden muss, da wird man es nicht schon in eine cpu bauen, sondern nimmt das, was zu Design Zeitpunkt auf jeden Fall funktioniert.
Bloedsinn. Intel hat immer noch ~10% IPC-Vorsprung bei gleichem Takt in Single-Threaded Workloads. Das hat ueberhaupt nichts mit dem Interconnect zu tun.
Das ist schlicht und ergriefend Quatsch. Zen2 hat 5-8% mehr IPC als Skylake. Nur bei einigen Anwendungen und vor allem Spielen ist der Ringbus eben immer noch von großem Vorteil. Der höhere Takt tut sein übriges. Bei Anwendungen. neo denen der Ringbus egal ist, wird jedoch deutlich, dass Zen2 eindeutig mehr IPC hat. Hier reicht schon ein 3700X mit 65W und weniger Takt um den 9900k zu schlagen.
Und Vega verbraucht erheblich weniger Platz pro CU als Navi. Zudem ist die Effizienz ja bei der geringen CU-Anzahl sicherlich fast so gut wie bei Navi. Das macht also gar keinen Sinn hier RDNA zu verwenden. Bei 5nm sieht das wieder anders aus.
mczak
2019-08-10, 00:16:42
Also zwischen Vega 10 und RR lagen auch nur ein paar Monate. Klar die Aenderungen im Vergleich zum Vorgänger waren da geringer aber durchaus nicht unerheblich.
Ich sehe jedenfalls nichts das dagegen sprechen würde dass auch ein runterskalierter Navi nicht sowohl energie- wie auch bandbreiteneffizienter wäre gegenüber Vega. Etwas schade ist es da schon dass bei AMD die APUs offensichtlich nicht gerade prioritär behandelt werden. Aber gut, um die GPU in Ice Lake zu schlagen (auch wenn der schnelleren Speicher nutzen kann) wird das locker reichen.
Das wird mMn sogar so sein, dass man Renoir in zum Jahreswechsel 2020/21 sicherlich einfach in 6nm auch noch einfach refreshen wird, ähnlich wie Picasso.
gravitationsfeld
2019-08-10, 00:33:19
Das ist schlicht und ergriefend Quatsch. Zen2 hat 5-8% mehr IPC als Skylake
In deinen Traeumen vielleicht.
Nochmal: Single thread workloads. Das hat null mit dem "Ringbus" zu tun. Es wird ein Core benutzt.
Zeig mal.
Ich kann nichts dafuer, dass ihr Benchmarks nicht interpretieren koennt.
[immy;12069692']Macht schon Sinn. Das Design kam ja nicht erst letzte Woche auf. Rdna war noch nicht fertig und zu unsicher ob es am Ende wirklich wie erhofft funktioniert oder doch noch Mal geschoben werden muss, da wird man es nicht schon in eine cpu bauen, sondern nimmt das, was zu Design Zeitpunkt auf jeden Fall funktioniert.
Ja jetzt weiß es wieder jeder besser. Schau in den ersten Beitrag, die originale Erwartungshaltung wir dann schnell klar. Vor ein paar Monaten hätte das niemand geglaubt, nein man wurde schief angekuckt, wenn man die These mit Vega aufgestellt hat. Jetzt wird relativiert, ist klar.
Das ist schlicht und ergriefend Quatsch. Zen2 hat 5-8% mehr IPC als Skylake.
Also nach den Tests her ist die IPC in Anwendungen gleich und in games mit Vorteilen für Intel.
basix
2019-08-10, 00:55:03
In deinen Traeumen vielleicht.
Nochmal: Single thread workloads. Das hat null mit dem "Ringbus" zu tun. Es wird ein Core benutzt.
Ich kann nichts dafuer, dass ihr Benchmarks nicht interpretieren koennt.
Ich glaube ihr missversteht euch gegenseitig bezüglich IPC vs. ST Performance.
gravitationsfeld
2019-08-10, 01:00:30
IPC ist "Average Instructions per Clock" und nix anderes. Da ist Intel nach wie vor vorne, das ist ueberhaupt nicht diskussionswuerdig.
amdfanuwe
2019-08-10, 01:19:10
Das wird mMn sogar so sein, dass man Renoir in zum Jahreswechsel 2020/21 sicherlich einfach in 6nm auch noch einfach refreshen wird, ähnlich wie Picasso.
Könnte ich mir auch vorstellen.
Vega Treiber sind ausgereift. Netter Upgradepfad für Embedded und Mobile. Chip austauschen, schon hat man weniger Verbrauch oder mehr Leistung bei gleichem Verbrauch ohne viel Aufwand für Redesigns.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.