Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020
Mangel76
2019-01-09, 22:41:15
sieht nach einem guten Produkt aus.
da sich im cinebench die ipc aber gegenüber 2700x kaum erhöht hat, hoffe ich dass der Fokus auf den latenz verbesserungen lag.
Woher weißt du das? Die Taktraten sind ja nicht bekannt??? Angebl. 4,6, aber ob es stimmt, weiß an auch nicht.
https://twitter.com/IanCutress/status/1083099086880952320
Es kommen ziemlich sicher CPUs mit zwei chiplets, also 16C/32T.
Außerdem:
https://mobile.twitter.com/markhachman/status/1083097464624693248
Lisa Su tells us don't count on 3rd Gen Ryzen to be limited to 8 cores. That extra room will be used!
mczak
2019-01-09, 23:28:43
Mir erscheint der I/O DIE zumindest verdächtig groß (verglichen zu dem auf ROME), evtl. steckt ja schon eine kleine GPU drin? Wobei ich das ehrlich gesagt nicht für sehr wahrscheinlich halte.
Ich weiss nicht ob das wirklich Platz hätte. So ein maximal abgespeckter Vega (ohne an der Architektur grundlegend was zu ändern, Vega 3 wäre etwa auf intel gt2 Niveau) wäre wohl trotzdem noch so ~50mm² gross, an Video Encoder/Decoder, Displaycontroller etc. kann man nichts sparen im Vergleich zu RR.
Man kann die Grösse des i/o Die auch anders rechnen, ausgehend vom alten Ryzen. Pinnacle Ridge ohne die beiden CCX wäre etwa 130mm² gross, also praktisch identisch zum neuen i/o Die. Gut Pinnacle Ridge hat etwas zu viel I/O (4 GMI Links statt bloss 2, wobei die neuen wohl schneller sind, etwas zu viel pcie, wobei auch hier mit pcie 4.0 werden die sicher auch nicht kleiner), aber so ein grosser Unterschied ist das nicht, von daher könnte 120mm² für bloss i/o ohne GPU schon hinkommen. Auch wenn mir das auf den ersten Blick auch gross erscheint... (Wobei das i/o Die viel weniger Data Fabric benötigen sollte, keine Ahnung ob das wirklich Platz braucht, war mir bei den alten Ryzen nie klar wozu da all die Fläche neben den CCX und den i/o Blöcken eigentlich gut ist aber irgend eine Funktion hatte sie wohl schon :biggrin:.)
BlacKi
2019-01-10, 00:09:08
Woher weißt du das? Die Taktraten sind ja nicht bekannt??? Angebl. 4,6, aber ob es stimmt, weiß an auch nicht.
könnte boost gewesen sein, da ein eisgekühlter 2700x ca. die 2k cinebench bei 4,4 schafft, wäre das schlecht bei 4,6, denn da wäre die ipc geschrumpft. dann würde man den 7nm prozess nur dafür nutzen das die power nicht explodiert. die 133w sind schon mehr als die des 2700x soweit ich weis. der abstand zwischen einem 4,35ghz 2700x und einem 5ghz 9900k bleibt im gaming "tremendous" und das gezeigte ist kaum besser, eigentlich nur stromsparender, was bei ryzen im gaming rig eh nie ein problem war.
Langlay
2019-01-10, 00:14:39
könnte boost gewesen sein, da ein eisgekühlter 2700x ca. die 2k cinebench bei 4,4 schafft, wäre das schlecht bei 4,6, denn da wäre die ipc geschrumpft. dann würde man den 7nm prozess nur dafür nutzen das die power nicht explodiert. die 133w sind schon mehr als die des 2700x soweit ich weis. der abstand zwischen einem 4,35ghz 2700x und einem 5ghz 9900k bleibt im gaming "tremendous" und das gezeigte ist kaum besser, eigentlich nur stromsparender, was bei ryzen im gaming rig eh nie ein problem war.
Ich schaffe ziemlich genau 2000 Punkte in CB mit 2700X 4.35GHz Allcore und DDR3466. Aber das ist auch schon letze Rille und der Verbrauch ist auch >160W
BlacKi
2019-01-10, 00:16:34
Ich schaffe ziemlich genau ~2000 Punkte in CB mit 2700X 4.35GHz Allcore und DDR3466. Aber das ist auch schon letze Rille und der Verbrauch ist auch >160W
joa, 30w gespart, was eine nice cpu! 7nm FTW:biggrin:
dildo4u
2019-01-10, 00:17:48
joa, 30w gespart, was eine nice cpu! 7nm FTW:biggrin:
Er meint 160 nur für die CPU,die 133 von Zen 2 sind für das ganze System.
The AMD system on the other hand was running at 130-132W.
If we take a look at our average system idle power in our own reviews which is around 55W, this would make the Intel CPU around 125W, whereas the AMD CPU would be around 75W.
https://www.anandtech.com/show/13829/amd-ryzen-3rd-generation-zen-2-pcie-4-eight-core
Ein 2700X System zieht 200 Watt in Cinebench:
https://www.guru3d.com/articles_pages/amd_ryzen_7_2700x_review,7.html
BlacKi
2019-01-10, 00:24:58
ok, 60w gespart^^
Schnoesel
2019-01-10, 00:32:22
Nett wenns denn am Ende 25%+ auf meinen 1800X sind, musse ich mir das nochmal gut überlegen. Ist eigentlich unnötig aber Lust hätt ich ja schon :biggrin:
Wäre auch toll wenn da noch Reserven wären. Mal sehen, jetzt beginnt das warten erst Recht.
Ach ja, dass man Intel I9 9900k knapp schlägt wird bestimmt Zufall gewesen sein ;-) War wohl eher ein Seitenhieb.
w0mbat
2019-01-10, 00:59:39
AMD wird den Takt genau so gewählt haben, dass man den 9900K knapp schlägt. Das Ding ist noch nen halbes Jahr entfernt und wird wohl ein Ryzen 5 Ableger. Das war nur ein Teaser.
BlacKi
2019-01-10, 01:19:18
AMD wird den Takt genau so gewählt haben, dass man den 9900K knapp schlägt. Das Ding ist noch nen halbes Jahr entfernt und wird wohl ein Ryzen 5 Ableger. Das war nur ein Teaser.
bei dem 2700x ist auch nicht der stromverbrauch schuld daran das nicht mehr takt geht, auch nicht die temp. eher die clockwall. das man einen 9900k in den anwendungen schlagen konnte muss nicht heißen, das noch viel mehr geht nur weil der verbrauch niedrig ist. ausgeschlossen ist es auf der anderen seite aber auch nicht.
bei dem 2700x ist auch nicht der stromverbrauch schuld daran das nicht mehr takt geht, auch nicht die temp. eher die clockwall. das man einen 9900k in den anwendungen schlagen konnte muss nicht heißen, das noch viel mehr geht nur weil der verbrauch niedrig ist. ausgeschlossen ist es auf der anderen seite aber auch nicht.
Das ist aber absichtlich so gewählt um den Verbrauchsvorteil richtig in Scene zu setzen, denn genau das ist die Archillesverse des 9900k. Zudem verrät man nichts über die reale Leistungsfähigkeit. Cinebench nutzt desweiteren afaik gar kein AVX 256 effektiv. Das sagt genau 0 über die tatsächliche Leistungsfähigkeit aus. Interessant war aber die Erwähnung beim Epyc Event, dass AMD sich besonders für Finanzsoftware gut aufgestellt sieht (was normalerweise viel IPC und Takt erfordert) und Su offenbar heute das Ding als erstes als Gaming CPU ankündigte. Sollte sich da im I/O Die vielleicht ne Überraschung verbergen?
Im allgemeinen würde ich eher dazu tendieren, dass man jetzt noch besser binnen kann, denn der Löwenanteil der schlecht taktbaren Chips wandert auf die Epycs.
BlacKi
2019-01-10, 02:33:19
richtig, es sagt nichts aus. genau wie damals der demo run des 1800x gegen den 6900k. spannend wirds erst wenn man clockwall kennt und was beim ram so geht. vorher haben wir nicht die leiseste ahnung.
schlecht taktbar bedeutet aber auch höhere voltage, auf einer 64kern cpu will man keine cpu kerne die saufen.
Ravenhearth
2019-01-10, 04:34:29
AMD's CEO Lisa Su confirms ray tracing GPU development, hints at more 3rd-gen Ryzen cores (https://www.pcworld.com/article/3332205/amd/amd-ceo-lisa-su-interview-ryzen-raytracing-radeon.html)
While Su didn’t say for certain that the upcoming 3rd-generation Ryzen would ship with more than the eight cores that she announced on stage, well, it wasn’t hard to read between the lines. “If you look at the evolution of Ryzen, we’ve always had an advantage in core count,” Su said.
In the demonstration showed onstage—comparing a 3rd-generation eight-core, 16-thread Ryzen against an Intel Core i9-9900K, which lost to the Ryzen chip in the Cinebench benchmark—Su said that she wanted to establish a head-to-head comparison, using comparable core counts.
“Some people may have noticed on the package some extra room,” she said with a chuckle. “There is some extra room on that package and I think you might expect we will have more than eight cores.”
Noch offensichtlicher wärs nur, wenn sie dabei auch noch auffällig gezwinkert hätte :D
Rancor
2019-01-10, 07:51:23
Die Frage ist welche Taktraen anlagen bei dem Benchmark und wenn ja auf wieviel Kernen.
Ohne diese Infos kann man nicht einschätzen wie gut/schlecht die IPC und Perf/Watt ist.
basix
2019-01-10, 07:53:20
Weiss man eigentlich, dass das I/O Die 14nm und nicht doch 7nm sind? Ich dachte AMD hätte da mal was von wegen "7nm only" für Ryzen gesagt.
Piefkee
2019-01-10, 08:24:52
https://i.redd.it/9821e2a6nj921.jpg
Gibt es noch fragen?:cool:
Piefkee
2019-01-10, 08:32:24
Łukasz Lis's Said The Demo Zen 2 CPU Is A Stepping B (later revision, Quality Sample) Ryzen 5, 8core/16 threads, 65W TDP, at 3.7base clock , AM4 socket, hitting 4.5ghz
Lukasz Lis is the admin for AMD Ryzen Enthusiasts on Facebook with internal contacts.
Sieht ziemlich nach dem geleakten ES aus. 5D0108BBM8SH2_37
nairune
2019-01-10, 08:34:32
Also das billig Ding für nachher 200€. Nett :D
Menace
2019-01-10, 08:38:52
65 W TDP in Anwenderbereich gegen 9900 K? Vielleicht bekommt mein 1700 doch ein Nachfolger. Muss ja nur die CPU tauschen. :smile:
Brillus
2019-01-10, 08:44:06
65 W TDP in Anwenderbereich gegen 9900 K? Vielleicht bekommt mein 1700 doch ein Nachfolger. Muss ja nur die CPU tauschen. :smile:
Denk ans BIOS Update davor.
Menace
2019-01-10, 08:48:39
Denk ans BIOS Update davor.
:biggrin: Danke. Immerhin hätte ich ja einen Ersatz, damit ich wenigstens wieder starten kann.
Tobalt
2019-01-10, 08:58:02
Nennen wir das Kind mal R5 3600 ;)
also wie bereits gesagt bin ich auf latenzkritische benchmarks gespannt. ich vermute in solchen gibt es eine Verbesserung gegenüber pinnacle ridge, aber nicht genug um letzlich Coffeelake IPC ganz zu erreichrn. deshalb wurde zur Demonstration weiterhin eine passende App gezeigt, die einen leichten Sieg ermöglicht
Rancor
2019-01-10, 08:58:30
Das die 8 Core ja jetzt einem Die sind, fällt ja der Flaschenhals CCX weg, dafür kommt eine Schnittstelle zum IO Die hinzu. Fraglich ist, in wie fern sich das auf die Latenzen auswirkt.
Ich denke für Gaming ist das gar nicht mal so gut, oder was meint ihr ?
Tobalt
2019-01-10, 09:00:00
Weiß man denn ob das 8 core chiplet nicht trotzdem zwei CCX enthält wie bisher?
M4xw0lf
2019-01-10, 09:25:42
Das die 8 Core ja jetzt einem Die sind, fällt ja der Flaschenhals CCX weg
Das ist seit dem allerersten Zen so. Vermutlich sind es bei Zen 2 immer noch pro Die 2 CCX a vier Cores.
Screemer
2019-01-10, 09:32:15
Also das billig Ding für nachher 200€. Nett :D
Ich sehe unzählige 6 und 8 Kerner auf eBay und den einschlägigen Foren. Freu mich schon :)
Langlay
2019-01-10, 09:35:37
Ich sehe unzählige 6 und 8 Kerner auf eBay und den einschlägigen Foren. Freu mich schon :)
Wenns einen 12+ Kerner mit 4.5 GHz Allcore gibt, geht mein 2700X definitiv in Rente.
Rancor
2019-01-10, 09:35:45
Das ist seit dem allerersten Zen so. Vermutlich sind es bei Zen 2 immer noch pro Die 2 CCX a vier Cores.
Ach richtig. Hab da grad was durcheinander gebracht. Diese Chiplet Bauweise verwirrt mich :D
Dural
2019-01-10, 09:45:05
So viel zu den 100% Kompatibilität alter AM4 MB zu PCI-E 4.0, habe es ja gleich gesagt.
Während neue Mainboards mit 500er-Chipsatz von AMD nativ direkt darauf ausgelegt werden, geht der Blick vor allem auf die alten Platinen. AMD erklärt, dass die neuen Ryzen-Prozessoren problemlos auf diesen funktionieren werden, PCI Express ist wie immer vollständig abwärtskompatibel. Möglicherweise lassen sich alte Mainboards zum Teil aber auch auf PCI Express 4.0 upgraden
Dafür muss das Mainboard aber entsprechend „sauber“ und gemäß der Spezifikationen von PCIe 4.0 verdrahtet sein, die Einschätzung von Tomshardware, dass jedes alte AM4-Mainboard PCIe 4.0 können kann, dürfte bereits dadurch vermutlich nicht zutreffen. Die Frage wird letztlich auch sein, ob es die Mainboardhersteller per BIOS/Firmware freischalten (wollen), denn neue Mainboards sollen schließlich auch verkauft werden. Unter diesem Gesichtspunkten dürfte es letztlich einige Lösungen geben, bei denen das angeboten wird, wer das Komplettpaket an neuen Features haben will, braucht ohnehin ein neues Mainboard.
https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
Rancor
2019-01-10, 09:49:03
Die neuen Karten haben doch ehh nur PCI 3.0, also ist das völlig wayne. Fakt ist, ich kann einen aktuellen Prozessor auf ein Board packen welches 3 Jahre als ist und es läuft und genau das werde ich tun :D
Loeschzwerg
2019-01-10, 09:51:11
Für normale Nutzer sehe ich das jetzt nicht wirklich als KO Kriterium. Selbst wenn VII PCIe 4.0 bieten würde gäbe es keinen Vorteil.
Dural
2019-01-10, 10:00:39
Mir geht es nur darum das meine Aussage gestern von den üblichen verdächtigen "hoch angezweifelt" wurde.
Mir ist das so wie so egal, zu einer neuen CPU gehört auch ein neues MB. Es baut ja auch keiner in sein Auto einen neuen Motor ein weil der neue mehr Leistung hat und etwas weniger verbraucht ;)
Edit:
Wie so hat die Vega7 eigentlich kein PCI-E 4.0? Ist das ding kaputt? Gerade mit Ryzen2 wäre das ein super Verkaufsargument.
Ich kann mich erinnern das NV auch mal Probleme hatte, mir fällt die Generation aber gerade nicht ein, jedenfalls war da auch nur auf den Tesla das neue PCI-E aktiv.
So viel zu den 100% Kompatibilität alter AM4 MB zu PCI-E 4.0, habe es ja gleich gesagt.
https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
100% Kompatibel sind sie doch ...
Du kannst ne PCI-E 4.0 Graka in jedes AM4 Mobo stecken und es läuft ;)
Also ich hätte nicht erwartet, auf alten Mobos noch in den Genuss von PCI-E 4.0 kommen zu können.
https://www.tomshardware.com/news/amd-ryzen-pcie-4.0-motherboard,38401.html
"But after speaking with several motherboard vendors here at CES 2019, we've learned that many of them have successfully tested PCIe 4.0 on 300- and 400-series AMD motherboards, meaning that the feature could be enabled with a simple BIOS update, at least partially."
Mir ist das so wie so egal, zu einer neuen CPU gehört auch ein neues MB. Es baut ja auch keiner in sein Auto einen neuen Motor ein weil der neue mehr Leistung hat und etwas weniger verbraucht ;)
Früher hatte ich in jedem AMD Mobo 2-3 CPU´s :)
Eine CPU wechselt sich, finde ich, wesentlich einfacher als ein Motor oder ein Mainboard ;)
m.f.g. JVC
Rancor
2019-01-10, 10:05:27
Mir geht es nur darum das meine Aussage gestern von den üblichen verdächtigen "hoch angezweifelt" wurde.
Mir ist das so wie so egal, zu einer neuen CPU gehört auch ein neues MB. Es baut ja auch keiner in sein Auto einen neuen Motor ein weil der neue mehr Leistung hat und etwas weniger verbraucht ;)
Aha und wieso? Welchen rationalen Grund sollte es geben bei jedem CPU wechsel sein Board zu tauschen, wenn es der Hersteller nicht vorgibt?
Die Unterschiede der einzelnen Chipsätze sind bei Intel und AMD meistens mit der Lupe zu suchen. Oder wo ist der signifikante Unterschied zwischen einem Z370 und Z270 zB. ?
Dural
2019-01-10, 10:12:07
Den gibt es nicht (270-370) deswegen hat mein 9900K auch den Z390 ;)
Aber meine Beweggründe etc. sind hier ziemlich OT.
SKYNET
2019-01-10, 10:29:36
joa, 30w gespart, was eine nice cpu! 7nm FTW:biggrin:
die gezeigte CPU hat 30W gegenüber dem 125W k9900k gespart...
SKYNET
2019-01-10, 10:31:03
So viel zu den 100% Kompatibilität alter AM4 MB zu PCI-E 4.0, habe es ja gleich gesagt.
https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
tja, und ich sagte das es genug layer haben muss... weil die verdrahtung ist identisch... und da mein b350 itx eh nen fettes PCB hat, sollte das kein problem darstellen :P
Wenns einen 12+ Kerner mit 4.5 GHz Allcore gibt, geht mein 2700X definitiv in Rente.
meiner geht so oder so in rente... ich brauch was womit ich die ganzen 9900k leute dissen kann :devil:
Den gibt es nicht (270-370) deswegen hat mein 9900K auch den Z390 ;)
Aber meine Beweggründe etc. sind hier ziemlich OT.
solange es keine performanceunterschiede gibt(und die gibts einfach nicht), isses völlig puppe ob nen B350, oder X570...
kunibätt
2019-01-10, 10:34:38
die gezeigte CPU hat 30W gegenüber dem 125W k9900k gespart...
Haben die nicht eher ca. 55W gegenüber dem 9900K gespart? Hoffe weiterhin auf 16 Kerne innerhalb von 95Watt.
BlacKi
2019-01-10, 10:35:49
meiner geht so oder so in rente... ich brauch was womit ich die ganzen 9900k leute dissen kann :devil:
au, da seh ich jemanden wieder jede menge stunden 3dmark und cinebench laufen lassen ;D;D;D
Hoffe weiterhin auf 16 Kerne innerhalb von 95Watt.
ein großer vorteil wäre, wenn man das selbst einstellen könnte wieviel die cpu mit xfr on verbrauchen darf. der 2700x darf mit xfr nur 105w brauchen. wäre schön wenn man auch 65w, 95w, 150w oder 180w einstellen könnte.
SKYNET
2019-01-10, 10:37:39
au, da seh ich jemanden wieder jede menge stunden 3dmark und cinebench laufen lassen ;D;D;D
ja, erwische mich manchmal selber wie ich die hall of fame bei 3dquark durchstöber :freak: seltsam mich da nicht mehr drinne zu finden...
Setsul
2019-01-10, 10:40:25
Also richtig geraten.
I/O Die mit 2x IFOP und wahlweise 2x8C oder 8C+GPU hatte ich ja schon vorgeschlagen. 100 mm² I/O + 2x ~70 mm² 8C Chiplet passt bei geringen Abstand gut auf AM4. Polaris 12 Nachfolger, also irgend so ein kleines 50-100$ 10-16 CU GPU Ding, mit IFOP wird kaum größer sein, geht auch.
Die große Frage ist jetzt wie sehen die AM4 APUs aus?
Dann natürlich noch so ein paar Kleinigkeiten. Egal wie man es dreht und wendet (ha!) nur die Hälfte der Heatpipes wird über das Chiplet laufen. Bei 2 Chiplets sollte wieder alles gleichmäßig sein, solange die Heatpipes quer laufen macht die leichte Versetzung von der Mitte nichts, aber bei einem könnten die Temperaturen etwas höher werden als bei einem mittigen, doppelt so großem Chip wie eben bei 8C CFL oder Zen1 bei gleichem Verbrauch. Auf Stock sollte der Vebrauch 8C vs 8C niedriger sein, aber wer übertaktet könnte sich wundern.
Bezüglich der Kosten, weil das jemand erwähnt hat: Teurer als Zen1 wirds auf jeden Fall, bei ungefähr gleichem Preis pro Transistor aber doppelter Dichte kosten 80 mm² 7nm ungefähr das gleiche wie 160 mm² 14nm. Also insgesamt ~280 mm² 14nm bevor man Yields miteinrechnet. 40% teurer, also verschleudern wird AMD die Dinger nicht, aber Intels Preise zu unterbieten dürfte kein Problem sein.
dildo4u
2019-01-10, 10:41:09
au, da seh ich jemanden wieder jede menge stunden 3dmark und cinebench laufen lassen ;D;D;D
Dieser Aufbau hat beim 8 Core Modell nicht mehr den Nachteil das es zwei CCX sind wie beim 2700X,daher sollte die Latenz deutlich verbessert sein.
Also nicht nur Performance in 3D Mark und Cinebench.
ein großer vorteil wäre, wenn man das selbst einstellen könnte wieviel die cpu mit xfr on verbrauchen darf. der 2700x darf mit xfr nur 105w brauchen. wäre schön wenn man auch 65w, 95w, 150w oder 180w einstellen könnte.
Kann man :smile:
Aber hab mich mit den Optionen noch nicht soviel rum gespielt.
Da kann dir wer anderer sicherlich genaueres mitteilen ;)
m.f.g. JVC
darkcrawler
2019-01-10, 10:43:27
Mir ist das so wie so egal, zu einer neuen CPU gehört auch ein neues MB. Es baut ja auch keiner in sein Auto einen neuen Motor ein weil der neue mehr Leistung hat und etwas weniger verbraucht ;)
mein kumpel hat seinen VR6 Passat auf einen AFN TDI umgebaut, dein vergleich ist zudem totaler unsinn, da es 5 minuten benötigt um eine cpu zu wechseln :rolleyes: zudem es völliger unsinn ist, das mainboard zu tauschen, vllt. noch das OS neu zu installieren und sämtliche programme, ergo wie kommt man auf so eine realitätsferne aussage
_aaaaach nee, ich könntes mobo zwar drin lassen, aber lass ich kooof trotzdem n neues, weil ich bock auf win+prog installation habe, lol
Welche Erwartungen sollen denn nicht gehalten werden? AMD hat gerade einen Vorserienchip gezeigt der einen i9-9900K schlägt, und das bei einer deutlich besseren Effizienz.
Und was für eine Ernüchterung ist eingetreten? Dass AMD einen ES mit 8C gezeigt hat auf dem ganz klar zu sehen ist, dass 2 chiplets vorgesehen sind? Oder dass die ganzen Intel-Fanboys jetzt plötzlich merken, wie last-gen der i9-9900K ist?
+1
ich bin verdammt beieindruckt, zudem der 16C quasi mit bestätigt ist, CB auf 9900k niveau _und_ so effizient hätte ich nicht erwartet, verdammt, der hype-train hatte recht und ist an mir vorbeigezischt :D
GENIAL, erst schlägt Gen1 ein wie nix und die 3. scheint nochmal das sahnehäubchen
Das 2 Speicherstandsards unterstützt werden ist doch ein alter Hut. Das haben die Core2 und Phenom 2 schon hinbekommen.
core 2 per northbridge
Rancor
2019-01-10, 10:50:31
Dieser Aufbau hat beim 8 Core Modell nicht mehr den Nachteil das es zwei CCX sind wie beim 2700X,daher sollte die Latenz deutlich verbessert sein.
Also nicht nur Performance in 3D Mark und Cinebench.
Weiss man noch nicht. Chiplet ist nicht gleich CCX. Den Denkfehler hatte ich aber auch zu Anfang. Es kann durchaus sein das ein Chiplet immer noch aus 2 CCX besteht.
SKYNET
2019-01-10, 10:50:59
mein kumpel hat seinen VR6 Passat auf einen AFN TDI umgebaut, dein vergleich ist zudem totaler unsinn, da es 5 minuten benötigt um eine cpu zu wechseln :rolleyes: zudem es völliger unsinn ist, das mainboard zu tauschen, vllt. noch das OS neu zu installieren und sämtliche programme, ergo wie kommt man auf so eine realitätsferne aussage
er will doch nur gefüttert werden...
dural wenn er nen AMD faden entdeckt:
https://media1.tenor.com/images/a1c50b562b31089fbe85b91b9fa298cb/tenor.gif
BoMbY
2019-01-10, 11:00:05
Die neuen Karten haben doch ehh nur PCI 3.0, also ist das völlig wayne. Fakt ist, ich kann einen aktuellen Prozessor auf ein Board packen welches 3 Jahre als ist und es läuft und genau das werde ich tun :D
Du kannst davon ausgehen, dass alles was AMD an neuen Chips bringen wird PCIe 4.0 unterstützt (Vega20, Navi, und folgende). Bei Intel und NVidia vermutlich erst ab 2020.
mboeller
2019-01-10, 11:00:47
die gezeigte CPU hat 30W gegenüber dem 125W k9900k gespart...
nö ;)
125W <-> 75W; das sind 50W
Bei der Systempower waren es auch 130W zu 180W
https://www.anandtech.com/show/13829/amd-ryzen-3rd-generation-zen-2-pcie-4-eight-core
Und wenn es wirklich ein 65W Ryzen5 3600 war, dann kommen noch mal 10W oben drauf in der Serie.
Schnoesel
2019-01-10, 11:12:29
Erstmal abwarten wie sich das Ding in anderen Bereichen schlägt. Wenn man dort auch auf Augenhöhe mit dem I9 ist, bei geringerem Verbrauch und niedrigerem Preis, dann wird sich das Ding wie geschnitten Brot verkaufen.
Ich würde dann tatsächlich auf 8 Kernen bleiben, wenn dadurch höhere Taktraten möglich sind.
Die Karten hat AMD offensichtlich noch nicht alle auf den Tisch gelegt. Taktisch nicht unklug.
SKYNET
2019-01-10, 11:13:08
nö ;)
125W <-> 75W; das sind 50W
Bei der Systempower waren es auch 130W zu 180W
https://www.anandtech.com/show/13829/amd-ryzen-3rd-generation-zen-2-pcie-4-eight-core
Und wenn es wirklich ein 65W Ryzen5 3600 war, dann kommen noch mal 10W oben drauf in der Serie.
ja gut, nen 105W 2700X zieht ja auch serienmässig eher 125W... das ja nix neues das man aufschlagen muss...
mhhh, hatte 30W im kopf... um so besser :biggrin:
Screemer
2019-01-10, 11:44:10
So viel zu den 100% Kompatibilität alter AM4 MB zu PCI-E 4.0, habe es ja gleich gesagt.
https://www.computerbase.de/2019-01/amd-raytracing-16-kerne-pcie-4.0/
Niemand hat jemals gedacht, dass die 3/4xx Boards die elektrischen Eigenschaften aufweisen die für pcie4 notwendig sind. Du willst hier wieder einfach ein bisschen hatten, nicht war?
w0mbat
2019-01-10, 11:48:13
Es müsste auch ein Firmwareupdate geben. Ich glaube nicht, dass es das für viele Boards geben wird. Vielleicht für das C7H oder so.
BoMbY
2019-01-10, 12:03:31
Es wird wohl für alle AM4-Boards ein MatissePI-Update geben müssen, ob dann PCIe 4.0, zumindest teilweise, freigeschaltet wird und gut funktioniert, steht auf einem anderen Blatt.
Ist mir auch total latte ob mit Gaming K7 PCIe 4 bekommt, hauptsache der Prozessor läuft, und das sieht sehr gut aus.
Opprobrium
2019-01-10, 12:37:46
Könnte so ein 2-Chiplet 16-Kern Prozessor nicht sogar aufgrund der Verteilung auf 2 Chiplets einen höheren Takt bei Auslastung von weniger als 8 Kernen pro Chiplet bieten als ein "einfacher" Zen 2?
Also das bei Auslastung von z.B. 4 Kernen ein hypothetischer R9 3800X mit 16 Kernen höher takten könnte als ein R5 3600X mit 8? Und selbiges dann eben auch bei 8 (n) ausgelasteten Kernen gilt? AMD hat da ja auch mit Threadripper schon Erfahrung gesammelt was die Chipletansteuerung betrifft.
][immy
2019-01-10, 12:47:58
Könnte so ein 2-Chiplet 16-Kern Prozessor nicht sogar aufgrund der Verteilung auf 2 Chiplets einen höheren Takt bei Auslastung von weniger als 8 Kernen pro Chiplet bieten als ein "einfacher" Zen 2?
Also das bei Auslastung von z.B. 4 Kernen ein hypothetischer R9 3800X mit 16 Kernen höher takten könnte als ein R5 3600X mit 8? Und selbiges dann eben auch bei 8 (n) ausgelasteten Kernen gilt? AMD hat da ja auch mit Threadripper schon Erfahrung gesammelt was die Chipletansteuerung betrifft.
ähm takten die Kernchen nicht aktuell schon unabhängig voneinander?
Ich könnte mir höchsten vorstellen das 8-kerne auf einer 16er CPU höher takten könnten, als die einer 8er CPU wenn die TDP entsprechend höher ausfällt und dann bei gewissen Aufgaben die Kerne einfach durch die TDP höher takten können. Aber solange die gleiche TDP Grenze gilt, ist der 8-kerner eigentlich immer im Taktvorteil ggü. einem 16-Kerner (zumindest sollte er das sein).
Interessant wäre ob die CPUs nun deutlich an Takt zugewinnen konnten durch den neuen 7nm Prozess. Zumindest scheint er ja schon mal den 9900k leicht hinter sich zu lassen in einem theoretischen benchmark. Dafür fehlte an sich ja immer nur ein wenig mehr Takt.
BlacKi
2019-01-10, 12:50:57
Kann man :smile:
Aber hab mich mit den Optionen noch nicht soviel rum gespielt.
Da kann dir wer anderer sicherlich genaueres mitteilen ;)
m.f.g. JVC
niedriger ja, aber erhöhen glaub ich nicht. wäre wirklich nett wenn das jemand bestätigen könnte.
basix
2019-01-10, 13:31:45
nö ;)
125W <-> 75W; das sind 50W
Bei der Systempower waren es auch 130W zu 180W
https://www.anandtech.com/show/13829/amd-ryzen-3rd-generation-zen-2-pcie-4-eight-core
Und wenn es wirklich ein 65W Ryzen5 3600 war, dann kommen noch mal 10W oben drauf in der Serie.
Ehm, vermutlich nicht. Es stehen 55W idle gegenüber 133W Load. Delta ist also 78W. Rechnet man die Verluste von Netzteil und MoBo-Spannungswandlern weg und addiert die Idle-Power, landet man ziemlich gut auf den 65W TDP. Ich würde da nicht all zu viel erwarten. Vielleicht holt man noch 10% Leistung heraus aber das war es dann schon. Ausser Lisa Su's Versprecher von wegen "2500, eh 2050 points" war ein Freud'scher Versprecher :D
unl34shed
2019-01-10, 13:34:44
Idle ist aber nur geraten nicht gemessen!
basix
2019-01-10, 13:40:40
Richtig, aber in den meisten Fällen ist der Idle-Verbrauch eher niedriger als 55W. Siehe CB: https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
Ausnahme: AMD hat den Monitor mitgemessen.
Menace
2019-01-10, 13:53:19
Mir ist das so wie so egal, zu einer neuen CPU gehört auch ein neues MB. Es baut ja auch keiner in sein Auto einen neuen Motor ein weil der neue mehr Leistung hat und etwas weniger verbraucht ;)
;D Man denkt, man kennt alle schlechten Autovergleiche, aber dann kommt Dural und.... :rolleyes:
Schon immer CPUs gewechselt (Phenom sogar 2x). Hat auch etwas mit Nachhaltigkeit zu tun. Fettes Mainboard für mich, kleines für meinen Vater. Und dann kann man allmählich durchswitchen. Spart Geld, Arbeit, Ressourcen. Ist natürlich bitter, dass AMD ihr Versprechen wahr macht und tatsächlich so lange eine gewisse Kompatibilität anbietet. :biggrin:
mboeller
2019-01-10, 13:57:16
Richtig, aber in den meisten Fällen ist der Idle-Verbrauch eher niedriger als 55W. Siehe CB: https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
Ausnahme: AMD hat den Monitor mitgemessen.
die 55w Idle-Power stammen von anandtech und nicht von AMD. Die haben die 55w aufgrund von anderen Reviews geschätzt.
Also, in that same test, it showed the system level power. This includes the motherboard, DRAM, SSD, and so on. As the systems were supposedly identical, this makes the comparison CPU only. The Intel system, during Cinebench, ran at 180W. This result is in line with what we’ve seen on our systems, and sounds correct. The AMD system on the other hand was running at 130-132W.
If we take a look at our average system idle power in our own reviews which is around 55W, this would make the Intel CPU around 125W, whereas the AMD CPU would be around 75W.
BoMbY
2019-01-10, 13:58:17
In der Presseerklärung von AMD (http://ir.amd.com/news-releases/news-release-details/amd-president-and-ceo-dr-lisa-su-reveals-coming-high-performance) stehen übrigens die Fußnoten zu den gezeigten Werten/Testergebnissen.
amdfanuwe
2019-01-10, 14:03:18
[immy;11896565']
Ich könnte mir höchsten vorstellen das 8-kerne auf einer 16er CPU höher takten könnten, als die einer 8er CPU wenn die TDP entsprechend höher ausfällt und dann bei gewissen Aufgaben die Kerne einfach durch die TDP höher takten können.
Da freut man sich auf Threadripper.
Das ganze ist doch eine Sache der TDP und erlaubter Leistungsaufnahme/Core.
Bei single Thread Last läuft ein Kern mit maximalem Takt. Laufen mehr Threads wird es wärmer und die Kerne dürfen nicht mehr so hoch takten.
Mit 2 Chiplets könnte man evtuell sogar auf jedem Chiplet jeweils einen Kern boosten. Bei ordentlicher Aufteilung also 2 Threads im Max. Boost, auf jeden Chiplet einen.
Mal gespannt, ob sie enen Threadripper 16 Core mit 4 Chiplets bringen. Der könnte dann all Core nahezu einen Takt halten, der auf AM4 nur im single Thread Boost erreicht wird.
SKYNET
2019-01-10, 14:08:26
Da freut man sich auf Threadripper.
Das ganze ist doch eine Sache der TDP und erlaubter Leistungsaufnahme/Core.
Bei single Thread Last läuft ein Kern mit maximalem Takt. Laufen mehr Threads wird es wärmer und die Kerne dürfen nicht mehr so hoch takten.
Mit 2 Chiplets könnte man evtuell sogar auf jedem Chiplet jeweils einen Kern boosten. Bei ordentlicher Aufteilung also 2 Threads im Max. Boost, auf jeden Chiplet einen.
Mal gespannt, ob sie enen Threadripper 16 Core mit 4 Chiplets bringen. Der könnte dann all Core nahezu einen Takt halten, der auf AM4 nur im single Thread Boost erreicht wird.
dürfte also mit den fettesten derzeit erhältlichen brettern endlich möglich sein 4.5GHz AC zu fahren auf nem 32 kerner, ohne das die spannungswandler verglühen ;D
das wird intel richtig weh machen, die reviews... durch die bank vernichtet werden, gabs das letzte mal in dieser richtung mit A64 :cool:
basix
2019-01-10, 15:00:25
die 55w Idle-Power stammen von anandtech und nicht von AMD. Die haben die 55w aufgrund von anderen Reviews geschätzt.
Natürlich. Darum geht es aber nicht. Es ist wahrscheinlich einfach nicht so, dass AMD die CPU nur auf 50W oder 55W laufen gelassen hat und somit bei 65W noch deutlich mehr Takt drin liegen.
Und wenn es wirklich ein 65W Ryzen5 3600 war, dann kommen noch mal 10W oben drauf in der Serie.
Siehe den CB Test. Alle 65W Modelle liegen durchweg um die 130W rum:
https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
Vielleicht holen sie schon noch was an Takt raus, das hat man bei den ersten Zen Präsentationen vs. 6900K auch gesehen, wo das Sample beim zweiten Aufeinandertreffen auf 3.4GHz getaktet war. Serie war dann eher so 3.7-3.8GHz. Also um noch mal zusammenzufassen und zu präzisieren: Es liegen vielleicht noch mal +10% Takt drin und vielleicht finden sie noch etwas an IPC aber das war es dann schon. Und das nicht aufgrund TDP Spielraum sondern eher aufgrund Optimierungen am Design / Microcode / Whatsoever.
SKYNET
2019-01-10, 15:23:21
Natürlich. Darum geht es aber nicht. Es ist wahrscheinlich einfach nicht so, dass AMD die CPU nur auf 50W oder 55W laufen gelassen hat und somit bei 65W noch deutlich mehr Takt drin liegen.
Siehe den CB Test. Alle 65W Modelle liegen durchweg um die 130W rum:
https://www.computerbase.de/2018-10/intel-core-i9-9900k-i7-9700k-cpu-test/3/
Vielleicht holen sie schon noch was an Takt raus, das hat man bei den ersten Zen Präsentationen vs. 6900K auch gesehen, wo das Sample beim zweiten Aufeinandertreffen auf 3.4GHz getaktet war. Serie war dann eher so 3.7-3.8GHz. Also um noch mal zusammenzufassen und zu präzisieren: Es liegen vielleicht noch mal +10% Takt drin und vielleicht finden sie noch etwas an IPC aber das war es dann schon. Und das nicht aufgrund TDP Spielraum sondern eher aufgrund Optimierungen am Design / Microcode / Whatsoever.
das ist der komplette rechner... :rolleyes:
unl34shed
2019-01-10, 15:33:41
Bei AMDs Test war es auch die Leistungsaufnahme des gesamten PCs.
Skysnake
2019-01-10, 17:34:10
... Interessant war aber die Erwähnung beim Epyc Event, dass AMD sich besonders für Finanzsoftware gut aufgestellt sieht (was normalerweise viel IPC und Takt erfordert) und Su offenbar heute das Ding als erstes als Gaming CPU ankündigte. Sollte sich da im I/O Die vielleicht ne Überraschung verbergen?
...
Ja, der ganze Finanzkram ist meist schon sehr IPC und Latenzkritisch in vielen Benchmarks, aber eben nicht in allen. Daher würde ich das mit einer Prise Salz nehmen ;)
Ansonsten sollte wohl so langsam jedem klar werden, das es gute Gründe gibt, warum AMD in letzter Zeit so einige große HPC Deals gewonnen hat und z.B. CRAY auch wieder AMD verbaut. Auch wenn nicht in der großen Kiste aktuell, was aber mit Slingshot auch nicht mehr so relevant ist wie mit Aries.
Also von daher war das schon eine ziemlich gute Vorstellung von AMD.
basix
2019-01-11, 05:04:33
Bezüglich der Kosten, weil das jemand erwähnt hat: Teurer als Zen1 wirds auf jeden Fall, bei ungefähr gleichem Preis pro Transistor aber doppelter Dichte kosten 80 mm² 7nm ungefähr das gleiche wie 160 mm² 14nm. Also insgesamt ~280 mm² 14nm bevor man Yields miteinrechnet. 40% teurer, also verschleudern wird AMD die Dinger nicht, aber Intels Preise zu unterbieten dürfte kein Problem sein.
Bist du sicher, dass es so viel teurer ist? Auch mit 7nm Yields? Die Chips sind deutlich kleiner als Summit Ridge. Das dürfte sich sehr vorteilhaft auf Good Die / Wafer auswirken. Andererseits: Von Summit Ridge gibt es so extreme Salvage Varianten in allen möglichen Varianten, sodass der Yield vermutlich sehr gut war.
Fragman
2019-01-11, 07:31:38
Sorry, falscher Thread. ;)
Setsul
2019-01-11, 11:17:36
@basix:
Wie gesagt das war grob überschlagen ohne Yields miteinzurechnen. Und richtig, SR wird schließlich auch noch mit 2 Kernen verkauft, da dürften die Yields sehr gut sein. Nur wenn der IMC kaputt ist (außer bei den neuen TR Modellen braucht man immer alle Channels) oder andere einmalige Teile gibts ein Problem.
Die Chiplets sind einerseits kleiner, andererseits dürfte die defect density höher sein. Viele der nicht redundanten Teile dürften aber auf dem I/O Die sein, wenn also der IMC im Eimer ist muss man sozusagen weniger als den halben Chip (von den Kosten her) wegwerfen. Das ist natürlich ein Vorteil.
Billiger als 200 mm² 14nm sind 120 mm² 14nm + 80 mm² 7nm definitiv nicht. 40% sind etwas konservativ, weil ich eben erwarte das AMD sowieso schon fast alles an Kerndefekten ignorieren konnte, die kleinere Größe von 7nm also wenig bringt. Wenn 7nm mal eine Weile läuft dann geht das vielleicht noch etwas runter, wenn der Vorteil der getrennten Dies die Kosten für mehr Transistoren ein bisschen ausgleicht. Wenn man mit den genauen 213 mm² rechnet und Anandtech auch exakt gemessen hat und 7nm auch auf exakt die gleichen Kosten pro Transistor, also doppelte Kosten pro Fläche kommt, dann wären es schon <34%, plus was der der getrennte I/O Die spart. Also <30% wenn dann alles erstmal läuft wie es soll.
Außerdem muss man sich auch die Konfiguration mit 2 Chiplets anschauen. Überschlagsmäßig 446 mm² 14nm statt 426 mm², das ist praktisch zu vernachlässigen. Bei EPYC, Threadripper und den 12-16C AM4 CPUs und eventuell den Chiplet APUs bekommt AMD 7nm also praktisch zum selben Preis. Ich denke damit sind sie sehr zufrieden.
Aber man wird eben keine 4C Salvage CPUs verschleudern wenn die 50$ statt 30$ in der Herstellung kosten. Ich nehme mal an <100$ kann man aber mit einem kleinen APU Die bedienen (SR gabs ja auch nie unter 100$, das war alles RR) und wenn eine 8C CPU die 20% schneller ist dann 349$ statt 329$ kostet, werden wir das alle gerade so überleben.
nordic_pegasus
2019-01-11, 11:23:04
ohne jetzt den Thread zu überfliegen...
Gibt es eigentlich Hinweise, wieviele PCIe Lanes der I/O Chiplet hat bei Ryzen 3000. Ich vermute, dass Threadripper / Eypc andere I/O Chiplets bekommen wird.
Glaubt ihr eigentlich, dass ein Ryzen 3000 mit 16 Kernen nicht vom DC-Speicherinterface ausgebremst werden wird. Ich finde 8 Kerne an 2 Speicherkanälen schon grenzwertig.
Statt bei den Kernen ins Unendliche zu wachsen, wären doch 32 PCIe Lanes und vielleicht ein Tripple-Channel SI mal eine nette Neuerung im Mainstream.
SKYNET
2019-01-11, 11:23:52
ohne jetzt den Thread zu überfliegen...
Gibt es eigentlich Hinweise, wieviele PCIe Lanes der I/O Chiplet hat bei Ryzen 3000. Ich vermute, dass Threadripper / Eypc andere I/O Chiplets bekommen wird.
Glaubt ihr eigentlich, dass ein Ryzen 3000 mit 16 Kernen nicht vom DC-Speicherinterface ausgebremst werden wird. Ich finde 8 Kerne an 2 Speicherkanälen schon grenzwertig.
Statt bei den Kernen ins Unendliche zu wachsen, wären doch 32 PCIe Lanes und vielleicht ein Tripple-Channel SI mal eine nette Neuerung im Mainstream.
ist ein auf AM4 angepasstes chiplet design, also denke ich alles wie gehabt.
naja, der 32 kerner wird durch quad interface ja auch nicht gebremst...
so ganz rund kann es aber nicht laufen - ich meine man haut, mit Vega II, plötzlich in einer Nacht und Nebel aktion eine vergleichsweise riesige 7nm GPU raus und für die kleinen zen2 die brauchts noch bis min. Juli.
Screemer
2019-01-11, 12:06:10
v20 ist halt schon ne halbe ewigkeit fertig. was soll denn deshalb bei zen2 nicht rund laufen?
Der_Korken
2019-01-11, 12:12:26
Der IO-Die muss auch erst noch designed werden. Vielleicht hat AMD nicht vor Mitte 2019 mit genug Kapazitäten für einen Ryzen 3000 Launch gerechnet und den IO-Die dafür erstmal hinten angestellt. Und auch die BIOSe für Zen 2 müssen geschrieben werden (von neuen Boards brauchen wir gar nicht erst reden). Bei V20 kann man spontan ein Consumer-Modell bringen, weil die Hardware komplett die gleiche ist.
Savay
2019-01-11, 12:14:09
Beide Chips scheinen an und für sich aber ziemlich im Zeitplan zu liegen!
Das die Consumer Zen2 nicht schon weniger als ein Jahr nach den Zen+ kommen, konnte man sich doch an einer Hand abzählen und das der somit in 2019 eher frühestens ab Q2-3 kommt auch.
Complicated
2019-01-11, 12:15:49
Und was für Nacht und Nebel?
BlacKi
2019-01-11, 12:18:22
9V_G7AvCIPc
QRK1lvo7SGc
Dino-Fossil
2019-01-11, 12:21:57
Ich denke auch, dass die heutigen HW-News dem Grund vielleicht recht nahe kommen:
nVidias RTX Karten sind teurer als gedacht, das Performanceplus etwas geringer als erhofft und Raytracing eher noch eine Techdemo.
Somit kann man einen Gaming Ableger von V20 doch noch halbwegs rechtfertigen und taucht in den Benchmarks wieder etwas weiter oben auf.
Und nVidia's Huang scheint sich zu ärgern, dass die Preise für die RTX-Karten jetzt evtl. nicht ganz so stabil bleiben wie gehofft, vermute ich.
dargo
2019-01-11, 12:22:54
https://youtu.be/9V_G7AvCIPc
In diesem Video sieht man ganz klar, dass dort noch ein Chiplet vorgesehen ist.
Savay
2019-01-11, 12:31:18
Kann aber auch erstmal bei einem bleiben.
Hängt bestimmt wohl davon ab wie sich der mit einem Compute Chiplet so ggü den Intel Angeboten positioniert.
Nen "Ryzen 9" mit 16 Kernen auf ner normalen Desktop Plattform und ordentlichen Taktraten wäre aber schon heftig...und recht bitter für Intel. :D
BoMbY
2019-01-11, 13:26:21
Das Problem ist, dass man mit bis zu 16 Kernen auf AM4 bei sich selbst wildern würde, man will ja auch noch Threadripper verkaufen, die noch dazu deutlich besser wären dank mehr Speicherkanälen.
w0mbat
2019-01-11, 13:28:37
Deshalb werden wir wohl erstmal ein chiplet sehen und dann später mehr, zB wenn Threadripper 3k kommt.
kunibätt
2019-01-11, 13:33:03
Ich sehe da keine Probleme. TR4 geht bis max. 32 Kerne und AM4 bis max 16 Kerne.
BoMbY
2019-01-11, 13:38:12
Um genau zu sein könnte TR4 mit Zen2 theoretisch von ca. 4 bis 64 Kernen funktionieren. AMD wird mit Sicherheit auch vorsehen, dass z.B. nur vier teilaktivierte CPU-Dies verbaut werden. Wobei vielleicht sogar Salvage-Versionen, mit z.B. defekten MCs, von EPYC-IO-Dies zum Einsatz kommen (man braucht ja nur 4 von den 8 für TR4).
Deshalb werden wir wohl erstmal ein chiplet sehen und dann später mehr, zB wenn Threadripper 3k kommt.
Eher wenn Intel tatsächlich mit 10 Kernen kommen sollte, wie kolportiert.
Savay
2019-01-11, 13:45:34
Nen "kleiner" "Ryzen 9" 12 Kerner zum Einstieg als größte AM4 CPU wäre aber auch möglich. ;)
Dann wäre die Überschneidung recht gering und Intel kurzfristig trotzdem ziemlich gelackmeiert...
TR4 hat eh Quad-Channel und das mehr an PCI-E Lanes als Vorteil.
SKYNET
2019-01-11, 14:22:58
so ganz rund kann es aber nicht laufen - ich meine man haut, mit Vega II, plötzlich in einer Nacht und Nebel aktion eine vergleichsweise riesige 7nm GPU raus und für die kleinen zen2 die brauchts noch bis min. Juli.
läuft perfekt, sie müssen ja erstmal sammeln und selektieren was, was wird... die guten werden 3700X und TR, dann schaut man was wieviel takt macht und wieviel kerne ganz sind, das werden dann die 3600X und 3500X, alles wo kerne ganz sind aber nicht viel takt macht --> epyc und 3700, wenn kerne kaputt 3600, 3500 usw.
amdfanuwe
2019-01-11, 14:23:06
Warum sollte AMD mit 12 und 16 Core warten?
Die Chiplets sind da, kein neues Design notwendig, einfach nur einen weiteren Chiplet draufsetzen.
Allerdings werden sie die Chips nicht billig abgeben. Ich schätze mal, dass man etwas mehr Leistung für den gleichen Preis bekommt wie aktuell. Wenn der 8 Kerner mit Intels 9900k gleichzieht oder diesen übertrumpft werden da immer noch $300 für den Chip verlangt. Für die konkurrenzlosen 12 und 16 Kerner kann AMD dann ordentlich kassieren. Thredripper2 12 Core geht für 622€ über die Theke, 16 Core für 880€. Da kann ich mir für AM4 auch Preise von 400€ und 600€ für AM4 12/16 Core vorstellen.
Durch die höheren Taktraten, besserer Effizienz und um den Abverkauf der Ryzen 2000 nicht zu stören, schätze ich, dass die 6 Core Anfangs bei 200€ liegen.
AMD mußte bisher Preis/Leistung besser sein als die Konkurrenz. Wenn aber keine Konkurrenz vorhanden ist, kann man auch mal kassieren.
Von den Kosten her rechne ich mit $10 für I/O und $20 für Chiplet.
SKYNET
2019-01-11, 14:25:19
In diesem Video sieht man ganz klar, dass dort noch ein Chiplet vorgesehen ist.
zumal lisa explizit gesagt hat, sie werden die lücke noch nutzen... und damit wird sie kaum die CPUs mit vega gemeint haben... weil die laufen jetzt mindestens nen jahr in 12nm vom band. :smile:
BoMbY
2019-01-11, 14:27:50
Ich glaube eher das Platz ist deshalb dort, weil auch die Modelle mit acht aktiven Kernen zwei CPU-Dies haben werden. Oder zumindest einige. Warum ein perfektes 8-Kern-Modul verschwenden, wenn man auch zwei halbe mit je 4-Kernen nehmen kann?
SKYNET
2019-01-11, 14:27:50
Warum sollte AMD mit 12 und 16 Core warten?
Die Chiplets sind da, kein neues Design notwendig, einfach nur einen weiteren Chiplet draufsetzen.
Allerdings werden sie die Chips nicht billig abgeben. Ich schätze mal, dass man etwas mehr Leistung für den gleichen Preis bekommt wie aktuell. Wenn der 8 Kerner mit Intels 9900k gleichzieht oder diesen übertrumpft werden da immer noch $300 für den Chip verlangt. Für die konkurrenzlosen 12 und 16 Kerner kann AMD dann ordentlich kassieren. Thredripper2 12 Core geht für 622€ über die Theke, 16 Core für 880€. Da kann ich mir für AM4 auch Preise von 400€ und 600€ für AM4 12/16 Core vorstellen.
Durch die höheren Taktraten, besserer Effizienz und um den Abverkauf der Ryzen 2000 nicht zu stören, schätze ich, dass die 6 Core Anfangs bei 200€ liegen.
AMD mußte bisher Preis/Leistung besser sein als die Konkurrenz. Wenn aber keine Konkurrenz vorhanden ist, kann man auch mal kassieren.
Von den Kosten her rechne ich mit $10 für I/O und $20 für Chiplet.
schätze mal grob, der 16-kerner AM4 dürfte $599 kosten... vor steuern.
Ravenhearth
2019-01-11, 14:29:30
Ich würde sagen
Realistisch:
16 Kerne: ≤699
12 Kerne: ≤499
8 Kerne: ≤329
6 Kerne: ≤229
Optimistisch:
16 Kerne: ≤499
12 Kerne: ≤329
8 Kerne: ≤229
6 Kerne: ≤169
als AMD hätte ich die 8 Kerner so früh wie möglich gebracht, und 12 Kerne nachgeschoben wenn Intel neue CPUs launched. Die 16 Kerne dann noch später.
Allerdings scheint AMD das ja anders zu handhaben da nix vor Sommer kommt. Dann wird ziemlich sicher min. 12 Core dabei sein, außer es gibt noch Probleme da einen 2. chip draufzulöten und dranzufiemeln ;D
][immy
2019-01-11, 14:59:05
Ab wann stoßen wir eigentlich auf Probleme durch das Speicherinterface bei AM4?
8 Kerne geht ja grad noch so, aber müssten bei mehr kernen nicht auch mal 3200er Speicher offiziell supported werden?
TR hat hier zumindest noch den Vorteil von Quad Channel Speicher, allerdings ist die Plattform auch nicht wirklich darauf ausgelegt extreme Speicherbandbreiten zu bieten. Bei der Nutzung der 32 oder in Zukunft 64 Kerne geht es eher nicht ums spielen.
läuft perfekt, sie müssen ja erstmal sammeln und selektieren was, was wird... die guten werden 3700X und TR, dann schaut man was wieviel takt macht und wieviel kerne ganz sind, das werden dann die 3600X und 3500X, alles wo kerne ganz sind aber nicht viel takt macht --> epyc und 3700, wenn kerne kaputt 3600, 3500 usw.
sammeln und selektieren klingt ja danach das da erstmal viel Ausschuss dabei ist (entspricht also genau meiner Vermutung) zumal Lisa Lederweste ja gemeint hat das es sich um ein "early sample" handelt. Ich glaube die hängen einfach noch hinterher, wenn man nur noch sammeln bräuchte hätte man auch ein late oder final sample verwenden können.
Ich befürchte das die 7nm Ausbeute und der Takt derzeit noch weit unter den Erwartungen liegt.
Schnoesel
2019-01-11, 15:16:07
http://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-3000-AM4-Kompatibilitaet-Cinebench-Benchmark-1273016/
Beim Cinebench liefen beide CPUs wohl mit 2666Mhz Speicher obwohl Zen+ schon offiziell 2933 Mhz unterstützt. Da man aber nichts darüber weiß wie sich Zen2 mit hohem Speichertakt verhält ist man so schlau wie vorher. Wirklich geschickt gemacht von AMD. Mehr als ein Teaser mit der Botschaft : mindestens so schnell wie der 9900k wars nicht.
Rancor
2019-01-11, 15:16:24
Wenn der Takt noch WEIT unter den Erwartungen liegt, dann hat sich das ES aber extrem gut gegen den 9900k geschlagen.
Also ich kann es kaum glauben. Ich packe auf mein 100€ Board ne 300€ CPU und bin so schnell wie Leute die dafür vor nicht allzu langer Zeit, ( im Sommer wird es dann ein 3/4 Jahr sein ) weit über 1k € hingelegt haben. Eigentlich zu schön um wahr zu sein, daher bin ich da noch etwas skeptisch.
SKYNET
2019-01-11, 15:19:40
Nen "kleiner" "Ryzen 9" 12 Kerner zum Einstieg als größte AM4 CPU wäre aber auch möglich. ;)
Dann wäre die Überschneidung recht gering und Intel kurzfristig trotzdem ziemlich gelackmeiert...
TR4 hat eh Quad-Channel und das mehr an PCI-E Lanes als Vorteil.
überschneidung gabs doch schon bei der ersten ryzen und TR version, beide mit jeweils 8 kernen als max bzw. min. version... warum jetzt nicht mit 12 das gleiche? oder 16 und lässt den 12 kern TR "sterben"
BoMbY
2019-01-11, 15:25:51
Kann man machen, lohnt sich halt aber kaum für AM4, weil es praktisch keinen Bedarf dafür gibt. Für Games lohnt es halt nicht derzeit, und für Workstation-Aufgaben kauft man halt besser eine Workstation-Plattform. Ja, kann sein dass AMD 12 oder 16 Kerne bringt, aber verkaufen werden sie vermutlich nur eine handvoll davon.
SKYNET
2019-01-11, 15:26:24
http://www.pcgameshardware.de/Matisse-Codename-268193/News/AMD-Ryzen-3000-AM4-Kompatibilitaet-Cinebench-Benchmark-1273016/
Beim Cinebench liefen beide CPUs wohl mit 2666Mhz Speicher obwohl Zen+ schon offiziell 2933 Mhz unterstützt. Da man aber nichts darüber weiß wie sich Zen2 mit hohem Speichertakt verhält ist man so schlau wie vorher. Wirklich geschickt gemacht von AMD. Mehr als ein Teaser mit der Botschaft : mindestens so schnell wie der 9900k, wars nicht.
langt für die meisten(inkl. meiner wenigkeit) zum:
http://www.reactiongifs.com/r/2012/01/dismissive_wanking.gif
;D;D;D
SKYNET
2019-01-11, 15:28:01
Kann man machen, lohnt sich halt aber kaum für AM4, weil es praktisch keinen Bedarf dafür gibt. Für Games lohnt es halt nicht derzeit, und für Workstation-Aufgaben kauft man halt besser eine Workstation-Plattform. Ja, kann sein dass AMD 12 oder 16 Kerne bringt, aber verkaufen werden sie vermutlich nur eine handvoll davon.
ich werde 16 nehmen wenn sie kommen, haben ja keinen nachteil ggü. 8 kernen in games, und wenn ich benches gewinnen will wos auf den takt ankommt, deaktiviere ich 8 kerne und jage die anderen 8 hoch ;)
looking glass
2019-01-11, 15:28:52
Mal eine ganz blöde Frage, aber was zum fick macht man mit so vielen Kernen eigentlich sinnvolles. 4 Kerne sind momentan so das sinnigste, 6 Kerne für jene die etwas Luft nach oben brauchen (z.b. damit das System auch noch in 5 Jahren gut läuft), 8 Kerne sind schon Spezialanwendungsbereich (daddeln + streamen z.B.), aber darüber?
Wie dem auch sei, ein paar Fragen, wann soll es losgehen, steht Mitte 2019? Was ist mit dem Chipsatz, glaub 570, was ist damit, haben sie sich dazu ausgelassen? Gerade was so USB Anbindung anbelangt, oder WiFi? Bisher habe ich nur was von PCI-Express 4.0 gelesen, was zwar schön ist für SSD Anbindungen, aber ansonsten, was kommt denn da so?
kunibätt
2019-01-11, 15:54:18
Arbeiten z.B. Programmierung/ Simulationen/ Rendering etc.
Leistung skaliert da häufig linear mit der Kernanzahl.
Daredevil
2019-01-11, 16:00:15
Deine Anforderungen sind einen schritt zu niedrig gedacht.
Es müsste eher so heißen:
6 Kerne sind momentan so das sinnigste, 8 Kerne für jene die etwas Luft nach oben brauchen (z.b. damit das System auch noch in 5 Jahren gut läuft), 16 Kerne sind schon Spezialanwendungsbereich (daddeln + streamen z.B.)
Wobei 16 Kerne bei Daddeln und Streamen auch noch nicht genug sind, wenn man ein mittelmäßiges Niveau fahren will. Arbeiten ist ja nochmal ne ganz andere Kategorie, da ist ja sehr viel parallelisierbar, deswegen sind Kerne schon ganz gut.
basix
2019-01-11, 16:07:20
Mal eine ganz blöde Frage, aber was zum fick macht man mit so vielen Kernen eigentlich sinnvolles. 4 Kerne sind momentan so das sinnigste, 6 Kerne für jene die etwas Luft nach oben brauchen (z.b. damit das System auch noch in 5 Jahren gut läuft), 8 Kerne sind schon Spezialanwendungsbereich (daddeln + streamen z.B.), aber darüber?
Zusätzlich zum Vorredner: 6C bringt in vielen Spielen schon einen Vorteil. 8C momentan noch nicht so viel aber das wird kommen
Linmoum
2019-01-11, 16:10:45
Mal eine ganz blöde Frage, aber was zum fick macht man mit so vielen Kernen eigentlich sinnvolles. 4 Kerne sind momentan so das sinnigste, 6 Kerne für jene die etwas Luft nach oben brauchen (z.b. damit das System auch noch in 5 Jahren gut läuft), 8 Kerne sind schon Spezialanwendungsbereich (daddeln + streamen z.B.), aber darüber?
Das Jahr 2016 ruft an und fragt nach dir. ;)
Das "sinnigste" sind seit 2017 6C, im Laufe dieses Jahres kann man das u.U. schon auf 8C erweitern. Alles darüber ist dann für den Normalo sicherlich mehr "nice to have".
amdfanuwe
2019-01-11, 16:12:18
Muß grad dran denken, wie flexibel AMD ist. So lange das IF Kompatibel beibt: ZEN 3 Chiplets aufgepappt. Neuer Sockel, DDR5, neues Speicherinterface: neuer I/O Chip drauf.
Birdman
2019-01-11, 16:14:06
ich werde 16 nehmen wenn sie kommen, haben ja keinen nachteil ggü. 8 kernen in games, und wenn ich benches gewinnen will wos auf den takt ankommt.
Das wird sich noch zeigen müssen, Stichwort Threadripper und Game-Mode.
Ja, das kann man dort natütrlich ein/umstellen - der erforderliche Reboot hierfür ist aber halt unsexy wenn man die Kiste öfters für beides nutzt.
Es kann natürlich gut sein, dass das neue Chiplet Design diese Probleme nicht mit sich bringt - endgültig zeigen wird sich das aber wohl erst bei unabhängigen Tests von Ryzen3 CPUs mit mehr als 8 Kernen.
SKYNET
2019-01-11, 16:16:27
Mal eine ganz blöde Frage, aber was zum fick macht man mit so vielen Kernen eigentlich sinnvolles. 4 Kerne sind momentan so das sinnigste, 6 Kerne für jene die etwas Luft nach oben brauchen (z.b. damit das System auch noch in 5 Jahren gut läuft), 8 Kerne sind schon Spezialanwendungsbereich (daddeln + streamen z.B.), aber darüber?
Wie dem auch sei, ein paar Fragen, wann soll es losgehen, steht Mitte 2019? Was ist mit dem Chipsatz, glaub 570, was ist damit, haben sie sich dazu ausgelassen? Gerade was so USB Anbindung anbelangt, oder WiFi? Bisher habe ich nur was von PCI-Express 4.0 gelesen, was zwar schön ist für SSD Anbindungen, aber ansonsten, was kommt denn da so?
mal auf die minimumframes geachtet? bei den max frames tut sich kaum was, das stimmt, aber bei den min. frames gehts mit steigender kernzahl nach oben :)
Linmoum
2019-01-11, 16:18:34
Das wird sich noch zeigen müssen, Stichwort Threadripper und Game-Mode.
Sieht man doch jetzt schon, der 2700X und 2950X liegen beim Gaming (ohne Game-Mode beim TR) auf einem identischen Niveau. Ich denke nicht, dass das urplötzlich anders aussehen wird.
SKYNET
2019-01-11, 16:18:40
Das wird sich noch zeigen müssen, Stichwort Threadripper und Game-Mode.
Ja, das kann man dort natütrlich ein/umstellen - der erforderliche Reboot hierfür ist aber halt unsexy wenn man die Kiste öfters für beides nutzt.
Es kann natürlich gut sein, dass das neue Chiplet Design diese Probleme nicht mit sich bringt - endgültig zeigen wird sich das aber wohl erst bei unabhängigen Tests von Ryzen3 CPUs mit mehr als 8 Kernen.
der TR 2950X verliert/gewinnt nix im game mode... das läuft inzwischen ziemlich gut mit win 10, erst ab dem 2970WX machts sich negativ bemerkbar und der GM zeigt volle wirkung.
amdfanuwe
2019-01-11, 16:22:39
Das wird sich noch zeigen müssen, Stichwort Threadripper und Game-Mode.
Das war ja mehr eine Krücke weil manche Software nicht mit so vielen Kernen umgehen kann. Zudem kam noch die spezielle NUMA Architektur hinzu.
Ich denke mal, dass zum einem sich die Software an die vielen Kerne gewöhnt und zum anderem, dass die UMA Architektur bei Ryzen und Threadripper 3000 weniger Probleme bereitet.
Birdman
2019-01-11, 17:03:03
Sieht man doch jetzt schon, der 2700X und 2950X liegen beim Gaming (ohne Game-Mode beim TR) auf einem identischen Niveau. Ich denke nicht, dass das urplötzlich anders aussehen wird.
Ich habe mich bei meiner Aussage auf die beiden Modelle 2970WX / 2990WX bezogen.
Da gibt es in Bezug auf Games ein "generelles" Problem wegen deren NUMA Architektur.
Das spezifische nVidia Treiber Problem bei Systemen mit vielen Cores wurde ja kurz nach Release der beiden Threadrippers gelöst und ist daher nicht mehr von Belang. (hat afaik auch nur den 2990WX betroffen)
Ist das nicht ein Windows-Problem?
BoMbY
2019-01-11, 17:54:05
Der ziemlich dumme Scheduler von Windows ist ein großes Problem, und wird es vermutlich auch bleiben. Microsoft macht jedenfalls kaum Anstalten etwas entscheidendes daran zu ändern. Die würfeln lieber andauernd ihr UI durcheinander.
Lehdro
2019-01-11, 18:31:58
Kann man machen, lohnt sich halt aber kaum für AM4, weil es praktisch keinen Bedarf dafür gibt. Für Games lohnt es halt nicht derzeit, und für Workstation-Aufgaben kauft man halt besser eine Workstation-Plattform. Ja, kann sein dass AMD 12 oder 16 Kerne bringt, aber verkaufen werden sie vermutlich nur eine handvoll davon.
Sowas habe ich schon einmal gehört: Zum Zen Release...
nordic_pegasus
2019-01-11, 18:37:15
Ich habe mich bei meiner Aussage auf die beiden Modelle 2970WX / 2990WX bezogen.
Da gibt es in Bezug auf Games ein "generelles" Problem wegen deren NUMA Architektur.
Das spezifische nVidia Treiber Problem bei Systemen mit vielen Cores wurde ja kurz nach Release der beiden Threadrippers gelöst und ist daher nicht mehr von Belang. (hat afaik auch nur den 2990WX betroffen)
Der ziemlich dumme Scheduler von Windows ist ein großes Problem, und wird es vermutlich auch bleiben. Microsoft macht jedenfalls kaum Anstalten etwas entscheidendes daran zu ändern. Die würfeln lieber andauernd ihr UI durcheinander.
Problem betrifft ausschließlich Windows, Linux hat keinerlei Probleme mit Threadripper
https://youtu.be/M2LOMTpCtLA
Zossel
2019-01-11, 18:53:23
Muß grad dran denken, wie flexibel AMD ist. So lange das IF Kompatibel beibt: ZEN 3 Chiplets aufgepappt. Neuer Sockel, DDR5, neues Speicherinterface: neuer I/O Chip drauf.
EDRAM als L4 auf dem IO-Chip wäre auch eine Variante, Intel hatte doch mal CPUs mit sowas. Wie haben eigentlich Spiele auf den EDRAM-L4 bei Intel reagiert? Wie waren die Auswirkungen auf die RAM Latenz?
Eine kleine GPU (1-2 CUs plus Videodecoder) auf dem IO wäre auch eine schöne Sache.
Screemer
2019-01-11, 18:56:28
Ich hätte gerne ne kleine gpu auf nem hochtaktenden 8 core mit gutem uvd aka vcn.
Gipsel
2019-01-11, 18:57:43
EDRAM als L4 auf dem IO-Chip wäre auch eine Variante, Intel hatte doch mal CPUs mit sowas. Wie haben eigentlich Spiele auf den EDRAM-L4 bei Intel reagiert? Wie waren die Auswirkungen auf die RAM Latenz?Der benutzte 14nm-Prozeß kann eDRAM nicht so recht, soweit ich weiß.
Eine kleine GPU (1-2 CUs plus Videodecoder) auf dem IO wäre auch eine schöne Sache.Das wäre tatsächlich überlegenswert, siehe auch dem letzten Teil dieses Posts (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11898205#post11898205).
Eher Cache als Cache. IGP ist das garantiert nicht drin, höchsten die Infrastruktur davon (Videoprozessor/Displaycontroller).
dargo
2019-01-11, 19:05:20
Ich würde sagen
Realistisch:
16 Kerne: ≤699
12 Kerne: ≤499
8 Kerne: ≤329
6 Kerne: ≤229
Optimistisch:
16 Kerne: ≤499
12 Kerne: ≤329
8 Kerne: ≤229
6 Kerne: ≤169
Ich denke mit optimistisch bist du näher dran als mit realistisch. Warum? Der schnellste Summit Ridge mit 8 Cores lag zum Release bei 499$. Der schnellste Pinnacle Ridge mit 8 Cores bei 319$.
Daredevil
2019-01-11, 19:13:34
AMD hat doch versprochen, dass sie AM4 zukunftsfähig machen wollen für alle neuen Prozessoren.
Ein 16c Ryzen würde doch sicherlich die Spannungsversorgung auf einem a320 sprengen, oder?
Demnach würde ich auch eher Richtung zwei teildeaktivierte DIEs gehen aka 12 Kerne, anstatt mit 16 Kernen potentiell Mainboard zu braten.
Was mir aber extrem gefallen würde wäre, wenn AMD nicht nur aufschließt, sondern vielleicht einen 16c FX Edition anbietet mit kompakter AiO. :)
Einfach nur, weil man jetzt die Speerspitze ist.
( Tray Versionen natürlich noch alternativ vorhanden )
dargo
2019-01-11, 19:18:59
AMD hat doch versprochen, dass sie AM4 zukunftsfähig machen wollen für alle neuen Prozessoren.
Ein 16c Ryzen würde doch sicherlich die Spannungsversorgung auf einem a320 sprengen, oder?
Das muss schon jeder Board-Partner selbst über sein Bios regeln. Wenn der Board-Partner der Meinung ist, dass seine Stromversorgung für CPU X zu schwach ist sollte er diese CPU nicht unterstützen. Sowas gab es afaik schon mal bei einzelnen billigen Asrockboards. Da stand dann, dass zwar 65W TDP CPUs unterstützt werden, die 95W Dinger aber nicht.
Birdman
2019-01-11, 19:24:41
Ist das nicht ein Windows-Problem?
Doch natürlich, die Hardware selbst trifft da keine Schuld, hab ich auch nicht gesagt. Ich habe nur die aktuelle Situation aus Sicht des Endanwenders (Gamer) betrachtet, der weder auf das eine noch das andere einen direkten Einfluss hat.
Mich interessiert sowieso vielmehr, weshalb dieser Umstand bis jetzt noch nicht gefixt wurde, bzw. ob diese überhaupt mal geschieht.
Die Tatsache das AMD eine Windows Treibersuite mit diesem "Game-Mode" Feature anbietet, deutet halt darauf hin dass dies noch lange nicht (oder nie?!?) von Microsoft angegangen wird und dieses "Problem" daher auch in Zukunft eine Rolle spielen wird.
Brillus
2019-01-11, 19:27:44
AMD hat doch versprochen, dass sie AM4 zukunftsfähig machen wollen für alle neuen Prozessoren.
Ein 16c Ryzen würde doch sicherlich die Spannungsversorgung auf einem a320 sprengen, oder?
Demnach würde ich auch eher Richtung zwei teildeaktivierte DIEs gehen aka 12 Kerne, anstatt mit 16 Kernen potentiell Mainboard zu braten.
Was mir aber extrem gefallen würde wäre, wenn AMD nicht nur aufschließt, sondern vielleicht einen 16c FX Edition anbietet mit kompakter AiO. :)
Einfach nur, weil man jetzt die Speerspitze ist.
( Tray Versionen natürlich noch alternativ vorhanden )
Warum? Der 8c hatte ca 75Watt, gehen da noch bisschen für IO-Die aus. sagen wir mal 10 Watt (eher mehr), Dann wären wir bei 140Watt für den 16c. Dann sind so Vorserien Dinger gerne mal mit extra Spannunf im Betrieb, uns selbst wenn nicht Sind es noch 35 Watt die man runter muss zu den jetztigen 105. Das sind 35%, das ist nicht MHz wenn man schon jenseits des Sweetspot ists.
BoMbY
2019-01-11, 20:02:01
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)
SKYNET
2019-01-11, 20:13:06
AMD hat doch versprochen, dass sie AM4 zukunftsfähig machen wollen für alle neuen Prozessoren.
Ein 16c Ryzen würde doch sicherlich die Spannungsversorgung auf einem a320 sprengen, oder?
Demnach würde ich auch eher Richtung zwei teildeaktivierte DIEs gehen aka 12 Kerne, anstatt mit 16 Kernen potentiell Mainboard zu braten.
Was mir aber extrem gefallen würde wäre, wenn AMD nicht nur aufschließt, sondern vielleicht einen 16c FX Edition anbietet mit kompakter AiO. :)
Einfach nur, weil man jetzt die Speerspitze ist.
( Tray Versionen natürlich noch alternativ vorhanden )
die A320 boards können in den meisten fällen nichtmal nen 2700X versorgen ohne das die spannungswandler verbrennen... sind ja durch die bank ungekühlt bei den billigen plump. :D
Zossel
2019-01-11, 20:15:57
Der benutzte 14nm-Prozeß kann eDRAM nicht so recht, soweit ich weiß.
Das wäre tatsächlich überlegenswert, siehe auch dem letzten Teil dieses Posts (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11898205#post11898205).
Stimmt das war der 14nm SOI von Glofo der das konnte: https://fuse.wikichip.org/news/956/globalfoundries-14hp-process-a-marriage-of-two-technologies/
Es bleibt aber die Frage was das bringen würde wenn alle RAM-Zugriffe von den CPU-Chiplets vorher gegen einer weiteren L4 geprüft werden. Wie lief das bei den Intels mit L4 Chiplet?
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)
schaaade
Opprobrium
2019-01-11, 20:37:38
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)
Hmm. Vermutlich (ziemlich sicher) bedeutet das auch: Keine Grafikeinheit im I/O Chiplet.
So langsam beschleicht mich die Ahnung, daß wir integrierte Grafik bei AMD frühestens mit dem Nachfolgesockel zu AM4 sehen werden. Bisschen schade, weil wohl nicht wenige sich über eine "Backup" GPU freuen würden, und es auch jenseits davon diverse interessante Einsatzmöglichkeiten gäbe.
Oh well...
Der ziemlich dumme Scheduler von Windows ist ein großes Problem, und wird es vermutlich auch bleiben. Microsoft macht jedenfalls kaum Anstalten etwas entscheidendes daran zu ändern. Die würfeln lieber andauernd ihr UI durcheinander.
stimmt. In manchen Fällen hilft das Tool CorePrio Windows etwas, aber meist ist Linux noch deutlich besser. Hier ein paar feine Benchmarks:
https://www.phoronix.com/scan.php?page=article&item=windows-coreprio-linux&num=1
Hmm. Vermutlich (ziemlich sicher) bedeutet das auch: Keine Grafikeinheit im I/O Chiplet.
So langsam beschleicht mich die Ahnung, daß wir integrierte Grafik bei AMD frühestens mit dem Nachfolgesockel zu AM4 sehen werden. Bisschen schade, weil wohl nicht wenige sich über eine "Backup" GPU freuen würden, und es auch jenseits davon diverse interessante Einsatzmöglichkeiten gäbe.
Oh well...
oder "no Chiplet APU Variant" bedeutet das es keine APU gibt weil im I/O Chiplet schon eine mini GPU verbaut ist.
Unicous
2019-01-11, 20:58:31
Hört doch mal mit dem Blödsinn auf.:rolleyes:
Hasenpfote
2019-01-11, 21:06:36
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)Na das wär doch geil im Jahr 2020 auf mein B350-Board nen 105W 12- oder 16-Kerner zu stecken. Dazu noch billiger RAM, weil die Chinesen ordentlich DRAM produzieren (denke so an die Preise von 2016).
Dann fehlt nur noch MxGPU für Endnutzer und ich kann mich endlich von Windows als Main-OS verabschieden. ;D
amdfanuwe
2019-01-12, 00:25:16
Wird der Desktop einen Aufschwung sehen? Was meint ihr?
Ich wurde in den letzten 6 Jahren als Softwareentwickler immer mit einem gutem Notebook ausgestattet. War manchmal etwas lahm aber auch nicht wesentlich langsamer als ein guter PC.
Wenn jatzt aber 16 Core im Desktop wesentlich schneller als ein Notebook wird, besteht dann die Chance, dass die Firmen ihre Mitarbeiter wieder vermehrt mit Desktops ausstatten?
Sunrise
2019-01-12, 00:28:15
Wird der Desktop einen Aufschwung sehen? Was meint ihr?
Ich wurde in den letzten 6 Jahren als Softwareentwickler immer mit einem gutem Notebook ausgestattet. War manchmal etwas lahm aber auch nicht wesentlich langsamer als ein guter PC.
Wenn jatzt aber 16 Core im Desktop wesentlich schneller als ein Notebook wird, besteht dann die Chance, dass die Firmen ihre Mitarbeiter wieder vermehrt mit Desktops ausstatten?
Für 80% reicht wohl weiterhin Dual-Core mit hoher IPC, danach kommen Quad-Notebooks, danach Workstations...
Das sollte nicht wirklich etwas ändern, wir kaufen ausschließlich Notebooks mit Station, weil viel flexibler.
nairune
2019-01-12, 00:44:46
Natürlich werden keine Desktops gekauft, was soll das bringen?
Gerade als Softwareentwickler... Home office anyone?
Wir haben 4C/8T Ultrabooks mit 20GB RAM. Alles, was aufwändiger ist, läuft halt auf Servern. Wer wirklich so viel Leistung lokal braucht, hat auch jetzt schon einen Desktop.
Bei unseren Kunden sehe ich nur noch Virtualisierung / Terminalserver, die bekommen irgendwelche thin clients oder einfache Notebooks.
Opprobrium
2019-01-12, 01:05:40
Könnte durchaus sein, dass durch die wiederbelebte Konkurrenzsituation der PC Markt etwas wiederbelebt wird. Ist mMn auch schon passiert in den letzten 2 Jahren. Da ist durch Zen deutlich Schwung reingekommen verglichen mit dem leisen tick-tack des Intelquadcoremonotols
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)
Das wars dann endlich mit dem IGP rumgespinne hier. Heisst aber auch, dass es kein Navi Chiplet geben wird. Einzige APU ist damit Renoir und der ist jetzt also auch offiziell monolithisch. Auch alle Spekus über mehr als 105W sind damit endlich als BS entlarvt.
MSABK
2019-01-12, 01:54:20
Das wars dann endlich mit dem IGP rumgespinne hier. Heisst aber auch, dass es kein Navi Chiplet geben wird. Einzige APU ist damit Renoir und der ist jetzt also auch offiziell monolithisch. Auch alle Spekus über mehr als 105W sind damit endlich als BS entlarvt.
Wirklich schade, ein äquivalentes Produkt zum Intel Kaby Lake-G von AMD wäre schon cool gewesen.
Leonidas
2019-01-12, 03:59:49
AMD kann nicht alles gleichzeitig bringen. Möglicherweise macht man so was später noch.
Korvaun
2019-01-12, 08:41:49
Bitte KEINE GPU in 6-16+ Core Boliden, das is komplette Verschwendung von Ressourcen (dafür gibts dedizierte APUs)! Das Intel das immer so macht habe ich nie verstanden... und wer unbedingt ne "Notfall-GPU" haben will und keine alte Graka rumfliegen hat soll doch bitte bei Ebay für nen Zwanni eine kaufen und nicht dauernd rumjammern ;)
basix
2019-01-12, 09:13:11
Auch in Mobile kann man 6+ Kerne verwenden ;) Da macht sich eine iGPU nicht schlecht. Momentan sind wir bei gar nicht so langsam getakteten 4C @ 15W. Mit 7nm wäre im Prinzip 8C im selben TDP Budget bei selben All-Core Taktraten drin. Wäre doch nice? Ausserdem kann man das selbe Die für Desktop verwenden wie bei RR. Ein einzelnes 7nm Die mit sagen wir mal 130-150mm2 wird eher günstiger sein als der Chiplet-Ansatz. Also gut für die Marge.
Opprobrium
2019-01-12, 09:30:04
Bitte KEINE GPU in 6-16+ Core Boliden, das is komplette Verschwendung von Ressourcen (dafür gibts dedizierte APUs)! Das Intel das immer so macht habe ich nie verstanden... und wer unbedingt ne "Notfall-GPU" haben will und keine alte Graka rumfliegen hat soll doch bitte bei Ebay für nen Zwanni eine kaufen und nicht dauernd rumjammern ;)
Warum fällt es denn so vielenbso schwer anzuerkennen, dass es unterschiedliche Bedürfnisse gibt?
Ohne dedizierte GPU sind ganz andere Anwendungsbereiche und Formfaktoren möglich.
Mit iGPU und extra GPU hat man auch nochmal erweiterte Möglichkeiten.
Ist ja verständlich, daš nicht jeder das braucht, aber warum dann allgemein die Nützlichkeit abgesprochen und eine iGPU explizit unerwünscht ist ist für mich nicht nachvollziehbar.
LadyWhirlwind
2019-01-12, 10:17:07
Warum fällt es denn so vielenbso schwer anzuerkennen, dass es unterschiedliche Bedürfnisse gibt?
Ohne dedizierte GPU sind ganz andere Anwendungsbereiche und Formfaktoren möglich.
Mit iGPU und extra GPU hat man auch nochmal erweiterte Möglichkeiten.
Ist ja verständlich, daš nicht jeder das braucht, aber warum dann allgemein die Nützlichkeit abgesprochen und eine iGPU explizit unerwünscht ist ist für mich nicht nachvollziehbar.
AMD hat nur für Matisse eine APU Variante dementiert. Das schliesst ja 6 oder 8 Core Renoir APUs nicht aus, also abwarten...
Ich vermute mal, das für APUs ein anderes I/O Die benötigt wird, dass noch mehr einem SOC gleicht und daher auch anders aufgebaut ist.
Edit: die Menge jener die die Ausstattung einer Workstation bzw. eines Mittel oder High End Pcs benötigen und dabei keine dedizierte Grafikkarte brauchen ist klein.
Denniss
2019-01-12, 10:48:51
Für Notebooks wäre es sehr interessant wenn das zweite chiplet eine kleine GPU mit eigenem Speicher hätte. Vega/HBM wäre da zu teuer, wird wohl erst mit Navi möglich sein.
Natürlich werden keine Desktops gekauft, was soll das bringen?
Gerade als Softwareentwickler... Home office anyone?
Wir haben 4C/8T Ultrabooks mit 20GB RAM. Alles, was aufwändiger ist, läuft halt auf Servern. Wer wirklich so viel Leistung lokal braucht, hat auch jetzt schon einen Desktop.
Bei unseren Kunden sehe ich nur noch Virtualisierung / Terminalserver, die bekommen irgendwelche thin clients oder einfache Notebooks.
Ich habe Notebook und Desktop. Notebook wird meist per VPN und RDP zum Desktop connected (obwohl das auch einen i7 und 32GB ram hat).
Ich glaube aber nicht das hier AMDs verbaut werden. Die Firmen tendieren ja Komplettsysteme zu kaufen und da sitzt ja quasi nur Intel drin.
BlacKi
2019-01-12, 11:13:21
Bitte KEINE GPU in 6-16+ Core Boliden, das is komplette Verschwendung von Ressourcen (dafür gibts dedizierte APUs)! Das Intel das immer so macht habe ich nie verstanden... und wer unbedingt ne "Notfall-GPU" haben will und keine alte Graka rumfliegen hat soll doch bitte bei Ebay für nen Zwanni eine kaufen und nicht dauernd rumjammern ;)
zum teil geb ich dir recht, die gpus sind viel zu groß, auch bei intel. das sind keine reinen notfall gpus, das sind wannabees. viel zu groß als reine notfall gpus. alte karten sind dagegen richtige idle stromfresser.
Wirklich schade, ein äquivalentes Produkt zum Intel Kaby Lake-G von AMD wäre schon cool gewesen.
gibt es, nennt sich Fenghuang. Verbaut nur bislang keiner.
AMD kann nicht alles gleichzeitig bringen. Möglicherweise macht man so was später noch.
Ich bezweifle, dass der I/O-Chip darauf vorbereitet ist. Der wird voll auf AM4 zugeschnitten sein, 24PCIe, 4 USB 3.1 (gen 2 aber diesmal sicherlich), 2 IF und 2 mem-Ctrl, das wars.
LadyWhirlwind
Lasst die Wunschträume. Renoir hat mit an Sicherheit grenzender Wahrscheinlichkeit wieder 4 Kerne und ich tippe auf 14CUs. Das Teil wird nicht über 120mm² kommen und damit ein reines OEM-/Mobilprodukt.
Das wars dann endlich mit dem IGP rumgespinne hier. Heisst aber auch, dass es kein Navi Chiplet geben wird. Einzige APU ist damit Renoir und der ist jetzt also auch offiziell monolithisch. Auch alle Spekus über mehr als 105W sind damit endlich als BS entlarvt.
Wenn deine Annahmen nicht einreffen, waren die dann auch Rumgespinne und Bullshit?
Das war von Anfang an nicht plausibel. Wofür sollte man Platz für einen IGP verschwenden, den eh kaum einer nutzen wird für die Märkte, für die diese Produkte gedacht sind?
Und der Rest ist eher auf die Quelle bezogen, nicht auf dich oder so :D. Dieses ganze Ryzen 3k-Gedöns"Leak" war offensichtlicher BS, da AMD so früh keine genauen Bezeichnungen und TDPs sowie Taktraten festlegen wird. Das wird erst in den nächsten 3 Monaten passieren.
IGP -> rumgespinne
Leak -> BS
Korvaun
2019-01-12, 13:30:57
zum teil geb ich dir recht, die gpus sind viel zu groß, auch bei intel. das sind keine reinen notfall gpus, das sind wannabees. viel zu groß als reine notfall gpus. alte karten sind dagegen richtige idle stromfresser.
Eine "Notfall-GPU" bedeutet für mich die wird nur gebraucht wenn die richtige GPU/Karte unerwartet den Geist aufgibt und man für ein paar Tage trotzdem den Rechner braucht für surfen/mail/u.ä. bis man richtigen Ersatz hat.
Eigentlich wäre ja so eine Mini-GPU in jeder CPU schon wünschenswert, aber als "Notfall-GPU" lässt sich das schlecht bewerben für die meisten Leute. Und wenn die GPU dann so schnell ist das man damit auch anspruchslosere Spiele spielen kann (z.b. aktuelle Intel-GPUs) ist sie schon wieder so groß das es massig Fläche kostet... Intel hätte wahrscheinlich keine Lieferprobleme wenn nicht jede Consumer CPU automatisch mit GPU kommt. Könnten Sie doppelt so viele CPU herstellen ;)
BoMbY
2019-01-12, 14:24:18
Ich wäre um eine kleine zusätzliche GPU jedenfalls nicht böse. Würde einem z.B. auch die Möglichkeit geben ohne großen Aufwand die dGPU an eine VM weiter zu reichen.
nordic_pegasus
2019-01-12, 14:48:40
Ich bezweifle, dass der I/O-Chip darauf vorbereitet ist. Der wird voll auf AM4 zugeschnitten sein, 24PCIe, 4 USB 3.1 (gen 2 aber diesmal sicherlich), 2 IF und 2 mem-Ctrl, das wars.
das wäre sehr schön, denn die ungenutzten 8 PCIe Lanes auf AM4 finde ich zum Heulen. AMD könnte sich hier deutlich von Intel Mainstream absetzen.
Dann lieber wirklich einen speziellen I/O Chiplet für AM4, welcher alles aktiviert hat, was er zu bieten hat.
Opprobrium
2019-01-12, 14:50:26
Ich wäre um eine kleine zusätzliche GPU jedenfalls nicht böse. Würde einem z.B. auch die Möglichkeit geben ohne großen Aufwand die dGPU an eine VM weiter zu reichen.
Jupp, außerdem erleichtert so eine GPU das Weiterverwenden von ausgedienten CPUs als Homeserver etc.
Klingt aber tatsächlich danach als gäbe es die bei AMD frühestens mit AM5 durch die komplette Produktreihe.
eratte
2019-01-12, 15:34:06
Habt ihr das bei Anandtech nicht richtig gelesen?
We were told that there will be Zen 2 processors with integrated graphics, presumably coming out much later after the desktop processors, but built in a different design.
Es wird also auch neue APUs geben und warum sollten die dann nicht Navi als Basis haben?
Dementiert haben sie eine APU auf den Chiplet Design.
Brillus
2019-01-12, 16:19:08
Habt ihr das bei Anandtech nicht richtig gelesen?
Es wird also auch neue APUs geben und warum sollten die dann nicht Navi als Basis haben?
Dementiert haben sie eine APU auf den Chiplet Design.
Meine Erwartung dafür wäre (von der Einheitenzahl) her ein shrink von RR.
4 CPU-Cores, 8-12 CU, 80-120mm²
Bei so einer Chiplet APU bzw. MiniGPU in IO hätte man halt einen 8-16c Design, das ziemlich interessant für Highend Laptops wäre.
amdfanuwe
2019-01-12, 16:37:17
Klar kommen noch 7nm APUs. Ende des Jahres/Anfang nächstes Jahr als monolithisches Design.
Ob es dann ein sparsamer ZEN2 4C8T11CU Chip wird um kompatibel zu RavenRidge zu bleiben und den bestehenden embedded Designs ein low Power upgrade anzubieten oder ob es mehr Cores und CUs werden, wird man sehen.
Vielleicht gibt es eine 4C8T APU mit IF Link um diese mit einem zusätzlichem 8C Chiplet als 12 Core APU betreiben zu können.
Vielleicht hat diese auch mehr CUs und ein HBM Interface.
Hatte ja schon gehofft, dass sie bei Überarbeitung von RavenRidge diesem noch ein IF und mehr PCIe verpassen um diesen als I/O für eine 8C APU verwenden zu können.
Meine Vorstellung zur nächsten 7nm APU:
4C8T20CU IF Links, HBM Interface
Verkaufseinheiten:
4c 11CU
4C 11CU + 8C Chiplet => 12C APU
4C 20CU + 8GB HBM (HBM kann auch als Hauptspeicher genutzt werden, kein DDR nötig)
4C 20CU + 8C + HBM
Also, Möglichkeiten hat AMD viele.
Man sollte nicht aus dem Blick verlieren, dass die OEMs einen single Chip BGA, der direkt aufs Board gelötet wird, bevorzugen. Solch eine Variante muß es zumindest als monolithische APU geben.
amdfanuwe
2019-01-12, 16:44:40
Bei den ganzen Träumereien nicht vergessen: HBM ist ca. 90mm² groß, also größer als ein Chiplet.
Bei I/O 130mm², Chiplet 75mm² und HBM 90mm² bliebe einfach kein Platz mehr für eine GPU auf AM4 Formfaktor die dazu mit HBM auf einem Interposer sitzen müßte.
spotz
2019-01-12, 17:05:30
Intel wird 2020 im Mobilebereich bestimmt 6 Kerne und mehr bieten. Ich glaube auch das Arctic Sound als dGPU dann erscheinen soll. Ob AMD dann mit nur 4 Kernen bei Renoir ins Rennen gehen will? Technisch mag das für die meisten Kunden reichen, aber ob die dann aus einem Bauchgefühl nicht trotzdem lieber zu 6 oder 8 Kernen greifen? Ein Renoir mit 4 Kernen und 10 CUs in 7nm wäre eher für den Ultra Low Power Bereich mit ~7 Watt TDP geeignet, aber mit Blick auf die Konkurrenz hege ich Zweifel ob das für AMD auch eine gute Lösung für den 15 Watt Low Power Bereich im Jahr 2020 wäre.
amdfanuwe
2019-01-12, 17:13:03
Möglichkeiten gibt es viele. Vielleicht ja auch 8C 20CU oder gar 2 Chips.
Wir werden abwarten müssen, wofür sich AMD entscheidet. Kaufen können wir eh erst, wenns mal im Laden ankommt.
robbitop
2019-01-12, 17:52:09
Ich tippe bei Renoir auf 8C. Ein zweites CCX kostet jetzt nicht so viel Fläche in 7 nm. Und im Notebookmarkt ist ordentlich Geld zu verdienen. Dort ist Intel jetzt bei 6C und will in 2019 sogar 8C anbieten. Da braucht AMD Ende 2019 nicht mehr nur mit 4C ankommen. Für die 15W Varianten deaktiviert man halt ein CCX. In der 35/45/65W Klasse gibt man halt mehr Cores und mehr sustained Takt drauf.
Brillus
2019-01-12, 18:08:50
Klar kommen noch 7nm APUs. Ende des Jahres/Anfang nächstes Jahr als monolithisches Design.
Ob es dann ein sparsamer ZEN2 4C8T11CU Chip wird um kompatibel zu RavenRidge zu bleiben und den bestehenden embedded Designs ein low Power upgrade anzubieten oder ob es mehr Cores und CUs werden, wird man sehen.
Vielleicht gibt es eine 4C8T APU mit IF Link um diese mit einem zusätzlichem 8C Chiplet als 12 Core APU betreiben zu können.
Vielleicht hat diese auch mehr CUs und ein HBM Interface.
Hatte ja schon gehofft, dass sie bei Überarbeitung von RavenRidge diesem noch ein IF und mehr PCIe verpassen um diesen als I/O für eine 8C APU verwenden zu können.
Meine Vorstellung zur nächsten 7nm APU:
4C8T20CU IF Links, HBM Interface
Verkaufseinheiten:
4c 11CU
4C 11CU + 8C Chiplet => 12C APU
4C 20CU + 8GB HBM (HBM kann auch als Hauptspeicher genutzt werden, kein DDR nötig)
4C 20CU + 8C + HBM
Also, Möglichkeiten hat AMD viele.
Man sollte nicht aus dem Blick verlieren, dass die OEMs einen single Chip BGA, der direkt aufs Board gelötet wird, bevorzugen. Solch eine Variante muß es zumindest als monolithische APU geben.
HBM APU sehe ich noch nicht von AMD, das klappt nur wenn man gutes Standing by den OEM hat das sich das lohnt, insbesonders Laptopbereich.
Und der Chinesiche APU und das Intel Teil wurden von anderen Firmen bestellt. Das ist nicht was AMD in ihr Produktplan rein geschrieben hat.
Ravenhearth
2019-01-12, 18:10:42
Ja, ich gehe bei Renoir auch von 8C aus. AMD kann ja den verdoppelten L3 für Renoir wieder halbieren. Die APU braucht sicher keine 32MB L3, da reicht auch die Hälfte locker. RR hat sogar nur 4MB. Das dürfte wie viel sparen? 15-20mm² ?
Wo wir schon dabei sind: Wenn Ryzen 3000 16 Kerne auf AM4 bekommen sollte, haben die CPUs dann nicht 64MB L3? :eek:
Brillus
2019-01-12, 18:12:48
Ich tippe bei Renoir auf 8C. Ein zweites CCX kostet jetzt nicht so viel Fläche in 7 nm. Und im Notebookmarkt ist ordentlich Geld zu verdienen. Dort ist Intel jetzt bei 6C und will in 2019 sogar 8C anbieten. Da braucht AMD Ende 2019 nicht mehr nur mit 4C ankommen. Für die 15W Varianten deaktiviert man halt ein CCX. In der 35/45/65W Klasse gibt man halt mehr Cores und mehr sustained Takt drauf.
Ich erwarte in dem 7nm APU Portfolie 2 Chips (Chip kombinationen). Einen 80-120mm² für das untere Segment als verspäter Katzen Nachfolger und dann noch was 200-250mm² Fläche.
robbitop
2019-01-12, 18:23:33
AMD scheint sehr daruf zu achten, so wenige wie mögliche Chips aufzulegen. Das kostet Geld und nochmal extra Ressourcen. Wenn die Stückzahl nicht besonders hoch ist, kann es gut sein, dass einfaches Deaktivieren bzw salvage Chips billiger sind als ein eigenes kleineres Design.
Ich tippe darauf dass es auch in 2019 bei diesem Ansatz bleibt.
Ja, ich gehe bei Renoir auch von 8C aus. AMD kann ja den verdoppelten L3 für Renoir wieder halbieren. Die APU braucht sicher keine 32MB L3, da reicht auch die Hälfte locker. RR hat sogar nur 4MB. Das dürfte wie viel sparen? 15-20mm² ?
Wo wir schon dabei sind: Wenn Ryzen 3000 16 Kerne auf AM4 bekommen sollte, haben die CPUs dann nicht 64MB L3? :eek:
Ja - bringt aber nichts, den L3 der ccx zu addieren. Latenz wird eh zu lahm sein, so dass nur der L3 pro ccx relevant ist. (Zumindest war es bei Ryzen bisher so wenn man auf die latenzdiagramme schaut)
mboeller
2019-01-12, 18:55:18
Bei den ganzen Träumereien nicht vergessen: HBM ist ca. 90mm² groß, also größer als ein Chiplet.
Bei I/O 130mm², Chiplet 75mm² und HBM 90mm² bliebe einfach kein Platz mehr für eine GPU auf AM4 Formfaktor die dazu mit HBM auf einem Interposer sitzen müßte.
bei einem aktiven Interposer haben vielleicht sogar 2 HBM Stacks (16GB) Platz
Zossel
2019-01-12, 19:12:06
Noch mal zur Größe der IO-Chiplets. Könnte es sein das dort noch etwas Index ähnliches befindet welches den Zustand der Cache-Lines in den CPU-Chiplets vorhält?
Complicated
2019-01-12, 19:17:24
Bei den ganzen Träumereien nicht vergessen: HBM ist ca. 90mm² groß, also größer als ein Chiplet.
Bei I/O 130mm², Chiplet 75mm² und HBM 90mm² bliebe einfach kein Platz mehr für eine GPU auf AM4 Formfaktor die dazu mit HBM auf einem Interposer sitzen müßte.Es sei denn auch AMD geht denn nächsten Schritt beim Stacking auf echte 3D-ICs und setzt auf den I/O-Die den Speicher drauf. Dafür wäre ein 14nm I/O prädestiniert. HBM oder DDR4...beides würde gehen. Intel hat mit Foveros ja schon ein solches 3D-Design angekündigt für Ende 2019.
https://scr3.golem.de/screenshots/1812/Intel-Foveros/thumb620/Image14.png
Man braucht nur wenig Phantasie um einen ähnlichen Stapel auf 14nm I/O +GPU-Chiplet +HBM bei AMDs Chiplet-Design des Ryzen 2 als realistische Option zu sehen. Und ein 130nm Navi-Chiplet in 7nm (auf dem 130nm I/O-Die) würde hier gar nicht so schlechte Performance bieten können.
BoMbY
2019-01-12, 19:18:47
AMD scheint sehr daruf zu achten, so wenige wie mögliche Chips aufzulegen. Das kostet Geld und nochmal extra Ressourcen.
Und gerade bei 7nm sollen ja die initialen Kosten nochmal einen enormen Sprung nach oben gemacht haben.
amdfanuwe
2019-01-12, 19:49:35
Noch mal zur Größe der IO-Chiplets. Könnte es sein das dort noch etwas Index ähnliches befindet welches den Zustand der Cache-Lines in den CPU-Chiplets vorhält?
Davon gehe ich aus, zumindest bei ROME. Da wird auch Platz für die anderen Sockel sein. siehe mal hier https://de.wikipedia.org/wiki/Cache-Koh%C3%A4renz Punkt: Verzeichnisbasiert.
AMD hat auch ein Patent, bei dem sie notieren wie hoch die Latenz zu den Daten in einer Line bzw. zum Speicher ist.
Wird eine Line angefordert und die angeforderten Daten sind im System irgendwo im Cache, werden die Daten dort angefordert wo die geringste Latenz anfällt.
Jetzt stell dir das bei einem 4 Sockel System vor. Dürfte einiges an Datenverkehr zu Cache Kohärenz einsparen.
mboeller
2019-01-12, 20:34:36
Noch mal zur Größe der IO-Chiplets. Könnte es sein das dort noch etwas Index ähnliches befindet welches den Zustand der Cache-Lines in den CPU-Chiplets vorhält?
ohne IO-Chip. Mit einem aktiven Interposer braucht man keinen IO-Chip mehr.
Gipsel
2019-01-13, 00:42:14
bei einem aktiven Interposer haben vielleicht sogar 2 HBM Stacks (16GB) Platz
ohne IO-Chip. Mit einem aktiven Interposer braucht man keinen IO-Chip mehr.
Für dieses Jahr irrelevant. Die Idee ist nett und irgendwann kommt das vermutlich auch, aber nicht mehr in dieser Generation.
danarcho
2019-01-13, 01:02:25
Hier mal eine etwas realistischere Einschätzung zum Thema APU (damit ihr nicht auf und davon fliegt):
pessimistisch: 4/8 Zen2, 11 Navi CUs
optimistisch: 8/16 Zen2, 16 Navi CUs
alles monolothisch, kein hbm, kein chiplet, mehr würde ich beim besten Willen nicht erwarten.
amdfanuwe
2019-01-13, 01:57:12
@danarcho
Hast ja Recht, ein kleiner monolithischer Chip reicht für embedded und billige Notebooks. Der Chip muß einfach nur günstig zu produzieren sein. Also eher 4 Core. Wieviel Navi CUs hängt davon ab, wie Navi mit der Speicherbandbreite zurecht kommt. RavenRidge ist ja wohl mit 11 CUs schon am Speicherbandbreitenlimit.
Für höherwertige Geräte kann man immer noch CPU und dedizierte GPU verbauen.
Wenn HBM aber vom Preis her zu normalem RAM konkurrenzfähig wird tut sich eine Lücke auf.
Wenn HBM als Hauptspeicher infrage kommt, bietet es sich an eine ordentliche GPU daran zu hängen, begrenzt durch TDP und nicht mehr durch Speicherbandbreite. Da das eh auf einen (aktiven) Interposer muß, kann man auch gleich noch CPU dranhängen.
Dadurch hat man CPU,GPU und RAM auf einem Chip, mehr Leistung als die günstige monolithische APU, geringen Platzbedarf, einfacheres Design für Embedded, HTPC, Casino und Notebooks da kein externes RAM benötigt wird. Das ganze hängt momentan eigentlich nur an den HBM Preisen weshalb es sich noch nicht lohnt. AMD sammelt ja schon Erfahrung in die Richtung mit Vega Mobile.
Ergänzung: Würde mich nicht wundern, wenn Vega Mobile schon ein IF hat damit AMD in die Richtung experimentieren kann.
basix
2019-01-13, 11:54:11
Evtl. könnte ein aktiver Interposer nächstes Jahr mit Zen 3 kommen. Und zwar in 14nm. Die ganze IP hat man schon zu guten Stücken in 14nm (keine Ahnung wie gross man die für einen Interposer anpassen müsste). Ausserdem wird dann viel 14/16nm Wafer Kapazität frei bei GloFo, Samsung als auch TSMC. Waferkontingente bei GloFo hat man auch noch. Dann zwei CPU und ein GPU Chiplet drauf sowie die Option auf einen einzelnen HBM-Stack. Das wäre ein schönes Paket. Als Umsetzungsidee: Die Fläche des Interposers wäre bei den jetzigen Chipgrössen ca. 360mm2, also etwa 4x HBM. Jedes Chiplet wäre also gleich gross wie ein HBM-Stack. Damit hat man optimale Flächenausnutzung. Bei dieser Interposer Grösse würde der Chipsatz auch noch reinpassen.
Vielleicht ist nächstes Jahr noch etwas früh dafür. Aber das Chiplet + I/O Die Konstrukt der Zen 2 Produkte deutet stark in solch eine Richtung. Mit Interposer kriegt man einfach noch ein bisschen mehr Scaling und vor allem erhöhte Energieeffizienz sowie den Speicher näher and den Chip.
Thunder99
2019-01-13, 12:25:49
Bin gespannt ob nicht das Chiplet Design ein Nachteil wird bezüglich Spiele Performance. Latenzen könnten schlechter werden :confused:
robbitop
2019-01-13, 12:33:25
Die Befürchtung habe ich auch. Andererseits waren die bei Zen auch bei monolithischen Designs grottig schlecht. Ggf hat man an der IF noch etwas drehen können.
Weiterhin hat man immerhin den L3 verdoppelt und den Prefetcher verbessert. Das kann sicherlich etwas abfedern
amdfanuwe
2019-01-13, 13:14:45
Bin gespannt ob nicht das Chiplet Design ein Nachteil wird bezüglich Spiele Performance. Latenzen könnten schlechter werden :confused:
Wieviel denn? Hau doch mal ein paar Zahlen/Schätzungen raus. Einfach mal, damit man eine Vorstellung von der Größenordnung bekommt.
Was macht eigentlich ein schlechterer RAM wirklich aus?
Wieviel Frames gewinnt man, wenn man einen RAM mit CL 14 statt CL 16 einsetzt? Viel größer schätze ich den Latenzverlust durch Chiplet Design nicht ein.
basix
2019-01-13, 13:39:45
Wieviel denn? Hau doch mal ein paar Zahlen/Schätzungen raus. Einfach mal, damit man eine Vorstellung von der Größenordnung bekommt.
Das muss man nicht schätzen, es gibt Messungen dazu ;) Bei Threadripper / EPYC sind es ca. 50ns höhere Latenz, wenn man auf den Speicher des nächsten Chips zugreifen will. Die Gretchenfrage ist: Inwiefern hat sich das mit Zen 2 verbessert? Ein zentrales I/O Die macht die Sache sicher schonmal einfacher, man muss nicht noch entscheiden zu welchem Die man gehen muss. Zudem können andere Verbesserungen vorgenommen worden sein und der Takt des RAM wird auch steigen. Was ich nicht erwarten würde: Eine geringere Latenz als Zen+. Eine Latenz auf selber Höhe wäre schon ein gutes Resultat. Man wird nicht ohne Grund den L3-Cache pro Core verdoppelt haben. Aber eine positve Überraschung wäre auch nicht schlecht :)
https://www.servethehome.com/wp-content/uploads/2017/07/AMD-EPYC-Infinity-Fabric-DDR4-2666-Idle-Latencies-in-ns-package-mapping.jpg
https://www.servethehome.com/amd-epyc-infinity-fabric-latency-ddr4-2400-v-2666-a-snapshot/
https://www.pcper.com/reviews/Processors/AMD-Ryzen-Threadripper-1950X-and-1920X-Review/NUMA-and-UMA-memory-locality-concer
Was mich dann noch zusätzlich interessieren würde: Wie sieht das mit einem zweiten Chiplet aus? Geht alles über das I/O Die und man hat somit zweimal die IF-Latenz? Oder können die Chiplets untereinander ebenfalls kommunizieren? Ersteres ist vom System her wohl einfacher umzusetzen, zweiteres hätte potentiell Performance-Vorteile (und vielleicht ein Grund, wieso bei Zen 2 EPYC die CPU-Chiplets so nahe beieinander sind).
Kochtopf
2019-01-13, 13:51:35
Meine Vorstellung zur nächsten 7nm APU:
4C8T20CU IF Links, HBM Interface
Verkaufseinheiten:
4c 11CU
4C 11CU + 8C Chiplet => 12C APU
4C 20CU + 8GB HBM (HBM kann auch als Hauptspeicher genutzt werden, kein DDR nötig)
4C 20CU + 8C + HBM
HBM als alleiniger Hauptspeicher für die CPU ist hier ja schon diskutiert worden, die vglsw. hohe Latenz soll HBM für CPU unatraktiv machen. Würde also bedeuten dass man entweder das irgendwie kompensieren muss oder Leistungseinbuße hinnehmen muss.
amdfanuwe
2019-01-13, 14:54:06
@Kochtopf
schon wieder das Modewort Latenz.
Welche Latenz hat denn HBM? Bisher hab ich nur gehört, dass die bei HBM geringer ausfällt.
--------------------
Bei einem Speicherzugriff wird erst mal im Cache nachgeschaut, L1, L2, L3.
Sind die Daten nicht im Cache, wird eine Cacheline vom Speicher angefordert, das sind 64 Byte.
Vom anlegen der Zugriffssignale bis der Transfer der ersten Bytes gestartet werden kann vergehen die z.B. 16 Takte Latency, die beim Speicher als erstes angegeben sind. Dann können die ersten 8 Bytes Übertragen werden und im Burst Mode die weiteren 7 * 8 Bytes pro Takt.
HBM hat 256 Bit Speicherbandbreite. Da können theoretisch 32 Bytes pro Takt übertragen werden wodurch die Cachline in 2 Takten statt in 8 Takten bei DDR gefüllt ist.
OK, HBM taktet niedriger und die Zugriffe sind auf Channels aufgeteilt.
Der wesentliche Pinkt ist, es dauert lange im Vergleich zu einem Cachezugriff, bis die 64 Bytes im Cache sind und die CPU ihre Arbeit fortsetzen kann.
Ein guter Cache und eine gute Vorhersage zum vorsorglichem Laden der Cachelines bringt da einiges an Geschwindigkeit.
Thunder99
2019-01-13, 15:03:17
Wieviel denn? Hau doch mal ein paar Zahlen/Schätzungen raus. Einfach mal, damit man eine Vorstellung von der Größenordnung bekommt.
Was macht eigentlich ein schlechterer RAM wirklich aus?
Wieviel Frames gewinnt man, wenn man einen RAM mit CL 14 statt CL 16 einsetzt? Viel größer schätze ich den Latenzverlust durch Chiplet Design nicht ein.
Wie schon basix geschrieben hat gibt es Messungen, auch hier im Forum was ein guter Speicher mit niedrigen Gesamt Latenz ausmachen kann.
Wenn sich jetzt bei Zen 2 die Wege verlängern bin ich skeptisch was die Latenz anbelangt.
Der_Korken
2019-01-13, 15:18:48
HBM hat 256 Bit Speicherbandbreite. Da können theoretisch 32 Bytes pro Takt übertragen werden wodurch die Cachline in 2 Takten statt in 8 Takten bei DDR gefüllt ist.
OK, HBM taktet niedriger und die Zugriffe sind auf Channels aufgeteilt.
Am Ende ist auch HBM nur DRAM und bei diesem sind die absoluten Latenzen seit 15 Jahren relativ konstant. Das einzige wirkliche Einsparpotenzial bei den Latenzen wären die Signallaufzeiten vom CPU-Die zu den Memory-Slots auf dem Mainboard. Allerdings war selbst der eDRAM auf Broadwell kaum schneller als OC-RAM auf aktuellen Coffee Lakes. Außerdem muss man bedenken, dass bei einem "cache miss" im HBM die Daten aus dem RAM geholt werden müssen, d.h. hier wäre die Gesamtlatenz deutlich höher als ohne HBM-Cache.
amdfanuwe
2019-01-13, 16:05:06
Was mich dann noch zusätzlich interessieren würde: Wie sieht das mit einem zweiten Chiplet aus? Geht alles über das I/O Die und man hat somit zweimal die IF-Latenz? Oder können die Chiplets untereinander ebenfalls kommunizieren? Ersteres ist vom System her wohl einfacher umzusetzen, zweiteres hätte potentiell Performance-Vorteile (und vielleicht ein Grund, wieso bei Zen 2 EPYC die CPU-Chiplets so nahe beieinander sind).
Danke, schöne Tabelle, hatte ich bisher so noch nicht gesehen.
Mal analysieren:
Es gibt 4 verschiedene Latenzen.
85 bei Zugriff auf den eigenen RAM
133 Zugriff auf das am Nachbarchip angebundene RAM
200 Zugriff auf Nachbarsockel und RAM des Verbindungschips
240 Zugriff auf Nachbarsockel und dort auf das RAM eines anderen Chips
Zu deinen Fragen
Spekulatius on:
Es wird alles über das I/O gehen. Eine Verbindung der Chiplets untereinander macht keinen Sinn. Da müßten ja bei ROME alle 8 Chiplets nochmals untereinander vernetzt sein. Interessanter ist eigentlich die Frage, ob die 2 CCX auf einem Chiplet schon einen Mechanismus haben zur Cache Kohärenz oder ob die auch nur über das I/O miteinander kommunizieren. Seis drum.
Aus der Tabelle haben interessieren nur die 85 und 133 ns wegen single Socket.
Die 133 kommen zustande, weil zunächst Chip 1 die Anfrage bearbeitet, feststellt dass der Rambereich an Chip 2 gekoppelt ist und die Anfrage dorthin weiterleitet. Chip 2 prüft die Anfrage, scheckt seine Caches und startet dann den RAM Zugriff.
Für die Übertragung über IF und Prüfen der Anfrage auf Chip2 vergehen also ca. 133 - 85 = 48ns.
Beim I/O Design mit Chiplets wird das anders aussehen, da das CCX die Anfrage direkt an den I/O schickt und nicht erst interne Prüfungen ablaufen wo die Daten zu finden sind. Das Prüfungen finden im I/O statt. Wenn AMD da noch optimiert hat, könnte das schneller gehen als bei ZEN1.
Bleibt die Übertragung über das IF. IF ist 32 Bit breit und Memmory liefert 64 Bit pro Takt (Übertragungstakt DDR, QDR ). Das könnte 2,5ns (400 MHz QDR, 4 zusätzliche Takte) ausmachen, dürfte insgesamt aber wesentlich unter den 133ns liegen, die beim Zugriff über einen anderen Chip bei TR fällig wurden.
amdfanuwe
2019-01-13, 16:11:56
Wie schon basix geschrieben hat gibt es Messungen, auch hier im Forum was ein guter Speicher mit niedrigen Gesamt Latenz ausmachen kann.
Leider habe ich die nicht im Kopf, deshalb frage ich ja, wieviel Frames machen 10 ns höhere Latenz denn wirklich aus. Jeder redet darüber, als sei es der heilige Gral, aber wenn ich "nur" 2 - 5% in "bestimmten" Situationen geringere Performance habe, dann kann ich damit leben.
amdfanuwe
2019-01-13, 16:18:25
Außerdem muss man bedenken, dass bei einem "cache miss" im HBM die Daten aus dem RAM geholt werden müssen, d.h. hier wäre die Gesamtlatenz deutlich höher als ohne HBM-Cache.
Von HBM Cache hab ich nicht geredet. Ich meine HBM als alleinigen Hauptspeicher.
HBM Cache mag im HPC Sinn machen. Ich meine aber günstige SOC inklusive (HBM) RAM die KEINEN weiteren Hauptspeicher erfordern.
Man sieht ja jetzt schon, dass der RAM bei Notebooks z.T. aufgelötet wird um die Ram Slots zu sparen. Warum nicht das Auflöten der RAM Chips auch noch einsparen. 8 GB RAM reicht noch eine Weile für einfache Bürorechner und Einsteiger Notebooks. Ist eben nur eine Preisfrage.
amdfanuwe
2019-01-13, 16:33:20
OK, hab was gefunden. https://imgur.com/a/pgiLe
Beim altem R7 1700X konnte ein RAM mit besserer Latency je nach Spiel bis zu 10% ausmachen.
Lassen wir uns mal überraschen inwiefern die Chiplets bremsen und was der vergrößerte Cache bringt.
AMD: “No Chiplet APU Variant on Matisse, CPU TDP Range same as Ryzen-2000” (https://www.anandtech.com/show/13852/amd-no-chiplet-apu-variant-on-matisse-cpu-tdp-range-same-as-ryzen2000)
Dann sind die TDP Angaben von adoreTV ebenso eine Erfindung gewesen, also 50W und 125/135W. Die Preise und alles andere dann genauso.
Wobei mich wundert, dass die beim 8C nicht wieder zurück auf 95W gehen, durch die shrink Ersparnis sollte das möglich sein.
DarknessFalls
2019-01-13, 17:05:08
Wobei mich wundert, dass die beim 8C nicht wieder zurück auf 95W gehen, durch die shrink Ersparnis sollte das möglich sein.
...wenn ich nicht irre, war der 8C/16T von der Präsentation ein 95W. :wink:
Edit: Und gab es in dem Zusammenhang nicht eine Aussage, dass es 8C/16T mit 65W geben sollte als R5?
Brillus
2019-01-13, 17:07:58
Dann sind die TDP Angaben von adoreTV ebenso eine Erfindung gewesen, also 50W und 125/135W. Die Preise und alles andere dann genauso.
Wobei mich wundert, dass die beim 8C nicht wieder zurück auf 95W gehen, durch die shrink Ersparnis sollte das möglich sein.
Warum mehr TDP als man braucht aktuell sieht alles so aus als wäre der 8c ein 65W TDP Teil.
Aufgrund des Vergleiches mit dem Intel in der Vorstellung hat der gezeigte Ryzen bei ~70W gelegen. Nun sind Vorserien Teile gerne mal mit mehr Spannung am laufen wegen Stabilität. Auserdem ist der Verbrauch bei AMD gerne mal leicht über der TDP, weil die TDP wörtlich nehmen und nach etwas der Hitze mit einriechen die über den Sockel und so abgeführt wird.
basix
2019-01-13, 17:10:43
Beim altem R7 1700X konnte ein RAM mit besserer Latency je nach Spiel bis zu 10% ausmachen.
.
Kann auch mehr ausmachen. CB hat +14% gemessen beim 2700X:
https://www.computerbase.de/2018-04/amd-ryzen-2000-test/7/
Latenz ist aben eber nicht alles. Beim Speicher hat man mit den Subtimings viele Variablen.
Unicous
2019-01-13, 17:21:14
...wenn ich nicht irre, war der 8C/16T von der Präsentation ein 95W. :wink:
Edit: Und gab es in dem Zusammenhang nicht eine Aussage, dass es 8C/16T mit 65W geben sollte als R5?
Du irrst dich, denn AMD hat gar keine Angaben dazu gemacht. Der 9900K jedoch ist eine 95 Watt SKU und AMD behauptet effizienter zu sein. Intel-Testsystem hat 180 Watt Leistung aufgenommen, das AMD-System 130 Watt. Was sagt uns das?:uponder:
Es lässt darauf schließen, dass es eher ein 65 Watt Chip war als ein 95 Watt Chip.
Und welche Aussage von wem? Von AMD? Sicherlich nicht.
Warum mehr TDP als man braucht aktuell sieht alles so aus als wäre der 8c ein 65W TDP Teil.
Das ist die Aussage von AMD und nicht von mir. Gleicher TDP Bereich wie jetzt.
unl34shed
2019-01-13, 17:25:30
Ja, die CPUs, die für AM4 kommen werden, werden auch weiterhin auf 105W Limitiert sein. Der gezeugte 8C ist deshalb aber kein 105W Chip gewesen...
DarknessFalls
2019-01-13, 17:26:31
Das ist die Aussage von AMD und nicht von mir. Gleicher TDP Bereich wie jetzt.
Ja, bezogen auf die gesamte Produktrange. Also hypothetisch 8C/16T bei 65W, 12C/24T bei 95W und 16C/32T bei 105W.
Brillus
2019-01-13, 17:49:24
Das ist die Aussage von AMD und nicht von mir. Gleicher TDP Bereich wie jetzt.
Das war über das komplette Line-Up und die haben auch schon gesagt man sollte noch mehr cores erwarten.
amdfanuwe
2019-01-13, 17:53:57
Ja, bezogen auf die gesamte Produktrange. Also hypothetisch 8C/16T bei 65W, 12C/24T bei 95W und 16C/32T bei 105W.
Hängt wohl ganz von den erzielbaren Frequenzen ab.
Nehme an, dass weiterhin alle mit 95W und 65W , der Topprozessor mit 105W angeboten werden. Es sei denn, 8 Core 95W hing schon an der Schmelzgrenze.
Ich hoffe mal auf einen schnellen 8 Core. Durch 2 Chiplets und dadurch etwas höheren Grundverbrauch könnten die 12/16 Core Varianten beim Single Core Takt etwas niedriger liegen.
Unicous
2019-01-13, 18:09:17
Ja, bezogen auf die gesamte Produktrange.
Das war über das komplette Line-Up und die haben auch schon gesagt man sollte noch mehr cores erwarten.
Entschuldigt mal, ihr könnt doch von gmb keine faktenbasierte, neutrale Aussagen verlangen, das ist nun wirklich zu viel verlangt.
Der gezeugte 8C ist deshalb aber kein 105W Chip gewesen...
Das hat auch keiner behauptet. Du kannst auch nicht davon ausgehen, dass der gezeigte das Maximum darstellen wird oder überhaupt als 65W verkauft wird. Mal angenommen, AMD versucht noch 10% mehr Takt rauszuquetschen für ein Spitzenmodell, kann das in 20-30% mehr Leistungsaufnahme resultieren, je nach erforderlicher Spannung. Das verläuft nicht linear. Auch muss Cinebench nicht maximale Leistungsaufnahme bedeuten, es fehlt AVX.
Linmoum
2019-01-13, 18:24:28
Das hat auch keiner behauptet.
Wobei mich wundert, dass die beim 8C nicht wieder zurück auf 95W gehen, durch die shrink Ersparnis sollte das möglich sein.
Vielleicht solltest du mal deine eigenen Posts lesen (und verstehen...).
Vielleicht solltest du mal deine eigenen Posts lesen (und verstehen...).
Du kapierst es einfach nicht.
Brillus
2019-01-13, 18:27:43
Das hat auch keiner behauptet. Du kannst auch nicht davon ausgehen, dass der gezeigte das Maximum darstellen wird oder überhaupt als 65W verkauft wird. Mal angenommen, AMD versucht noch 10% mehr Takt rauszuquetschen für ein Spitzenmodell, kann das in 20-30% mehr Leistungsaufnahme resultieren, je nach erforderlicher Spannung. Das verläuft nicht linear. Auch muss Cinebench nicht maximale Leistungsaufnahme bedeuten, es fehlt AVX.
Doch hast du wenn du nämlich sagst
Wobei mich wundert, dass die beim 8C nicht wieder zurück auf 95W gehen, durch die shrink Ersparnis sollte das möglich sein.
sagst du damit das er über 95W ist.
Screemer
2019-01-13, 18:28:01
Vielleicht solltest du mal deine eigenen Posts lesen (und verstehen...).
er meint, dass sie statt 65W eben auch 30W mehr geben könnten und damit noch mehr leistung rauskitzeln könnten.
Doch hast du wenn du nämlich sagst
sagst du damit das er über 95W ist.
Auch du kapierst es nicht. Ich bezog mich allgemein auf AMDs Aussage. Die TDP vom showcase Modell spielt dabei überhaupt gar keine Rolle.
Brillus
2019-01-13, 18:30:48
er meint, dass sie statt 65W eben auch 30W mehr geben könnten und damit noch mehr leistung rauskitzeln könnten.
Könnte er gemeint haben, wenn er nicht explizit auf die Ersparnisse hingewiesen hätte.
Opprobrium
2019-01-13, 18:32:54
Wieviel verbrauchen wohl das I/O Chiplet und das Infinity Fabric? Bzw. wie wenig verbraucht so ein Zen 2 Chiplet allein? Dürfte zumindest weniger als 65 Watt sein, womit die gesamten 105 Watt für zwei Chiplets durchaus auch bei Gamerfreundlichen Taktraten machbar sein sollten :smile:
Linmoum
2019-01-13, 18:34:39
er meint, dass sie statt 65W eben auch 30W mehr geben könnten und damit noch mehr leistung rauskitzeln könnten.
Nein, meinte er nicht.
Er wunderte sich anhand des geposteten AT-Links, in dem für Zen2 von derselben TDP-Range die Rede wie für Zen+ ist, warum AMD denn beim 8C nicht wieder zurück auf 95W gehen würde. Also geht er weiter davon aus, dass der 8C erneut bei 105W landen wird wie der 2700X. Da der TDP-Bereich aber für das gesamte Portfolio gilt und AMD quasi bestätigt hat, dass es mehr als 8C geben wird... ;)
Screemer
2019-01-13, 18:37:28
kann man auch so verstehen. naja er erklärt sich halt nicht wirklich gern.
Zossel
2019-01-13, 18:48:29
Wieviel grösser wären den die parasitären Kapazitäten und Induktivitäten zwischen den Chiplets gegenüber einer On-Die Verbindung?
Eine längere On-Die Verbindung braucht ja sicherlich auch etwas Treiber-Bumms.
Er wunderte sich anhand des geposteten AT-Links, in dem für Zen2 von derselben TDP-Range die Rede wie für Zen+ ist, warum AMD denn beim 8C nicht wieder zurück auf 95W gehen würde. Also geht er weiter davon aus, dass der 8C erneut bei 105W landen wird wie der 2700X. Da der TDP-Bereich aber für das gesamte Portfolio gilt und AMD quasi bestätigt hat, dass es mehr als 8C geben wird... ;)
Was du leider nicht kapiert hast, ist der Umstand, dass das mit dem showcase Modell nichts zu tun hat.
Der gezeugte 8C ist deshalb aber kein 105W Chip gewesen...
Das hat auch keiner behauptet.
Deswegen war dein spamartiger Einwurf einfach nur Stuss. Ich habe nirgends behauptet, dass der gezeigte 8C ein 105W Modell werden soll. Ihr kommt ständig mit dem showcase Modell. Nirgendwo steht geschrieben, dass dieser schon finale Taktraten trägt oder überhaupt als 65W eingestuft wird. Dass es auch 65W 8C geben wird, hat AMD schon bestätigt, das ist nicht die Frage.
Da der TDP-Bereich aber für das gesamte Portfolio gilt und AMD quasi bestätigt hat, dass es mehr als 8C geben wird... ;)
Das ist eine sehr wohlwollende Spekulation.
amdfanuwe
2019-01-13, 18:59:16
Wieviel verbrauchen wohl das I/O Chiplet und das Infinity Fabric? Bzw. wie wenig verbraucht so ein Zen 2 Chiplet allein? Dürfte zumindest weniger als 65 Watt sein, womit die gesamten 105 Watt für zwei Chiplets durchaus auch bei Gamerfreundlichen Taktraten machbar sein sollten :smile:
Deine Frage ergibt keinen Sinn, da der Verbrauch Taktabhängig ist.
Habe letztens eine Tabelle gesehen, da war der Verbrauch der Cores bei Threadripper 16 Core angegeben. All Core waren es ca 10W/Core, Single Thread 20W.
Wenn 7nm doppelt so effizient ist und ein Core mit 10W bei 4GHz hinkommt, knabbert so ein 8 Core Chiplet auch schon bei 4GHz all Core 80W weg.
Inwieweit der Prozess höhere Takte zulässt ohne dass es zur Kernschmelze kommt, ist eine andere Frage. Kann ja sein, dass single Core bei 12W Schluß ist, da sonst der Kern überhitzt.
maguumo
2019-01-13, 19:01:32
Das ist eine sehr wohlwollende Spekulation.
Was ist daran wohlwollend? Sie haben bestätigt das der Platz auf den mysteriöserweise ein zweites Chiplet passt genutzt wird. Was sollen sie da sonst hin kleben?
kunibätt
2019-01-13, 19:06:52
Vielleicht erstmal gar nichts?
maguumo
2019-01-13, 19:08:16
Gar nichts wäre keine Nutzung des Platzes, oder?
kunibätt
2019-01-13, 19:10:37
Wenn das Management der Meinung ist, dass 8 Kerne (erstmal) reichen, würde man halt nur ein chiplet nutzen.
dildo4u
2019-01-13, 19:11:49
Das ist eine sehr wohlwollende Spekulation.
Warum sollte AMD seine volle Hand 6 Monate vor Release zeigen?
Die 65 TDP lässt Platz für ein zweiten Chip,klar kann es schnellere 8 Core geben oder halt zwei Chips mit dem gezeigten Takt.
https://farm8.staticflickr.com/7814/45813495265_ed8aea5452_h.jpg (https://flic.kr/p/2cNo92p)waa8tXAVldESzNxRU552AhHIDsRE9dDLp92EOCkRlOA (https://flic.kr/p/2cNo92p) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://www.reddit.com/r/Amd/comments/aehiyh/clear_zen_2_die_shot_showing_masked_pcb_traces/
maguumo
2019-01-13, 19:20:27
Wenn das Management der Meinung ist, dass 8 Kerne (erstmal) reichen, würde man halt nur ein chiplet nutzen.
Wenn das die Meinung des Managements wäre hätte man wohl eher nicht rausposaunt das es mehr gibt. Vielleicht kommen mehr als 8 Kerne etwas später aber lange wird man das nicht zurückhalten können. Und warum sollten sie es auch wollen? 12 oder gar 16 Kerne mit guter Performance sind ein super halo Produkt dem die Konkurrenz erstmal nichts entgegensetzen kann.
SKYNET
2019-01-13, 19:26:47
Wenn das die Meinung des Managements wäre hätte man wohl eher nicht rausposaunt das es mehr gibt. Vielleicht kommen mehr als 8 Kerne etwas später aber lange wird man das nicht zurückhalten können. Und warum sollten sie es auch wollen? 12 oder gar 16 Kerne mit guter Performance sind ein super halo Produkt dem die Konkurrenz erstmal nichts entgegensetzen kann.
ich denke, das war bewusst gesagt worden von lisa, um eine firma mit blau-weissen logo ein wenig zum schwitzen zu bringen ;)
und ich denke die schwitzen nicht nur, sondern schmelzen grad regelrecht bzw. geht der kackstift... ;D
und wir werden dann im juni sehen was abgeht, ich tippe drauf, das der platz genutzt werden wird, und wir 3600X(6C/12T), 3700X(8C/16T), 3800X(12C/24T) und 3900X(16C/32T) sehen werden, alles unterhalb 6-core wird wohl nicht mehr als ryzen kommen, sondern als athlon.
Opprobrium
2019-01-13, 19:53:10
Deine Frage ergibt keinen Sinn, da der Verbrauch Taktabhängig ist.
Das ist schon klar, aber mit ein bißchen wohlwollen wäre doch der Sinn der nicht perfekt formulierten Frage zu enschlüsseln gewesen, nicht wahr? ;)
Dann käme man vielleicht auf soetwas hier: Wieviel von den 65W tdp gehen wohl auf das CPU Chiplet?
reaperrr
2019-01-13, 19:54:32
alles unterhalb 6-core wird wohl nicht mehr als ryzen kommen, sondern als athlon.
Ich gehe davon aus, dass zumindest die neuen Picasso-Modelle (Nachfolger von 2200G und 2400G) nochmal als Ryzen firmieren werden, und das sind weiterhin QuadCores.
Aber Zen2-Chiplet-Modelle mit weniger als 6 Kernen erwarte ich auch nicht.
Die Chiplets sind so klein, da ist die Wahrscheinlichkeit hoch, dass entweder nicht mehr als 1 Kern pro CCX defekt ist, oder gleich der ganze Chip in die Tonne kann (wenn z.B. IF-Lanes oder mehr als 4 Kerne defekt sind).
Ich glaube nicht daran, dass der Prozentsatz an Chiplets mit exakt 4 (oder 5, der 5. dann halt auch deaktiviert) funktionierenden Kernen hoch genug sein wird, um auf der Basis Mainstream-Desktop-Modelle auflegen zu können.
Solche Chiplets werden vermutlich eher weggeschmissen oder für Sonder-Modelle für Serverkunden, denen möglichst viel L3 je Kern wichtiger ist, gesammelt.
Screemer
2019-01-13, 20:05:21
3600X(6C/12T), 3700X(8C/16T), 3800X(12C/24T) und 3900X(16C/32T) sehen werden, alles unterhalb 6-core wird wohl nicht mehr als ryzen kommen, sondern als athlon.
Wurde nicht in der keynote gesagt, dass es sich um ein 5er Modell handelt? Daraus wurde ich folgern, dass 8 Kerner für den 3600/x gesetzt sind.
Windi
2019-01-13, 20:05:28
Chiplets mit 4 Kernen kann man ja auch noch für die 12C/24T Modelle gebrauchen.
Also ein Chiplet mit 8C und eines mit 4C.
SKYNET
2019-01-13, 20:15:30
Chiplets mit 4 Kernen kann man ja auch noch für die 12C/24T Modelle gebrauchen.
Also ein Chiplet mit 8C und eines mit 4C.
eben weil man die da brauchen wird, wird wohl nix mit "nur" 4C als ryzen kommen(APUs aussen vor)
dargo
2019-01-13, 20:19:32
und wir werden dann im juni sehen was abgeht, ich tippe drauf, das der platz genutzt werden wird, und wir 3600X(6C/12T), 3700X(8C/16T), 3800X(12C/24T) und 3900X(16C/32T) sehen werden, alles unterhalb 6-core wird wohl nicht mehr als ryzen kommen, sondern als athlon.
Einen 3500(X) mit 6C/6T dürfte es aber auch noch geben denke ich. :)
prinz_valium
2019-01-13, 20:44:51
Ich denke die yields werden so gut sein, dass sich das gar nicht lohnt.
Die paar wenigen werden einfach entsorgt als komplett defekt.
Validieren etc kostet schließlich auch.
Wüsste nicht, warum bei so einem mini Chiplet so viel salvage Teile bei rumkommen sollten.
Ravenhearth
2019-01-13, 20:50:32
und wir werden dann im juni sehen was abgeht, ich tippe drauf, das der platz genutzt werden wird, und wir 3600X(6C/12T), 3700X(8C/16T), 3800X(12C/24T) und 3900X(16C/32T) sehen werden, alles unterhalb 6-core wird wohl nicht mehr als ryzen kommen, sondern als athlon.
Da fehlt dann aber noch Ryzen 3, halt alles unterhalb von 3600X. Es sei denn, der 3600X wird ein Ryzen 3 und die APUs werden alle zu Athlons, aber das ist unwahrscheinlich...
Ich würde auf sowas spekulieren wie:
Ryzen Threadripper 39x0WX: 24 Kerne + SMT, 32 Kerne + SMT
Ryzen 7 3800(X): 16 Kerne + SMT
Ryzen 7 3700(X): 12 Kerne + SMT
Ryzen 5 3600(X): 8 Kerne + SMT
Ryzen 5 3500(X): 6 Kerne + SMT
Ryzen 7 kriegt also ein Upgrade auf 12/16 Kerne, Ryzen 5 von 4/6 auf 6/8. Da drunter bin ich mir unsicher. Bisher verwendet man ja Ryzen 5 1500/1400 für 4 Kerne + SMT und Ryzen 3 1300/1200 für 4 Kerne ohne SMT. An einen Sechskerner ohne SMT glaube ich nicht so fest, ein Quadcore mit SMT wäre da schon arg nah dran. Vielleicht:
Ryzen 5 3400(X): 6 Kerne (+ SMT)
Ryzen 3 3300(X): 4 Kerne + SMT
Ryzen 3 3200(X): 4 Kerne
Ryzen 3 bleibt also bei 4 Kernen, bekommt aber auch SMT dazu. Vielleicht wird es den aber auch gar nicht geben und alles unterhalb von 6 Kernen wird Picasso (aktueller RR Refresh in 12nm)? Picasso so ungefähr:
Ryzen 3 3300G: 4 Kerne + SMT, GPU
Ryzen 3 3200G: 4 Kerne, GPU
Athlon: 2 Kerne + SMT, GPU
robbitop
2019-01-13, 21:08:27
@amdfanuwe
Je nach Fall kann Memorylatency eine ganze Menge bringen. Je mehr Cache Misses desto höher der Effekt. Je größer das instruction set desto wahrscheinlicher sind cache misses.
In GTA5 habe ich >20% gemessen bei meinem 4790k im cpu limit.
Von ~57 ns auf ~42 ns (aida messwertte zur korrelation). ddr3–1600 unoptimiert vs ddr3-2400 mit optimierten timings und subtiminga.
Kannst du dich nich an den i7 5775c erinnern? Der hatte einen 128 mb edram l4 cache. Der lief auf ~40 ns. Hat ihm in vielen Spielen (nicht allen) rund 20% mehr Leistung gebracht. Der Effekt ist ganz ähnlich.
Das ist auch der Hauptgrund warum Ryzen 1 damals in Anwendungen auf bdw-e niveau war aber in doch einigen Spielen ein Stück zurück. Dank der lahmen IF sind die memorylatency gute 20 ns langsamer als bei Intels Cores. Gleicher Effekt auch bei Skylake X und dem Mesh.
Alle CPUs gewinnen in diesen Spielen durch memorylatency ordentlich Leistung. Insbesondere wenn diese schlecht ist.
Das ist auch kein Modewort. Ähnlicher Effekt machte damals den K8 übrigens in der Hauptsache so viel schneller als den K7. Der Memorycontroller wurde von der Northbridge in die CPU geholt. Das sparte einiges an Memorylatency. Die Spiele profitierten enorm.
Ich glaube eher dass es eher in Vergessenheit geriet.
Der_Korken
2019-01-13, 21:08:55
Man kann für die kleinen Modelle noch die Hälfte des L3-Caches deaktivieren, um die Ausbeute zu erhöhen. Chiplets, wo ein ganzes CCX kaputt ist, könnte man in Quadcores verwursten. Also zum Beispiel:
3600 - 8/16 + 32MB L3
3500 - 6/12 + 32MB L3
3400 - 6/12 + 16MB L3
3300 - 4/8 + 16MB L3
3200 - 4/4 + 8MB L3
Oder der Raven Ridge Refresh wird rebranded und als 3200/3300 verkauft.
MSABK
2019-01-13, 21:09:54
Ich kann mir für die APU irgendwie keine 4 Kerne vorstellen. Nicht in 7nm.
Ravenhearth
2019-01-13, 21:16:01
Ich kann mir für die APU irgendwie keine 4 Kerne vorstellen. Nicht in 7nm.
Picasso ist der Refresh von Raven Ridge, also 12nm, Zen+ und Vega. Den könnte ich mir gut als Ryzen 3 3300/3200 vorstellen; im Mobile-Markt läuft der ja auch als Ryzen 3000. Renoir (7nm, Zen 2, Navi) dürfte dann 2020 gleich als Ryzen 4000 starten, mit mehr als 4 Kernen.
Windi
2019-01-13, 21:24:49
Ich kann mir für die APU irgendwie keine 4 Kerne vorstellen. Nicht in 7nm.
Macht auch keinen Sinn.
Da man bei 7nm den ganzen I/O Kram nicht perfekt shrinken kann, wäre ein geschrumpfter Raven Ridge teurer als das Original in 14nm.
Und wofür? Für 10% mehr Leistung und etwas weniger Stromverbrauch? Dafür eine eigene Maske?
Dann lieber den Alten in 12/14nm weiter verwenden und später einen teureren Chip entwickeln, der dann auch deutlich mehr Leistung hat.
Nur für den Mobilmarkt würde ich nicht so einen großen Aufwand betreiben. Die OEMs verbauen die Teile leider größtenteils nur in Bilignotebooks, da zählt nur der Preis.
Für die paar guten Notebooks extra hunderte Millionen in neue Masken zu investieren, macht für mich keinen Sinn.
amdfanuwe
2019-01-13, 21:41:11
Dann käme man vielleicht auf soetwas hier: Wieviel von den 65W tdp gehen wohl auf das CPU Chiplet?
Meine Schätzung: 10 - 15W I/O Verbrauch.
amdfanuwe
2019-01-13, 21:54:32
Validieren etc kostet schließlich auch.
Die müssen doch sowieso validiert werden.
Da gibt es schnelle und langsamere, effiziente und säufer. Da muß AMD schon selektieren um die besten für die High End Produkte rauszupicken.
Das geht sogar soweit, dass pro Core die Daten ermittelt werden. Ist ein Chip dabei, der 3 gute Cores und einen lahmen im CCX hat, wird der lahme deaktiviert und man hat noch einen guten 6 Kerner anstatt einen lahmen 8 Kerner, der sich am lahmsten Core orientiert.
Ich bin noch etwas besorgt wegen der TDP. Über die kleine Chipletfläche von ~75mm² ca. 80W abzuführen, kann sein, dass das nicht funktioniert und z.B. nur max 60W/Chiplet möglich sind.
Könnte dann sein, dass ein 8 Core mit 2 Chiplets und jeweils 2 Cores pro CCX wesentlich höhere all Core Taktraten ermöglicht.
Denniss
2019-01-13, 22:22:43
Bei den APU gäbe es viele Möglichkeiten in 7nm
a) wie bisher monolithisch
b) Chiplet mit 1x CPU und 1x GPU
c) Chiplet mit 1x APU und 1x dedizierter Grafikspeicher (High-End version)
d) wie c aber ohne Speicher, Low-End version
wäre klasse wenn AMD diesen Ansatz mit Chiplets auch auf die Grafikkarten überetragen könnte wo die großen Funktionsblöcke dann nicht mehr in einem monolitischen die liegen sondern auf einzelnen chiplets. Verglichen mit heutigen modellen wäre ein block RX550, zwei RX560, vier 570 und sechs RX580 etc.
basix
2019-01-13, 22:34:39
Wird irgendwann wohl kommen. Mit Navi aber noch sicher nicht. Die APU wird ebenfalls monolithisch sein. Zum jetzigen Zeitpunkt die sinnvollste Lösung.
mczak
2019-01-13, 23:54:14
Ich bin noch etwas besorgt wegen der TDP. Über die kleine Chipletfläche von ~75mm² ca. 80W abzuführen, kann sein, dass das nicht funktioniert und z.B. nur max 60W/Chiplet möglich sind.
Könnte dann sein, dass ein 8 Core mit 2 Chiplets und jeweils 2 Cores pro CCX wesentlich höhere all Core Taktraten ermöglicht.
Selbst wenn da tatsächlich die maximale Abwärme pro Chiplet begrenzen sollte, wird die Auswirkung auf den Takt gering sein, weil man im Bereich von ~10W pro Kern sehr weit über dem Bereich ist wo der Chip effizient arbeitet
Zwischen einem Ryzen 2700 (3.2 Ghz, 65W) und 2700X (3.7Ghz, 105W) liegen gerade mal 16% Baseclock, aber 60% mehr Abwärme. Das wird sich bei 7nm prinzipiell ähnlich verhalten, ausser dass es bei derart hohen Verbrauchswerten noch extremer sein wird.
Eldoran
2019-01-14, 00:33:35
Ich wäre mir nicht so sicher, dass die APU nächstes Jahr monolithisch ist - noch dazu wenn diese oberhalb von 4C/10CU landen sollte, was im Umkehrschluss ein Die über 200mm² verlangt. Das dürfte nämlich teurer als ein Ryzen mit 16C (mit 2 CPU chiplets) sein.
7nm kostet der mm² etwa das doppelte zu 14nm - von rapide abnehmendem Yield bei steigender Fläche ganz abgesehen (für fehlerfreie Dies).
Ich tippe eher auf ein neues IO-Die...
Gerade das Low-End Produkt deutlich teurer wie die leistungsfähigeren zu gestalten wäre seltsam. Und ein deutlich aufgebohrter ZEN3 macht auch wenig Sinn - es fehlt bei AM4 einfach der Platz um da noch viel mehr Silizium zu verbauen.
amdfanuwe
2019-01-14, 04:04:52
@ Eldoran
Etwas monolithisches kleines für embedded und Low-End Systeme wird schon gebraucht. Wegen der Montage als BGA direkt auf dem Board ohne Chipträger.
8 Core wäre schon denkbar, da sich die Kerne bei Fehlern gut abschalten lassen und als salvage Lösung verkaufen lassen. Auch im GPU Teil lassen sich CUs deaktivieren. Damit wäre der Yield nicht so schlecht. Nur bei Fehlern im I/O Teil wird der Chip unbrauchbar. 8C11CU könnte noch gut unter 200mm² passen.
Leistungsfähigere APU Lösungen müssen nicht unbedingt den AM4 Formfaktor einhalten, die gibt es dann nicht für Desktop. Siehe auch den Intel G Chip mit AMD GPU und HBM.
Für Desktop AM4 muß die GPU nur stärker sein als Intels Lösung. Hätte mir schon gewünscht, dass ein paar CUs im I/O wären. Vielleicht kommt ja da ja mal etwas.
Andererseits sagt sich AMD wohl auch, dass für Office und Browsergames die 4Core APU reicht, in der nächsten Generation wirds dann vielleicht eine 8 Core APU.
basix
2019-01-14, 07:06:59
Selbst 8C/20CU wird kleiner als 200mm2 sein, wenn die Navi CUs nicht viel grösser als die von Vega werden. Es wird ja nicht alles vom Chip wird verdoppelt. Ich kann mich wiederholen: Was wenn die APU in 7nm Mobile kommt? Geschissen auf die letzten 500MHz und dafür fast +50% mehr Packdichte.
Leonidas
2019-01-14, 09:10:40
Du irrst dich, denn AMD hat gar keine Angaben dazu gemacht. Der 9900K jedoch ist eine 95 Watt SKU und AMD behauptet effizienter zu sein. Intel-Testsystem hat 180 Watt Leistung aufgenommen, das AMD-System 130 Watt. Was sagt uns das?:uponder:
Der Core i9-9900K saugt aber (viel) mehr als seine TDP, auch schon unter Cinebench. Demzufolge würde ich den AMD-Prozessor aufgrund des Deltas von ca. 50W auf knapp 100 Watt Verbrauch einschätzen - sprich 95W TDP.
Aber natürlich dürfte der im Vorserien-Status noch mit mehr Spannung laufen. Die wichtigste Vorgabe dürfte gewesen sein, nicht live abzustürzen.
Mangel76
2019-01-14, 09:20:31
Der Core i9-9900K saugt aber (viel) mehr als seine TDP, auch schon unter Cinebench. Demzufolge würde ich den AMD-Prozessor aufgrund des Deltas von ca. 50W auf knapp 100 Watt Verbrauch einschätzen - sprich 95W TDP.
Aber natürlich dürfte der im Vorserien-Status noch mit mehr Spannung laufen. Die wichtigste Vorgabe dürfte gewesen sein, nicht live abzustürzen.
Dann dürfte der Rest (Mainboard, Speicher, SSD, GPU) plus Verlust am Netzteil ja nur 30 Watt verbrauchen, wenn das Gesamtsystem 130W hat. Das erschient mehr sehr wenig!
Piefkee
2019-01-14, 09:43:27
Der Core i9-9900K saugt aber (viel) mehr als seine TDP, auch schon unter Cinebench. Demzufolge würde ich den AMD-Prozessor aufgrund des Deltas von ca. 50W auf knapp 100 Watt Verbrauch einschätzen - sprich 95W TDP.
Aber natürlich dürfte der im Vorserien-Status noch mit mehr Spannung laufen. Die wichtigste Vorgabe dürfte gewesen sein, nicht live abzustürzen.
Nope der Ryzen 3000 CPU wird ziemlich genau auf 65Watt TDP sein. Die 130 Watt liegen am Netzteil an, sprich da ist die komplette Verlustleistung des PSU mit einberechnet. Nehmen wir an die haben ca. 90% Effz.((80 Plus Gold hat bei 115V 87% Wirkungsgrad) dann hast haben alle Komponenten noch 117 Watt.
117 - 65 = 52Watt (der Rest)
Realistisch wird der TDP jedoch etwas höher sein als 65Watt. Aber es handelt sich mit sehr größer Sicherheit um eine 65Watt CPU!
w0mbat
2019-01-14, 09:46:29
Zumal AMD die CPU genauso getaktet hat, dass man den 9900K knapp schlägt. Das war das Ziel, mehr nicht. Ob das jetzt 65W oder 73W sind ist hier egal, das wird kein TDP spezifisches Produkt gewesen sein.
Piefkee
2019-01-14, 09:48:53
Zumal AMD die CPU genauso getaktet hat, dass man den 9900K knapp schlägt. Das war das Ziel, mehr nicht. Ob das jetzt 65W oder 73W ist hier egal, das wird kein TDP spezifisches Produkt gewesen sein.
Würde drauf Wetten, dass es genau die CPU war die als Sample aufgetaucht ist. 65W und 3,7Ghz Base
Würde auch sehr gut dazu passen, wenn auch 16 Kerne auf AM4 bringen will ;)
125W TDP für den 16Kerner
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.