Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 2, 7nm, PCIe 4.0, 2019 (Matisse, Renoir, Castle Peak, Rome), Matisse-Refresh 2020
Das Waverabkommen gilt nur für 14/16nm und darüber. Sollte AMD bessere Fertigungsprozesse verwenden berührt das GloFo nicht.
GF hat doch nun Patentaustausch mit TSMC. Könnten Sie damit TSMCs Prozesse nutzen?
BlacKi
2020-02-03, 09:44:34
Bei so einem winzigen Chip? Niemals.
Du vergleichst jetzt nicht ernsthaft die Preise der noch aktuellen APU mit den veralteten Zen+ Prozessoren, die, bis auf paar Sparfüchse, niemand mehr haben will!?
Was glaubst du wie die Preise der Raven Ridge APUs einbrechen werden, wenn Renoir erstmal draußen ist? :D
Programmstarts und snappiness ;)
naja, entweder die performance ist schlechter, oder der preis des 3700x wird fallen. ansonsten wird der preis eben doch bei 300€ liegen. der 3700x würde so keinen sinn mehr ergeben.
dildo4u
2020-02-03, 09:54:27
Die Zen 2 Desktop APU kann so spät kommen das Zen 3 raus ist,dann fällt Zen2 natürlich im Preis.
GF hat doch nun Patentaustausch mit TSMC. Könnten Sie damit TSMCs Prozesse nutzen?
Wenn es eine Lizenz von 7nm für GloFo geben würde, wüssten wir davon :D.
BlacKi
2020-02-03, 10:11:49
Die Zen 2 Desktop APU kann so spät kommen das Zen 3 raus ist,dann fällt Zen2 natürlich im Preis.
hieß es nicht, das die renoir schon im feb. bei den reviewern sein werden? wobei man "schon" in klammern setzen muss, da zen2 nun auch schon über ein halbes jahr alt ist.
mboeller
2020-02-03, 10:44:18
hieß es nicht, das die renoir schon im feb. bei den reviewern sein werden? wobei man "schon" in klammern setzen muss, da zen2 nun auch schon über ein halbes jahr alt ist.
Desktop <-> Notebook .... du solltest ein wenig gründlicher lesen
dildo4u
2020-02-03, 11:11:14
hieß es nicht, das die renoir schon im feb. bei den reviewern sein werden? wobei man "schon" in klammern setzen muss, da zen2 nun auch schon über ein halbes jahr alt ist.
Die Desktop APUs kommen vermutlich im Sommer oder noch später und sind eine Gen zurück was die Architektur angeht.
3400G mit Zen + kam im Juli zusammen mit Zen 2 Modellen ohne GPU.
https://www.computerbase.de/2019-07/amd-ryzen-3200g-3400g-test/
Nightspider
2020-02-03, 12:22:56
Die Grösse spielt doch keine Rolle. Wenn die CPU dann immer noch 100 € billiger als das Leistungsmässige Konkurrenzprodukt, dann kann mann auch 300 € verlangen und sich über die Marge freuen.
AMD hat kaum Marktanteile im Laptops, die müssen sich erstmal einen guten Ruf erarbeiten und Kunden locken.
Klar kann AMD über die Jahre die Marge steigern und vielleicht wird Renoir auch einige Euro teurer als Raven Ridge aber sich den Preisen von Intel anzunähern wäre blödsinn.
Und vergleicht bitte nicht mit dem Preisen von Intel CPUs, welche die Laptop-Hersteller aufrufen. Das sind nicht die Preise die Intel verlangt.
Nightspider
2020-02-03, 12:25:14
naja, entweder die performance ist schlechter, oder der preis des 3700x wird fallen. ansonsten wird der preis eben doch bei 300€ liegen. der 3700x würde so keinen sinn mehr ergeben.
Renoir hat viel weniger Cache.
Wenn Renoir sich nicht zufällig besser übertakten lässt oder der fehlende IO-Chip den fehlenden Cache ausgleicht dürfte der 3700X noch klar schneller sein.
Und wie bereits gesagt wurde kommen in knapp 8 Monaten eh schon die 4700X Prozessoren.
Seh ich auch so, das ist keine Frage, dass der 3700X deutlich schneller ist. Auch der 3600 wird noch schneller sein. Renoir ist das low-End, wie Picasso auch. Ob der jetzt mehr Kerne hat oder nicht spielt hier keine Rolle. Wichtiger ist eh, dass Renoir sehr sicher deutlich langsamer als der 4600 ist.
dildo4u
2020-02-03, 13:42:17
AMD hat doch schon gesagt das er ein 9700k schlägt er wird also über dem 3600 stehen.
Bei Anwendungen, bei Spielen sicher nicht, da ist der 9700 eh besser. Und bei Anwendungen hat auch der 9700 seine liebe Not gegen den 3600 aufgrund des fehlenden SMT. Wär aber auch gar nicht so wichtig, der 4600 schlägt beide bei Anwendungen eh.
basix
2020-02-03, 14:00:17
Das Waverabkommen gilt nur für 14/16nm und darüber. Sollte AMD bessere Fertigungsprozesse verwenden berührt das GloFo nicht.
12nm und neuer von GloFo ist hier eingeschlossen. Oder siehst du noch viele 14nm Designs von AMD, welche bei GloFo in Massen hergestellt werden? Bis und mit 2021 gibt es detaillierte Abnahmepläne und das gesamte Agreement dauert noch bis 2024. Das einzige was ausgeschlossen wird sind Nodes der 7nm Klasse oder höher. Hier kann AMD ohne Strafzahlungen bei anderen Foundries fertigen lassen.
Siehe hier: https://www.anandtech.com/show/13915/amd-amends-agreement-with-globalfoudries-set-to-buy-wafers-till-2021
Deswegegen und wegen 7nm / 5nm Knappheit werden die I/O Die bei Zen 3 mit absoluter Sicherheit und bei Zen 4 mit sehr grosser Wahrscheinlichkeit bei GloFo produziert.
12nm gehört zur 14/16nm-Generation... und es ist 10nm oder höher, da GloFo hier nichts im Angebot hat. Es ging aber doch auch um 7nm. Sobald AMD alle Produkte in 7nm fertigen sollte, wäre GloFo eh raus, nur um das mal klarzustellen. Solange AMD aber 14nm-Generation produziert, muss das bei GloFo passieren.
Und klar werden die I/O-Dies bei GloFo produziert, das stand nie in Zweifel. Ich tippe auf 12LP+. Bei Zen4 aufwärts könnte man da über 10nm oder 6nm nachdenken.
Berniyh
2020-02-03, 16:01:12
naja, entweder die performance ist schlechter, oder der preis des 3700x wird fallen. ansonsten wird der preis eben doch bei 300€ liegen. der 3700x würde so keinen sinn mehr ergeben.
Zumindest in der mobilen Version hat Renoir nur 8 PCIe 3.0 Lanes.
Der 3700X dagegen 24 PCIe 4.0 Lanes.
Wir wissen natürlich nicht, ob die Desktop Variante von Renoir mehr Lanes hat, aber ich würde nicht unbedingt davon ausgehen. Kostet schließlich auch Chipfläche.
Insofern ist der 3700X für den Desktop, wenn man eine dedizierte GPU und M.2 SSD einsetzen will, ganz klar die bessere Wahl, selbst wenn man die Unterschiede in der CPU Performance vernachlässigt.
Würde ich nicht mit rechnen. Das ist I/O wie bei Picasso. Da ist nichts drin, was das Die irgendwie größer macht oder das Powerbudget belastet. Diesen beiden Parametern ist alles untergeordnet. Das Ding ist nichts für Spiele und bedingt was für Produktivbetrieb mit belastender Software. Das ist eine reine APU mit Fokus auf Mobil. Nur weil der 8 Kerne hat (was ja DAS Verkaufsargument schlechthin ist) heißt das nicht, dass AMD hier den Fokus geändert hat. I/O und GPU beweisen, dass das mitnichten der Fall ist.
basix
2020-02-03, 16:56:23
12nm gehört zur 14/16nm-Generation... und es ist 10nm oder höher, da GloFo hier nichts im Angebot hat. Es ging aber doch auch um 7nm. Sobald AMD alle Produkte in 7nm fertigen sollte, wäre GloFo eh raus, nur um das mal klarzustellen. Solange AMD aber 14nm-Generation produziert, muss das bei GloFo passieren.
Und klar werden die I/O-Dies bei GloFo produziert, das stand nie in Zweifel. Ich tippe auf 12LP+. Bei Zen4 aufwärts könnte man da über 10nm oder 6nm nachdenken.
Gut, wir reden ja grundsätzlich vom gleichem ;)
Bei deiner Klarstellung muss ich aber widersprechen. Das WSA muss nach meinem Kenntnissstand bis 2024 erfüllt werden. Das heisst, AMD muss bis 2024 eine Mindestanzahl Wafer abnehmen (das wird natürlich von Zeit zu Zeit neu ausgehandelt, je nach dem welche Prozesse GloFo bieten kann). Ansonsten muss man Strafzahlungen leisten. Im Umkehrschluss bedeutet das, dass AMD gar nicht alle Produkte auf 7nm umstellen kann, solange GloFo das nicht ebenfalls anbieten würde. Ausser AMD hat das Gefühl, dass man die Strafen zahlen kann und unter dem Strich trotzdem besser fährt. Das Auftragsvolumen des WSA ist aber >500 Mio. $ pro Jahr, unwahrscheinlich dass AMD also nichts bei GloFo fertigen wird.
Einzige Ausnahme zur Nichteinhaltung des WSA: AMDs Liquidität sowie Wettbewerbsfähigkeit wird so stark eingeschränkt, dass es der Firma zu stark schaden könnte. Aber da kannst du dir sicher sein: Anwälte würden sich da reinbeissen, was jetzt das "zu stark" und "Wettbewerbsfähigkeit" genau bedeutet. An solch einem Rechtsstreit hat AMD kein Interesse.
Das "7th Amendement" des WSA beinhaltet nur, dass AMD für alles was GloFo Fähigkeiten übersteigt keine Strafe zahlen muss. Vorher war das nämlich der Fall.
Beim "6th Amendment" ging es darum, dass sie auch bei anderen Foundries wie Samsung und TSMC bis zu einem bestimmten Anteil fertigen können (Polaris und Vega wurden z.B. bei GloFo produziert). Dabei musste AMD aber zünftig blechen.
Momentan hat das AMD ganz gut gelöst: I/O Die sowie Chipsätze bei GloFo, allenfalls noch ein paar der Low Tier APUs für Embedded Systeme.
5CH4CHT3L
2020-02-04, 01:03:13
https://www.reddit.com/r/hardware/comments/ey5ytu/threadripper_3990x_spotted_on_geekbench_paired/
Jemand hat es "ausversehen geschafft [einen 3990X] eher zu kaufen"
dildo4u
2020-02-04, 07:37:13
Netflix testet Rome vs Xeon Dual Server,schätze mal daher ist das Deployment so langsam ohne ordentlichen OS Support bleibt hier 2/3 der Leistung liegen.
https://www.tomshardware.com/news/netflix-amd-epyc-vs-intel-xeon-servers
Netflix testet Rome vs Xeon Dual Server,schätze mal daher ist das Deployment so langsam ohne ordentlichen OS Support bleibt hier 2/3 der Leistung liegen.
https://www.tomshardware.com/news/netflix-amd-epyc-vs-intel-xeon-servers
Sie haben es ja selbst optimiert jetzt, man wird also künftig sicher auf AMD setzen. Aber die Problematik ist klar. Wie im professionellen Grafikbereich muss man viel mehr softwaretechnisch tun. Leider dauert das seine Zeit.
BlacKi
2020-02-04, 10:23:23
Zumindest in der mobilen Version hat Renoir nur 8 PCIe 3.0 Lanes.
Der 3700X dagegen 24 PCIe 4.0 Lanes.
Wir wissen natürlich nicht, ob die Desktop Variante von Renoir mehr Lanes hat, aber ich würde nicht unbedingt davon ausgehen. Kostet schließlich auch Chipfläche.
Insofern ist der 3700X für den Desktop, wenn man eine dedizierte GPU und M.2 SSD einsetzen will, ganz klar die bessere Wahl, selbst wenn man die Unterschiede in der CPU Performance vernachlässigt.
die specs sind doch noch garnicht released zur desktopversion.
wenn der extra cache wirklich so positiv die performance beeinflusst wie überall unterstellt wird, dann würde ich den cache ebenfalls auf der apu voll ausbauen.
die mobilen chips der vorgänger wurden ebenfalls beschnitten, obwohl es sich um dasselbe silizium handelt.
die pcie lanes des 2500u sind ebenfalls auf 8x gpu und 4x extension limitiert. und trotzdem gabs im desktop 16x für die dGPU.
naja, wir werden es sehen.
dildo4u
2020-02-04, 10:53:24
Warum beißt du dich so auf Desktop Renior fest?
Das wird wie beim 3400G sein zu teuer für die Gebotene CPU Leistung,1600AF sind deutlich billiger und haben massiv mehr CPU Leistung.
Mangel76
2020-02-04, 11:02:40
die specs sind doch noch garnicht released zur desktopversion.
wenn der extra cache wirklich so positiv die performance beeinflusst wie überall unterstellt wird, dann würde ich den cache ebenfalls auf der apu voll ausbauen.
die mobilen chips der vorgänger wurden ebenfalls beschnitten, obwohl es sich um dasselbe silizium handelt.
??? Der 2400G hat doch auch nur 4MB L3$, genau wie der 2500u ??? Das ist das selbe Silizium, da wurde aber nichts am Cache beschnitten.
BlacKi
2020-02-04, 11:03:25
??? Der 2400G hat doch auch nur 4MB L3$, genau wie der 2500u ??? Das ist das selbe Silizium, da wurde aber nichts am Cache beschnitten.
aber an der gpu
mboeller
2020-02-04, 13:45:20
aber an der gpu
nö
AMD Ryzen 7 3780U (https://www.notebookcheck.com/AMD-Ryzen-7-3780U-Notebook-Prozessor-Benchmarks-und-Specs.436831.0.html)
Mangel76
2020-02-04, 16:46:59
aber an der gpu
Hä? Du sagtest
wenn der extra cache wirklich so positiv die performance beeinflusst wie überall unterstellt wird, dann würde ich den cache ebenfalls auf der apu voll ausbauen.
die mobilen chips der vorgänger wurden ebenfalls beschnitten, obwohl es sich um dasselbe silizium handelt.
Wo geht es da um die GPU???
BlacKi
2020-02-04, 23:49:29
Seh ich auch so, das ist keine Frage, dass der 3700X deutlich schneller ist. Auch der 3600 wird noch schneller sein. Renoir ist das low-End, wie Picasso auch. Ob der jetzt mehr Kerne hat oder nicht spielt hier keine Rolle. Wichtiger ist eh, dass Renoir sehr sicher deutlich langsamer als der 4600 ist.
renoir im desktop wird zuerst mit der 3000er serie konkurieren dürfen bevor die 4000er serie ran darf. das danach der preis vom desktop renoir droppt, davon gehe ich auch aus.
Hä? Du sagtest
Wo geht es da um die GPU???
mir ging es um die beschneidung an sich.
nö
AMD Ryzen 7 3780U (https://www.notebookcheck.com/AMD-Ryzen-7-3780U-Notebook-Prozessor-Benchmarks-und-Specs.436831.0.html)
das bestätigt mich eher als es mich widerlegt.
IMHO denke das der chip als full chip mehr kann als angekündigt. entweder wegen den yields, oder weil weil der full chip als mobile zuviel ziehen würde.
@dildo: versteifen tu ich mich nicht, aber ich würde das gerne offen lassen bis renoir im desktop erscheint.
BoMbY
2020-02-05, 21:09:10
Da war jemand ein wenig voreilig, und jemand anderes ein bisschen schneller:
http://web.archive.org/web/20200205164146/https://www.overclockers.ua/notebook/acer-swift-3-sf314-42/all/
Acer Swift 3 SF314-42 mit Ryzen 5 4500U Review ...
(via Reddit (https://www.reddit.com/r/hardware/comments/ezaz4n/overclockersuareview_and_testing_of_the_ryzen_5/fgmh2j5/))
Piefkee
2020-02-05, 21:30:34
Da war jemand ein wenig voreilig, und jemand anderes ein bisschen schneller:
http://web.archive.org/web/20200205164146/https://www.overclockers.ua/notebook/acer-swift-3-sf314-42/all/
Acer Swift 3 SF314-42 mit Ryzen 5 4500U Review ...
(via Reddit (https://www.reddit.com/r/hardware/comments/ezaz4n/overclockersuareview_and_testing_of_the_ryzen_5/fgmh2j5/))
Gibt es schon in CPU Review Thread dazu.
Jedoch wenn der kleine Bruder von kleinen Bruder schon so eine Show bei Leistung und Effizienz abzieht...
basix
2020-02-05, 21:46:35
Sieht gut aus. GPU taktet auf 1.2-1.3 GHz, das ist schon ordentlich für 15W.
CPU ist wirklich stark. Im Cinebench R15 MT so schnell wie ein 3750H :D Durchschnittlicher Takt bei 785 Punkten mit 6C/6T wäre 2.8 GHz.
Aber meine Güte, die DRAM Timings sind mal grottig, CL32.
Edit:
Wenn ich den 4500U auf den 4800U extrapoliere, komme ich bei CB R15 auf 2.2 GHz Takt und ca. 1100 Punkte. Das wäre einfach krass.
Piefkee
2020-02-05, 21:54:44
R5 4500U --> schlägt den besten 3700U TimeSpy CPU-Score (3502 Points vs 3378 Points)
R5 4500U --> ist gleich wie ein 1065G7 25W!! (Dell 13 7390 2in1) GPU-Score (839 Points vs 833 Points)
Nightspider
2020-02-06, 00:41:47
Was schätzt ihr wie gering die Latenzen von Zen2 <-> GDDR6 werden bei den kommenden Konsolen APUs?
Wird sich die Latenz auf einem ähnlich hohen Niveau wie DDR4_3700 bewegen?
Hab da kein Plan was GDDR Speicher betrifft oder wie man das ausrechnen kann.
Da Zen2 mit weniger Cache ja auch schon extrem gut zu performen weiß, wäre es interessant wie viel Cache die Konsolen bekommen. Vielleicht gleich da die fette Bandbreite von GDDR6 noch etwas den kleineren Cache aus, falls es denn so kommt.
Ravenhearth
2020-02-06, 00:44:11
Ich tippe mal auf 16MB L3.
robbitop
2020-02-06, 10:13:01
Bandbreite ist für den typischen CPU Task in Spielen (innerhalb vernünftiger Grenzen) absolut nebensächlich.
Viel öfter ist der Flaschenhals, dass die Ausführungseinheiten schnell genug mit Daten gefüttert werden. Man schaue sich die Latenz Hirarchie von L1-L2-L3-RAM mal an. Bei einem Cache-Miss heißt es dann im Ernstfall hunderte Takte Warten (sofern keine andere, unabhängige Instruktion für die jeweilge Einheit da ist).
Erschwerend kommt auf der Konsole dazu, dass GDDR genutzt wird, der IIRC bezüglich Latenz eher schlechter ist (für Bandbreite optimiert - GPUs hingegen sind bandbreitengetrieben, da der Code hoch parallel ist und die Einheit so lange sie auf Daten wartet die nächste Instruktion anschiebt und auch der Reuse dort sehr gut ist). Noch erschwerender kommt dazu, dass sich CPU und GPU den Speichercontroller teilen. Es kommt also potenziell zu extra Wartezeiten.
Cache Hitrate hat halt einige Variablen:
- Güte der Prediction & Prefetcher
- Größe des Instructionsets und wie gut es zur Sprungvorhersage passt
- Größe des Caches (jede Verdopplung erhöht die Hitrate IIRC um Wurzel2 - also rund 40%)
Bei einer fixen Hardwarebasis kann man sicherlich einiges optimieren. Man kennt die Prediction & Prefetcher. Und man kann sicherlich etwas den Code optimieren, dass er gut zum Cache passt und schauen, dass man ein möglichst hohes Maß an Parallelität hat (einfacher gesagt als getan) -> entsprechend kann die Unit eine andere Instruction ausführen, solange sie auf Daten wartet.
Gerade bei Konsolenchips wird mit spitzem Bleistift gerechnet. Die aktuelle Preis- und Kapazitätslage von modernen Fertigungsprozessen wird dies noch weiter auf die Spitze treiben.
Ich kann mir gut vorstellen, dass man da an Cache spart und auf die Optimierungsgabe des Entwicklers setzt. (wobei die aus den letzten Jahrzehnten sicherlich schlimmeres gewohnt waren, wenn sie aus gurkigen In Order CPUs jedes Quäntchen Performance quetschen mussten).
Ich bin auch gespannt, ob es im PS5/X SoC noch 4er CCX gibt oder sie schon die Topologie von Zen 3 implementieren. Das wäre zum Cache Sparen super.
Zossel
2020-02-06, 16:57:59
- Größe des Caches (jede Verdopplung erhöht die Hitrate IIRC um Wurzel2 - also rund 40%)
Bitte nicht vergessen das grössere Caches typischerweise schlechtere Latenzen haben.
Die letzte ZEN-Iteration hat deswegen Cache(s) verkleinert.
robbitop
2020-02-06, 17:33:38
Bitte nicht vergessen das grössere Caches typischerweise schlechtere Latenzen haben.
Die letzte ZEN-Iteration hat deswegen Cache(s) verkleinert.
Ja das ist natürlich immer ein Kompromiss. Deshalb gibt es ja Cache Hirarchiestufen. The right tool for the right Job.
Gipsel
2020-02-06, 17:40:22
Erschwerend kommt auf der Konsole dazu, dass GDDR genutzt wird, der IIRC bezüglich Latenz eher schlechter ist (für Bandbreite optimiert - GPUs hingegen sind bandbreitengetrieben, da der Code hoch parallel ist und die Einheit so lange sie auf Daten wartet die nächste Instruktion anschiebt und auch der Reuse dort sehr gut ist).Auf Bandbreite vs. Latenz ist vielleicht der Speichercontroller optimiert (tiefere interne Queues), der DRAM selber ist bei ähnlicher Qualität sehr vergleichbar von den Latenzen her. Da nimmt sich jeglicher DRAM nicht viel, ziemlich unabhängig vom Interface.
- Größe des Caches (jede Verdopplung erhöht die Hitrate IIRC um Wurzel2 - also rund 40%)Nitpick: Die Mispredict Rate verringert sich entsprechend. Ansonsten wäre die Hitrate ausgehend von den mickrigen Caches in der Anfangszeit schon lange deutlich über 100%. ;)
CrazyIvan
2020-02-06, 20:03:23
Soso,
Hinweise auf Support für AMD APUs in MAC OS Beta entdeckt. Ist da bestimmt aus Versehen und automatisch mit den GPUs reingekommen :wink:
https://www.notebookcheck.com/Die-macOS-10-15-4-Beta-unterstuetzt-AMD-Renoir-Navi-mehr.453127.0.html
Nightspider
2020-02-06, 20:24:20
Auf Bandbreite vs. Latenz ist vielleicht der Speichercontroller optimiert (tiefere interne Queues), der DRAM selber ist bei ähnlicher Qualität sehr vergleichbar von den Latenzen her. Da nimmt sich jeglicher DRAM nicht viel, ziemlich unabhängig vom Interface.
Da GDDR6 sehr hohe Taktraten hat müssten die Latenzen dann ja relativ recht gering sein oder?
Zossel
2020-02-06, 20:42:28
Da GDDR6 sehr hohe Taktraten hat müssten die Latenzen dann ja relativ recht gering sein oder?
Bei hohen Takten gibt es bei DRAM halt mehr Wartetakte für die notwendigen RAS- und CAS-Latenzen.
Aber wo ist den eigentlich nun der Unterschied zwischen GDDRx und DDRx?
Längere Bursts? Mehr Pages gleichzeitig offen?
Richtiges echtes VRAM mit eingebauten Schieberegistern gibt es ja schon ewig nicht mehr.
SKYNET
2020-02-06, 20:52:14
Soso,
Hinweise auf Support für AMD APUs in MAC OS Beta entdeckt. Ist da bestimmt aus Versehen und automatisch mit den GPUs reingekommen :wink:
https://www.notebookcheck.com/Die-macOS-10-15-4-Beta-unterstuetzt-AMD-Renoir-Navi-mehr.453127.0.html
beta test oder eher alpha test... wenn die sich gut schlagen, stehen die chancen gut... denke apple will sich langfristig von intel abnabeln, und alles aus einer hand, dürfte nochmals nen paar % rabatt einbringen.... win win für apple und amd in dem fall dann.
gravitationsfeld
2020-02-06, 22:23:19
Nein, die Latenzen aendern sich seit Jahren nicht. Die Chips haben hoehere Transfer-Rasten aber effektiv kaum schnelleren Zugriffszeiten.
Tesseract
2020-02-06, 23:06:03
Bandbreite ist für den typischen CPU Task in Spielen (innerhalb vernünftiger Grenzen) absolut nebensächlich.
jein. die CPU braucht den theoretischen maximalen durchsatz in der regel zwar nicht, schnellere bursts bedeuten aber auch dass man die banks schneller wieder schließen kann was das gesamtlatenzverhalten verbessert, ähnlich wie auch eine höhere anzahl an ranks pro channel.
dildo4u
2020-02-07, 06:39:20
4800H (19k CPU Punkte) vs i7 10750H (17k CPU Punkte).
https://www.notebookcheck.net/First-tests-pitting-the-upcoming-Intel-Comet-Lake-H-i7-10750H-against-the-AMD-Ryzen-7-4800H-and-the-Radeon-RX-5600M-against-the-refreshed-Nvidia-RTX-2060-Max-Q-emerge-on-3DMark.453115.0.html
Zum Vergleich 9750H ist nur bei 15k,der Beste i9 bei 19k.
https://benchmarks.ul.com/compare/best-cpus?amount=0&sortBy=SCORE&reverseOrder=true&types=MOBILE&minRating=0
robbitop
2020-02-07, 08:58:30
jein. die CPU braucht den theoretischen maximalen durchsatz in der regel zwar nicht, schnellere bursts bedeuten aber auch dass man die banks schneller wieder schließen kann was das gesamtlatenzverhalten verbessert, ähnlich wie auch eine höhere anzahl an ranks pro channel.
Der Einfluss scheint bei typischen Spielen aber (innerhalb vernünftiger Grenzen) sehr klein zu sein. Quadchannel hat bei keiner Untersuchung, die ich je gesehen habe, in Spielen deutliche Vorteile gebracht.
Berniyh
2020-02-07, 11:09:31
Der Einfluss scheint bei typischen Spielen aber (innerhalb vernünftiger Grenzen) sehr klein zu sein. Quadchannel hat bei keiner Untersuchung, die ich je gesehen habe, in Spielen deutliche Vorteile gebracht.
Sieht man wahrscheinlich vor allem bei Grafikkarten mit zu niedrigem VRAM.
Da aber jemand mit einem Quadchannel System wohl selten in solch ein Limit laufen wird (da teuer und somit wahrscheinlich auch eher teure Grafikkarte) spielt es dann wiederum keine große Rolle.
robbitop
2020-02-07, 11:37:25
Eben. Zumal das nur ein schlechtes Pflaster für eine Krüppellösung wäre. :)
dildo4u
2020-02-07, 12:06:07
3990X 29.7k im Cinebench 20,schätze mal AMD wollte da auf der CES nicht alles zeigen.
https://youtu.be/4BpAbA5erH0?t=14590
Xeon W-3175X liegt hier bei 13k.
https://www.pcworld.com/article/3356179/meet-the-new-tougher-cinebench-r20-benchmark-we-test-it-on-xeon-and-threadripper.html
Brillus
2020-02-07, 15:05:01
4800H (19k CPU Punkte) vs i7 10750H (17k CPU Punkte).
https://www.notebookcheck.net/First-tests-pitting-the-upcoming-Intel-Comet-Lake-H-i7-10750H-against-the-AMD-Ryzen-7-4800H-and-the-Radeon-RX-5600M-against-the-refreshed-Nvidia-RTX-2060-Max-Q-emerge-on-3DMark.453115.0.html
Zum Vergleich 9750H ist nur bei 15k,der Beste i9 bei 19k.
https://benchmarks.ul.com/compare/best-cpus?amount=0&sortBy=SCORE&reverseOrder=true&types=MOBILE&minRating=0
Wenn das mit den 800$ stimmt wird das so ein schnapper wobei mir da wohl noch etwas extra Ausstattung dazu käme. Wobei 5700M dann mut 8gb wäre nochmal interessanter da würde ich auch noch 100-200€ drauf legen.
Tesseract
2020-02-07, 16:39:56
Der Einfluss scheint bei typischen Spielen aber (innerhalb vernünftiger Grenzen) sehr klein zu sein. Quadchannel hat bei keiner Untersuchung, die ich je gesehen habe, in Spielen deutliche Vorteile gebracht.
sowohl taktunterschiede von ein paar hunderd MHz als auch eine verdoppelung der ranks pro channel kann jeweils durchaus so viel bringen wie ein paar clocks bessere primärtimings. ist nicht viel aber durchaus erwähnenswert.
robbitop
2020-02-07, 17:23:41
Wir sprachen von Bandbreite. Taktrate steigert zwar die Bandbreite, erhöht aber auch den Takt des IMCs. Allein das führt nachmessbar zu deutlich reduzierter Latenz im IMC, welche wiederum ein relativ großen Einfluss auf die Gesamtlatenz hat. Das allein hat bei meinem Haswell >10 ns gebracht - trotz linear erhöhten RAM Timings.
Mehr Ranks bringen auch mMn nicht mehr Bandbreite - helfen aber der Latenz. Ist halt wie zusätzliche Memorychannels ohne den Vorteil der erhöhten Bandbreite. Es muss weniger gewartet werden.
deekey777
2020-02-08, 13:25:43
Soso,
Hinweise auf Support für AMD APUs in MAC OS Beta entdeckt. Ist da bestimmt aus Versehen und automatisch mit den GPUs reingekommen :wink:
https://www.notebookcheck.com/Die-macOS-10-15-4-Beta-unterstuetzt-AMD-Renoir-Navi-mehr.453127.0.html
Apple gibt den Mac auf und öffnet macOS. X-D
Denniss
2020-02-08, 16:36:11
iMAC -> aMAC ?
SKYNET
2020-02-08, 18:19:12
Apple gibt den Mac auf und öffnet macOS. X-D
eher friert die hölle zu X-D
Leonidas
2020-02-10, 03:56:41
eher friert die hölle zu X-D
Klimawandel nun auch da?
dildo4u
2020-02-10, 09:51:55
4800HS(35Watt) soll schneller sein als 4800H.(45Watt)
https://twitter.com/TUM_APISAK/status/1226742068485033984
Schätze aber eher das ist Kühlungsabhänig.
mboeller
2020-02-10, 10:43:39
4800HS(35Watt) soll schneller sein als 4800H.(45Watt)
https://twitter.com/TUM_APISAK/status/1226742068485033984
Schätze aber eher das ist Kühlungsabhänig.
nett, schneller als ein 2700X und nur 16,7% langsamer als ein 3700X
LasterCluster
2020-02-10, 11:21:37
nett, schneller als ein 2700X und nur 16,7% langsamer als ein 3700X
Entspricht ja ganz grob dem Unterschied im base clock. Wirklich schwerwiegend kann der Nachteil im Cache also zumindest für diesen benchmark nicht sein.
M4xw0lf
2020-02-10, 11:51:10
Entspricht ja ganz grob dem Unterschied im base clock. Wirklich schwerwiegend kann der Nachteil im Cache also zumindest für diesen benchmark nicht sein.
AMD hat wohl Cachemenge und integrierten Memory Controller genau so gegeneinander abgewogen, dass die Performance pro Kern und Takt dem Zen2-Chiplet-Bausatz entspricht. Mit dem vollen Cache hätte Renoir eventuell als Desktop-APU die Spielekrone erringen können, so wird es vermutlich bei den von Ryzen 3000 gewohnten Verhältnissen bleiben.
Nightspider
2020-02-13, 19:23:58
Interessant wird dann auch die übernächste Generation mit 5nm.
Kann mir schwer vorstellen das man dann schon 16 Kerne in Laptops bringen will.
Vielleicht geht man dann erstmal auf 12nm und vollen Cache.
Das werden noch ein paar sehr nette Zuwächse die nächsten Jahre bei Laptops.
In einem Jahr dann Zen 3 (+20-25%) + LPDDR5.
Dann ein später dank vollem Cache möglicherweise wieder +10-20% + Zen 4 Verbesserungen und mehr Kernen.
I like. :)
woodsdog
2020-02-13, 20:41:51
yo. Warten kannste immer ;)
aceCrasher
2020-02-14, 00:52:08
Nur dass neuerdings auch endlich was passiert wenn man wartet :p
BlacKi
2020-02-14, 09:46:14
Nur dass neuerdings auch endlich was passiert wenn man wartet :p
ja, aber wir haben anfang des jahres. es kommt halt auch drauf an mit was man gerade rumgurkt. und wenn man kerne will, warum sollte man denn noch 10 monate warten um dann überteuert zu kaufen? mehr als 16kerne erwarte ich mit zen3 nicht im desktop segment, weder von intel noch von amd. also was soll denn da noch kommen? zen2 scheint ausgereift, zen3 wird anfangs wohl wieder so ne bastelbude bis die finalen agesa raus sind. also wenn man need hat dann sollte man jetzt kaufen.
dildo4u
2020-02-14, 10:10:46
Die Plattform wird sich nicht großartig ändern ich erwarte Probleme erst mit dem Umstiegt auf DDR5.
PCI-E 4.0 war neu mit X570 was beim X670 nicht der Fall ist.
Berniyh
2020-02-14, 12:22:01
Die Plattform wird sich nicht großartig ändern ich erwarte Probleme erst mit dem Umstiegt auf DDR5.
PCI-E 4.0 war neu mit X570 was beim X670 nicht der Fall ist.
Momentan weiß doch keiner (ggf. nicht mal AMD selbst) was der X670 ist.
d.h. ob der wieder von AMD oder – wie eigentlich wohl geplant – von ASMedia, die das aber scheinbar nicht wirklich auf die Reihe bekommen.
In letzterem Fall könnte es durchaus zu neuartigen Problemen kommen.
Thunder99
2020-02-14, 19:33:25
Wie unterscheidet sich der X570 zum X470, abgesehen von den Features die ja logischerweise moderner ist.
Berniyh
2020-02-14, 20:15:41
Wie unterscheidet sich der X570 zum X470, abgesehen von den Features die ja logischerweise moderner ist.
Der X470 ist im Grunde ein aufgebohrter X370, d.h. von ASMedia.
Der X570 ist mehr oder weniger ein (teildeaktivierter) IO Die von Matisse, d.h. von AMD selbst.
Grund ist wohl, da ASMedia PCIe 4.0 nicht auf die Reihe bekommt.
Thunder99
2020-02-14, 22:11:23
Der X470 ist im Grunde ein aufgebohrter X370, d.h. von ASMedia.
Der X570 ist mehr oder weniger ein (teildeaktivierter) IO Die von Matisse, d.h. von AMD selbst.
Grund ist wohl, da ASMedia PCIe 4.0 nicht auf die Reihe bekommt.
Hmm, hab mich wohl nicht gut ausgedrückt :D. Gibt es vom Aufbau Unterschiede oder einfach nur ein ähnlicher Chip nur eben von AMD? :)
Denniss
2020-02-14, 22:34:11
die Funktionsweise ist bei X570/470 eigentlich ziemlich ähnlich nur das der X570 PCIe 4 bietet und ggf ein par mehr lanes bietet. Da er aber eigentlich ein Ryzen I/O-Die ist mit teildeaktivierten Einheiten schluckt der mehr Strom als der X470 (PCIe 4 braucht auch ein wenig mehr Saft).
Ich meine das X370/470 identisch sind nur das bei den X470-Boards strengere Designvorgaben von AMD zu erfüllen waren + die Ryzen 2000 Kompatibilität da halt zusammen rausgebracht.
Berniyh
2020-02-14, 23:05:29
Hmm, hab mich wohl nicht gut ausgedrückt :D. Gibt es vom Aufbau Unterschiede oder einfach nur ein ähnlicher Chip nur eben von AMD? :)
Naja, die gebotenen Funktionen sind ja – wie von Denniss bemerkt – recht ähnlich, insofern dürfte es auch im Design diverse Ähnlichkeiten geben, aber da es von zwei unterschiedlichen Herstellern stammt und – ursprünglich – auch einem sehr unterschiedlichen Zweck diente ist davon auszugehen, dass es auch deutliche Unterschiede im Design gibt.
Mir wäre jetzt aber nicht bekannt, dass sich das mal jemand im Detail angeschaut hätte.
PCIe 4 braucht auch ein wenig mehr Saft
Das bleibt noch zu beweisen.
Aktuell gibt es ja nur einen (Mainstream) Desktop-Chipsatz mit PCIe 4.0 Unterstützung. Es fehlen also die Vergleichspunkte.
SKYNET
2020-02-15, 00:34:15
Der X470 ist im Grunde ein aufgebohrter X370, d.h. von ASMedia.
Der X570 ist mehr oder weniger ein (teildeaktivierter) IO Die von Matisse, d.h. von AMD selbst.
Grund ist wohl, da ASMedia PCIe 4.0 nicht auf die Reihe bekommt.
PCIe 4.0 scheint wohl nicht ohne zu sein, intel bekommts bei der 10th gen ja auch nicht gebacken, sollte ja ursprünglich mit PCIe 4.0 kommen... also ist AMD nun entgültig techleader im CPU sektor... :)
Leonidas
2020-02-15, 03:34:46
Ich denke nicht, das es daran hängt. Vielmehr müsste man für PCIe 4.0 zu viel in der alten Skylake-Architektur umbasteln, was Zeit kostet und mit den schnellen Refreshes der letzten Zeit nicht zusammenpasst. Bei Ice Lake hat man es sich möglicherweise bewußt gespart, da eh nur Mobile-Einsatz.
Denkbar aber, das es mit Rocket Lake dann PCIe 4.0 auf dem Desktop gibt. Immerhin muss dafür sowieso der CPU-Teil umgebaut werden, wenn da Tiger-Lake-Technik reinkommt.
robbitop
2020-02-15, 09:23:12
PCIe ist I/O. Das hat mit der uArch der Kerne IMO wenig zu tun.
Leonidas
2020-02-15, 10:05:07
So war das nicht gemeint. Gemeint ist: Das ganze Design muß aufgebrochen werden, ist halt was anderes als ein einfacher Refresh mit nahezu unverändertem Silizium.
Entweder Intel hat PCIe4 einfach nur verpeilt oder es ist wär eh nur im 10-Kerner gekommen und ist dort verbuggt. Andere Möglichkeiten gibts da nicht. Wir reden bei der 1200-Plattform eh nur davon, dass der PEG PCIe4 ist. RockelLake wird diesen Makel dann beseitigen.
robbitop
2020-02-15, 10:35:32
So war das nicht gemeint. Gemeint ist: Das ganze Design muß aufgebrochen werden, ist halt was anderes als ein einfacher Refresh mit nahezu unverändertem Silizium.
Da kommt ein anderer IP Block rein, der an die Fabric gekoppelt wird. Ich bezweifle, dass das ein großes Drama ist. (verglichen zu mehr Kernen oder einem erneuerten GFX IP Block)
Ggf. eher ein Sockelthema.
Glaub ich nicht, da der Sockel sicherlich für Rocket Lake weiterverwendet wird. Das wird schon Intels PCIe4-Sockel sein.
Ein neuer Sockel ist mMn dann erst wieder bei Alder Lake (und darauf hin Meteor Lake) zu erwarten für DDR5 und PCIe5.
M4xw0lf
2020-02-15, 14:00:44
Apisak wieder:
4800U
Gpu Score - 5891
Physics Score -12498
https://pbs.twimg.com/media/ENvl9VLVAAIeDfz?format=jpg&name=900x900
CrazyIvan
2020-02-20, 19:26:07
Gutes Zeichen: https://www.notebookcheck.net/Lenovo-ThinkPad-X13-and-ThinkPad-T14-powered-by-AMD-Ryzen-4000-APUs-may-be-around-the-corner.454240.0.html
Zossel
2020-02-20, 20:30:15
Hmm, hab mich wohl nicht gut ausgedrückt :D. Gibt es vom Aufbau Unterschiede oder einfach nur ein ähnlicher Chip nur eben von AMD? :)
Chipsätze spielen keine große Rolle bei Zen, die CPU läuft auch ohne.
Das der Chipsatz wichtig ist, ist eigentlich noch totale Intel-Denke.
Beispiel:
https://gzhls.at/i/12/92/2081292-n0.jpg
amdfanuwe
2020-02-20, 20:53:36
Schlechtes Beispiel, der hat nen A320 Chipsatz verbaut, ein etwas abgespeckter B350.
https://www.asus.com/Motherboards/PRIME-A320I-K/
Screemer
2020-02-20, 21:18:21
Schlechtes Beispiel, der hat nen A320 Chipsatz verbaut, ein etwas abgespeckter B350.
https://www.asus.com/Motherboards/PRIME-A320I-K/
dann nimmste halt das:
https://www.hardwareluxx.de/images/cdn01/000E9777458E46E79B3E7769E72278BA/img/055F87494F454EA9B077455FFE822E58/ASRock_CES_2019_05_055F87494F454EA9B077455FFE822E58.jpg
ASRock A300M-STX
leider nicht einzeln erwerbbar. frag mich bis heute warum es keine kaufbaren a300 platinen in matx und itx gibt. wäre für mich völlig ausreichend in vielen fällen.
amdfanuwe
2020-02-20, 21:54:28
Frag ich mich auch seit Jahren. Würde mir ebenso reichen.
BlacKi
2020-02-20, 23:22:11
dann nimmste halt das:
https://www.hardwareluxx.de/images/cdn01/000E9777458E46E79B3E7769E72278BA/img/055F87494F454EA9B077455FFE822E58/ASRock_CES_2019_05_055F87494F454EA9B077455FFE822E58.jpg
ASRock A300M-STX
leider nicht einzeln erwerbbar. frag mich bis heute warum es keine kaufbaren a300 platinen in matx und itx gibt. wäre für mich völlig ausreichend in vielen fällen.
hast du angst vor dem wertverfall?:wink: kauf das ding im set und vk das ding in 5-10 jahren mit 50% gewinn. siehe alte itx mainboards. eigentlich sind solche exoten die beste wertanlage im kleinformat.
ich werde mir demnächst denhier zusammenbauen, rein als linux surf rechner. natürlich passt er nicht ins gehäuse, vielleicht muss ich auch die puksäge schwingen. stört mich aber nicht. sehr geil finde ich den niedrigen idle verbrauch von unter 10w, passiv gekühlt und hdmi2.0.
https://abload.de/thumb/aefsasadqkvb.png (https://abload.de/image.php?img=aefsasadqkvb.png)
Screemer
2020-02-20, 23:35:47
natürlich nicht. aber warum zum geier will man in nem gehäuse mit genug platz so-dimm einsetzen, auf pcie oder auf umfangreichere spannungsversorgung verzichten wollen? ryzen könnte ohne io-hub aka chipsatz völlig ausreichende mengen an i/o bereitstellen.
wenn man sich überlegt, was alles in summit ridge und raven ridge steckt was über am4 gar nicht hinaus geführt werden konnte. z.b. 10gbit ethernet, mehr pcie-lanes als verfügbar, etc.
aber wenn wir schon bei exotisch sind: https://shop.udoo.org/products/bolt.html, https://www.sapphiretech.com/en/commercial/fs-fp5v, https://www.sapphiretech.com/en/commercial/ipc-fp5v-1ge oder https://www.ibase.com.tw/english/ProductDetail/EmbeddedComputing/MI988.
das teil von udoo ist mit fast $700k bei indigogo gestartet.
Zossel
2020-02-21, 15:04:52
Schlechtes Beispiel, der hat nen A320 Chipsatz verbaut, ein etwas abgespeckter B350.
https://www.asus.com/Motherboards/PRIME-A320I-K/
Ach Mist, ich hatte eins der billigsten Boards genommen wo ich auf Anhieb keinen Chipsatz entdecken konnte. Korrektur kam ja prompt :-)
Zossel
2020-02-21, 15:07:40
das teil von udoo ist mit fast $700k bei indigogo gestartet.
Für die Kohle hätten die gleich Coreboot mit implementieren können.
https://geizhals.eu/acer-swift-3-sf314-42-r8gk-pure-silver-nx-hseeg-00b-a2239624.html
erste renoir laptop preise
CrazyIvan
2020-02-22, 00:37:15
Oha! Dann muss das NDA doch jetzt schon wirklich langsam mal ablaufen.
Felixxz2
2020-02-22, 03:23:06
8 Kerne für 799, das wir das noch lesen dürfen *heul*
mironicus
2020-02-22, 09:12:38
Dieses Renoir-Notebook von Asus ist nur vorbestellbar, ist aber schon auf Platz 1 bei Geizhals.
https://geizhals.eu/asus-rog-zephyrus-g15-ga502iu-al011t-schwarz-90nr03v1-m00410-a2228194.html
dildo4u
2020-02-22, 09:47:18
Dachte erst der Preis ist Müll aber es scheint nix unter 2000€ mit 8 Core zu geben und wenn nur mit einer langsameren GPU.
Brillus
2020-02-22, 12:32:27
Dieses Renoir-Notebook von Asus ist nur vorbestellbar, ist aber schon auf Platz 1 bei Geizhals.
https://geizhals.eu/asus-rog-zephyrus-g15-ga502iu-al011t-schwarz-90nr03v1-m00410-a2228194.html
Das ganze noch mit 5700m oder gar 5800m und am besten ohne Windows( die 100€ kann man sich sparen und ja das war was mein letztes Asus Laptop an Win gespart hatte) und es hat gute Chance mein nächstes zu werden.
mironicus
2020-02-22, 13:20:32
Ich bin mir noch nicht ganz sicher, vielleicht warte ich auch noch auf den Renoir-Nachfolger mit Navi-GPU und USB 4.0-Unterstützung, der dann irgendwann in 2021 kommen sollte.
Screemer
2020-02-22, 13:22:41
1y+. vorher kannste zen3 im mobile nicht erwarten.
Daredevil
2020-02-22, 14:25:15
Wenn ich irgendwie gescheit ne egpu anbinden kann an so nem 8c Notebook, brauche ich auch meine Desktop Mühle nicht mehr.
Gogo Thunderbolt drölf mit pcie 4.0 Anbindung pls.
Screemer
2020-02-22, 14:29:05
tb4 wird für die geräte kommen. da bin ich mir sicher.
robbitop
2020-02-22, 15:03:49
Wenn ich irgendwie gescheit ne egpu anbinden kann an so nem 8c Notebook, brauche ich auch meine Desktop Mühle nicht mehr.
Gogo Thunderbolt drölf mit pcie 4.0 Anbindung pls.
eGPU ist nur eingeschränkt zu empfehlen. Von den 4 PCIe 3.0 Lanes mit 40 gbps sind nur 20 gbps für die eigentlich nutzbaren Lanes vorgesehen. Die anderen 20 gbps sind fix reserviert für usb, displayport usw.
Endergebnis: selbst meine 1650 super langweilt sich in The Witcher 3 und schafft in High Settings nur 50fps in fhd. Ähnliches in vielen anderen Spielen. Das bremst schon.
TB4 wird leider auch keine pcie 4.0 lanes bringen sondern wohl einfach nur in usb 4.0 aufgehen und dessen Vollausbau darstellen.
Dazu kommt, dass die egpu samt Netzteil auch nicht so klein ist (auch wenn man eine kleine hat wo nur 180mm Grakas reinpassen). Wenn das NT integriert ist, sind da kleine Brülllüfter drin.
Ist unterm Strich besser als jede APU und zwar deutlich - aber mMn nicht gut genug und konsequent genug umgesetzt, so dass es ein nobrainer wäre.
Daredevil
2020-02-22, 15:40:41
Deswegen sage ich ja auch gescheit. ( gerade in Verbindung mit 4.0 )
Kann man sowas nicht bündeln irgendwie?
Wenn ich ne 2080ti kompromisslos per egpu Dock an ein MacBook schnallen könnte, wäre das schon lange geschehen.
Für alles andere ist tb doch eh fast „zu schnell“, aber zu langsam für ne richtige gpu. Grml . :D
robbitop
2020-02-22, 16:04:14
Tja aber die Realität und die kommenden Standards geben das nunmal nicht her. Deshalb kann man das nur sehr eingeschränkt empfehlen. Mehr als eine TU107 / N14 / GP106 kann man da IMO nicht empfehlen.
Bündeln kann man auch nicht 2x TB. Zumal die mCPUs auch gar nicht die Lanes hätten 2x TB mit je 4 Lanes zu machen.
Ist also eher mittelstrahl...
Daredevil
2020-02-22, 17:54:20
Ich will aber... :(
mironicus
2020-02-24, 15:02:31
Geil! Renoir-Laptops mit TB3 von Lenovo!
https://www.computerbase.de/2020-02/lenovo-thinkpad-l-t-x-ryzen-4000-2020/
"Bietet die Intel-Version Thunderbolt 3 und Wi-Fi 6, bleiben diese Funktionen auch in der AMD-Variante erhalten." :D :D :D
Sehr gut. >6 Kerne im Laptop ohne eGPU wären schon sehr schade.
davidzo
2020-02-24, 16:11:52
Geil! Renoir-Laptops mit TB3 von Lenovo!
https://www.computerbase.de/2020-02/lenovo-thinkpad-l-t-x-ryzen-4000-2020/
"Bietet die Intel-Version Thunderbolt 3 und Wi-Fi 6, bleiben diese Funktionen auch in der AMD-Variante erhalten." :D :D :D
Mega Geil, TB3, USB-C 3.1 Gen2 die ganzen highend Features bleiben dem Ryzen Thinkpad erhalten :biggrin:
Trotzdem schade dass es das UHD Display nur bei Intel gibt.
Und die Laufzeit beim x13 ist bei der AMD-version um eine halbe Stunde besser, trotz identischer Akkukapazität. Wenn das mal kein Fingerzeig ist! :eek:
Da die Renoir Modelle erst im Juni erscheinen wird sicherlich noch einiges an der firmware getweakt. Wenn man sich jetzt aber schon so sicher ist dass der Ryzen etwas länger läuft, dann hat man dazu schon aussagekräftige Ergebnisse!
y33H@
2020-02-24, 16:25:46
Ich wäre vorsichtig mit TB3 bei den Datenblättern, da steht auch DDR4X drin :freak:
CrazyIvan
2020-02-24, 17:19:05
Das habe ich auch schon befürchtet. Und wenn Du sowas sagst...
basix
2020-02-24, 18:40:54
TB3 wird mMn mit Sicherheit erhalten bleiben. Wieso? Die ganze Peripherie der heutigen Generation mit Dockingstations etc. ist mit TB3 realisiert. Das wäre ein riesen "Arrow to the Knee", wenn Lenovo TB3 streichen würde.
mboeller
2020-02-24, 19:15:30
Das wäre ein riesen "Arrow to the Knee", wenn Lenovo TB3 streichen würde.
Bei Intel... never ever; bei AMD ... aber klar doch!
;)
Berniyh
2020-02-24, 19:23:11
TB3 wird mMn mit Sicherheit erhalten bleiben. Wieso? Die ganze Peripherie der heutigen Generation mit Dockingstations etc. ist mit TB3 realisiert. Das wäre ein riesen "Arrow to the Knee", wenn Lenovo TB3 streichen würde.
Die haben auch USB3/USB-C Dockingstations.
Lustig:
https://www.guru3d.com/news-story/amds-chiplet-design-allows-them-to-reduce-cost-of-the-ryzen-9-3950x-by-half.html
Complicated
2020-02-25, 11:51:17
Da sind höher taktende SKUs durch das Binning der Chiplets noch gar nicht berücksichtigt. Hinzu kommt die deutlich schnellere Time to Market mit kleineren Dies bei neuen Fertigungen.
Berniyh
2020-02-25, 12:19:03
Wobei man berücksichtigen sollte, dass die Schere mit zunehmendem Fertigungsvolumen auseinander gehen würde.
Bei den Stückzahlen die Intel fertigt wird der Unterschied wieder nicht so groß sein.
Mangel76
2020-02-25, 12:33:23
Wobei man berücksichtigen sollte, dass die Schere mit zunehmendem Fertigungsvolumen auseinander gehen würde.
Bei den Stückzahlen die Intel fertigt wird der Unterschied wieder nicht so groß sein.
Die Designkosten verteilen sich bei größerem Volumen natürlich auf mehr Produkte. Aber gegen die höhere Defektrate hilft das nur wenig.
Berniyh
2020-02-25, 13:24:58
Die Designkosten verteilen sich bei größerem Volumen natürlich auf mehr Produkte. Aber gegen die höhere Defektrate hilft das nur wenig.
Das stimmt, aber kann man ja entsprechend über die Produktpalette verteilen.
Man wird mit dem Chipletdesign selbstverständlich immer günstiger raus kommen. Die Frage ist halt nur wie viel.
Bei AMD ist der Unterschied halt immens, was eben auch an dem eher geringen Volumen liegt.
Zossel
2020-02-25, 21:24:11
Wobei man berücksichtigen sollte, dass die Schere mit zunehmendem Fertigungsvolumen auseinander gehen würde.
Bei den Stückzahlen die Intel fertigt wird der Unterschied wieder nicht so groß sein.
Time to Market dürfte bei Chiplet basierten Design auch früher sein, insbesondere wenn man nicht ständig den Sockel ändert und die Bios-Updates im Griff hat.
CrazyIvan
2020-02-26, 17:47:30
Das Produktionsvolumen hat damit nichts zu tun. Der Vorteil Kleinerer Dies ändert sich dadurch nicht.
Vielmehr hängt die Größe des Vorteils von zwei Faktoren ab:
Wie gut ist die Yield-Rate des Verfahrens und wie groß ist der Flächenunterschied zwischen Monolith und Chiplet. Je höher die Yield-Rate, desto geringer der Vorteil. Je geringer der Flächenunterschied, desto geringer der Vorteil.
Wie so oft sind es Anandtech, die das sehr schön analysiert haben: https://www.anandtech.com/show/15219/early-tsmc-5nm-test-chip-yields-80-hvm-coming-in-h1-2020
Das stimmt, aber kann man ja entsprechend über die Produktpalette verteilen.
Man wird mit dem Chipletdesign selbstverständlich immer günstiger raus kommen. Die Frage ist halt nur wie viel.
Bei AMD ist der Unterschied halt immens, was eben auch an dem eher geringen Volumen liegt.
Berniyh
2020-02-26, 19:41:09
bzgl. Volumen ging es um das Binning. Darauf hatte ich mich oben auch bezogen.
Complicated
2020-02-27, 08:03:44
Wobei man berücksichtigen sollte, dass die Schere mit zunehmendem Fertigungsvolumen auseinander gehen würde.
Bei den Stückzahlen die Intel fertigt wird der Unterschied wieder nicht so groß sein.
Ehrlich gesagt weiss ich nicht so recht was du da meinst.
Welche Schere geht auseinander bei zunehmendem Volumen und wie wird der Unterschied bei Intel gleichzeitig kleiner mit höherem Volumen?
Chiplets haben ja von vornherein eine deutlich größere Stückzahl als monolithische Dies. Faktor 2 oder 4 sind das je nach SKU.
robbitop
2020-02-27, 09:05:04
Der Anteil für Abschreibungen für zusätzliche Maske und die Entwicklung dieser sinkt mit der Stückzahl.
Chiplets haben ja auch Nachteile. In Summe mehr Fläche für die Interkommunikation und auch mehr Energieverbrauch. Je nach Prozessteife und je nach resultierender Fläche und Stückzahl kann monolithisch auch die bessere Wahl sein. Nicht ohne Grund sind APUs und Konsolen SoCs monolithisch. Wo es sicherlich super sinnvoll ist, wenn man enorm skalieren kann. Wie bei Epyc. Aber es ist eben wie alle Werkzeuge: nur für bestimmte Dinge sinnvoll aber kein Allheilmittel.
Complicated
2020-02-27, 09:29:37
Die zusätzliche Fläche für Interkommunikation würde ich jetzt nicht gelten lassen - der Großteil davon wird in einem billigen Verfahren auf dem IO-Die verbaut und ermöglicht dadurch zusätzliche Flächeneinsparung auf dem teuren Chiplet-node. Was Binning und Kosten angeht entsteht dadurch eher ein Vorteil als ein Nachteil in Summe.
Die höheren Stromkosten für Interconnects haben allerdings ebenfalls einen Breakeven-Punkt mit steigender Kernzahl um dann weniger zu verbrauchen als ein monolithisches Design. Also auch hier ist das nicht Pauschal der selbe Fall ob gerade 8 Kerne oder 48 Kerne genutzt werden. Der Grundverbrauch ist höher. Der Verbrauch bei Vollast geringer.
Anandtech hat das mal beleuchtet:
https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4
AMD’s product here gives two interesting data points. Firstly, when the cores are weakly loaded, the IF + DRAM controller + IO accounts for a massive 43% of the total power of the processor. This is compared to 4% for the i7-8700K and 19% for the i9-7980XE. However, that 43% reduces down to around 25% of the full chip, but this is still on par with the bigger mesh based processor from Intel.
Another interesting point is that the combined non-core power doesn’t change that much scaling up the cores, going from ~17.6W to ~25.7W. For the big Intel chip, we saw it rise from ~13.8W up to beyond 40W in some cases. This brings the question as to if Intel’s offering can scale in power at the low end, and if AMD’s non-core power as an initial ‘power penalty’ to pay before the cores start getting loaded up.
Zumal die Zen2-Designs hier nochmals Fortschritte gemacht haben und erneut untersucht werden sollten.
Der Anteil für Abschreibungen für zusätzliche Maske und die Entwicklung dieser sinkt mit der Stückzahl.
Das erschließt sich mir jetzt nicht. Die Designkosten bei Chiplets werden über mehr SKUs verteilt als bei monolithischen Designs und für das Binning sind diese buchhalterischen Betrachtungen wenig relevant. Es sind Fixkosten die am Ende bei den fertigen SKUs erst relevant werden und die Preisgestaltung beeinflussen, jedoch nicht das Binning selbst.
Man schaue mal wo die Zen2-Chiplets alle drin sind. Epyc, Threadripper, Ryzen... da hat Intel schon für HEDT und Server 3 Designs (LCC, HCC, XCC)
robbitop
2020-02-27, 09:39:06
IO wird sowohl auf dem IO Chiplet als auch auf dem mit dem teuren Prozessnode benötigt danit sie kommunizieren können. Und das kommt on top.
Der Beweis, dass die Nachteile je nach Zecl überwiegen ist nunmal die Praxis. APUs und Konsolen SoCs. Die IHVs werden es wohl besser wissen.
Bzgl Abschreibung. Der Anteil der Abschreibung ist nunmal relativ und verliert mit zunehmender Stückzahl einfach Bedeutung. Überspitzt gesagt: ob es auf 50 USD nun 1 oder 2 ct sind ist egal wenn andere Effekte größer sind.
Complicated
2020-02-27, 09:46:36
PHYs müssen auf jeden Chip, auch auf monolitische. Die fallen bei Chiplets zu einem Großteil weg. z.B. bei Zen2 gab es keine Speicherinterfaces mehr auf dem Chiplet. Und den Bewies aus der Praxis würde ich gerne sehen den du anführst. Auch Atoms sind anders designed für niedrigen Strombedarf, ebenso wie Smartphonechips monolithisch anders designed sind. Das ist nicht unbedingt nur ein Thema des Chiplets-Designs an sich.
Aber ja es stimmt, dass es, wie in dem Link von Anandtech ab einer gewissen Leistungsgrenze erst mit Chiplets stromsparender wird, oder überhaupt erst realisierbar.
Die IHVs werden es wohl besser wissen.Ich Zweifel lediglich daran, dass der von dir genannte Grund so zutrifft. Warum APUs und Konsolen monolithisch sind hat viele gute Gründe. Der wichtigste ist offensichtlich, dass es noch keine GPU-Chiplets gibt.
Bzgl Abschreibung. Der Anteil der Abschreibung ist nunmal relativ und verliert mit zunehmender Stückzahl einfach Bedeutung. Überspitzt gesagt: ob es auf 50 USD nun 1 oder 2 ct sind ist egal wenn andere Effekte größer sind.Wie ich ja ausführte sehe ich den Zusammenhang zum Binning der Chiplets nicht den du hier ziehst. Das Fiskosten weniger Anteil haben am Einzelprodukt bei größeren Stückzahlen ist unbestritten - nur wann diese Entscheidungsrelevant beim Binning werden ist hier die Frage.
Berniyh
2020-02-27, 10:03:17
Ehrlich gesagt weiss ich nicht so recht was du da meinst.
Welche Schere geht auseinander bei zunehmendem Volumen und wie wird der Unterschied bei Intel gleichzeitig kleiner mit höherem Volumen?
Chiplets haben ja von vornherein eine deutlich größere Stückzahl als monolithische Dies. Faktor 2 oder 4 sind das je nach SKU.
Ich bezog mich da explizit auf das Thema Binning bzgl. der 16C CPU.
Wenn AMD monolithisch einen 3950X fertigen will mit den Eckdaten (4.7 GHz Boost), dann musst du extrem viel selektieren um die nötigen CPUs zu verkaufen.
Dabei bleibt eine Menge minderwertiger Dies übrig.
Wenn du nun sehr viele dieser Dies fertigst, dann fällt es leichter für das Top Modell (welches ja eh hauptsächlich für Benchmarks etc. dient) zu selektieren und den Rest dann als Ausschuss für kleiner Modelle (mit 8-16C) zu verkaufen.
Insbesondere wenn man – wie Intel – den OEM Markt im Griff hat, wo gerade solche Modelle viel zum Einsatz kommen.
Wie groß der Effekt dann wirklich ist fällt natürlich schwer abzuschätzen, aber es wird ihn schon geben.
Letztendlich ist das aber auch alles eine Diskussion die ein bisschen am Thema vorbei geht, denn ich denke wir sind uns alle einig, dass es gerade AMD ohne den Chiplet-Ansatz sehr viel schwerer hätte gegen Intel zu bestehen.
Klar haben die Chiplets auch ihre Nachteile, aber für AMD und auch für die Kunden wiegen die Vorteile aktuell die Nachteile mehr als deutlich auf, denn nur so ist ein 12- und 16-Kerner in dem Preissegment aktuell möglich.
Complicated
2020-02-27, 10:15:30
Ich stimme dir da nicht zu. AMD muss für jede SKU nur ein einziges Chiplet aus der Spitzenlklasse verbauen. Bei 4 Chiplets auf einem Epyc oder gar 8 Chiplets kannst du immer mehr Dies aus den untereren Leistungsklassen verbauen als aus den oberen. Die Spitzentakte werden durch die TDP limitiert ab mehr als 8 oder 16 Kernen. Bei 64-Kern SKUs kann man 7 schlechtere Dies zu 1 Spitzendie verbauen. Im Gegenteil, du kannst sogar einen höheren Spitzentakt für die SKUs erreichen, da du weniger Chiplets brauchst um eine SKU mit 200 MHz mehr Takt zu produzieren.
Hier zwei Grafiken die das veranschaulichen:
https://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
https://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34748&d=1474733491
https://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34749&d=1474733041
AMD verbaut ja nicht 2 gleich gute Dies aus der Spitzengruppe für einen 16-Core.
robbitop
2020-02-27, 10:40:40
Die Logik für Interkommunikation ist aber on top. Also extra. Und das gilt auch für den Stromverbrauch für Signale aus dem Package. PHY, Sersdes mit allem pipapo.
@weil es noch keine guten GPU Chiplets gibt ist kein gültiger Grund für eine Konsole. Da ist sowieso alles maßgeschneidert. Wenn Sony/MS Chiplets gewollt hätten, hätte AMD das gemacht. Es scheint untern Strich aber die schlechtere Entscheidung gewesen zu sein. Und das scheinen Sony und MS unabhängig voneinander so gesehen zu haben.
Zossel
2020-02-27, 10:41:43
AMD’s product here gives two interesting data points. Firstly, when the cores are weakly loaded, the IF + DRAM controller + IO accounts for a massive 43% of the total power of the processor. This is compared to 4% for the i7-8700K and 19% for the i9-7980XE. However, that 43% reduces down to around 25% of the full chip, but this is still on par with the bigger mesh based processor from Intel.
Another interesting point is that the combined non-core power doesn’t change that much scaling up the cores, going from ~17.6W to ~25.7W. For the big Intel chip, we saw it rise from ~13.8W up to beyond 40W in some cases. This brings the question as to if Intel’s offering can scale in power at the low end, and if AMD’s non-core power as an initial ‘power penalty’ to pay before the cores start getting loaded up.
Der Vergleich zwischen nicht skalierenden Interconnect wie Ringbus und einem skalierenden Interconnect wie IF sollte hinterfragt werden.
amdfanuwe
2020-02-27, 11:10:14
. Bei 64-Kern SKUs kann man 7 schlechtere Dies zu 1 Spitzendie verbauen
Blödsinn. Grad bei den 64C braucht man 8 gute Chiplets mit niedrigem Verbrauch um den Basetakt halten zu können. Den Turbo von 3,3GHz für Server dürfte ja jeder Chiplet erreichen.
Ebenso braucht man für 16C AM4 2 gute Chiplets, einen hoch Taktenden und einen mit geringem Verbrauch.
Dann gibt es noch ne Menge Chiplets, die nicht hoch takten und auch einen etwas höheren Verbrauch haben. Aber dafür gibt es genügend SKU mit geringeren Anforderungen. Z.B.: AMD Epyc 7262 8x 3.20/3,4GHz 128MB L3 155W.
Da muß nur noch 1 Kern pro CCX und der Cache in Ordnung sein. 155W für 8 Kerne dürften genügend Spielraum bieten.
Complicated
2020-02-27, 12:20:20
Blödsinn. Grad bei den 64C braucht man 8 gute Chiplets mit niedrigem Verbrauch um den Basetakt halten zu können. Den Turbo von 3,3GHz für Server dürfte ja jeder Chiplet erreichen.
Ähmmm.... und deshalb müssen nicht alle Chiplets den Singlecore Turbo der SKU erreichen. Es reicht eines. Was soll da Blödsinn sein...Du widersprichst dir selber. Nur weil ein Chiplet nicht den hohen Takt schafft muss er nicht schlechter im Verbrauch sein bei den anderen Taktstufen. Dafür macht man das Binning und das anschließende sortieren der Chiplets nach den Eigenschaften (Takt/Verbrauch). Je nach Ausbeute gestaltet man dann den Preis.
Complicated
2020-02-27, 12:23:12
Der Vergleich zwischen nicht skalierenden Interconnect wie Ringbus und einem skalierenden Interconnect wie IF sollte hinterfragt werden.Weshalb? Ohne Vergleich kann man nicht die Limits darstellen der jeweiligen unterschiedlichen Eigenschaften. So sieht man die Skalierungseigenschaften.
Korvaun
2020-02-27, 12:43:54
Was ist ein "gutes" Die? Eines das möglichst hoch takten kann oder eines das möglichst wenig verbraucht im "normalen" Taktbereich unterhalb des Maximaltaktes. Und bedingt das eine das andere oder können das 2 verschiedene Dies sein? Je nach Anwendungsgebiet und Core-count des Prozessors könnt man da ja schön das Optimum zusammenpuzzeln wenn die Vorselektion der Chiplets genau genug ist.... inklusive der Lage der einzelnen Chiplets zueinander und zum IO-Chip.
Berniyh
2020-02-27, 12:47:14
Was ist ein "gutes" Die? Eines das möglichst hoch takten kann oder eines das möglichst wenig verbraucht im "normalen" Taktbereich unterhalb des Maximaltaktes.
Die Diskussion hatten wir schon neulich.
Ich sehe die Anforderungen identisch.
Für EPYC ist wichtig, dass ein Chiplet einen bestimmten Takt (z.B. 2.5 oder 3 GHz) bei einer maximalen Spannung erreicht, damit die Effizienz gewährleistet ist.
Dann wird es sich aber auch entsprechend höher takten lassen. So unterschiedlich sind die Taktfrequenz vs. Spannung dann auch wieder nicht.
(insbesondere sollten sich die Kurven nicht kreuzen, sondern eher durch ein (nicht konstantes) Offset unterscheiden)
Mangel76
2020-02-27, 13:00:18
Die Diskussion hatten wir schon neulich.
Ich sehe die Anforderungen identisch.
Für EPYC ist wichtig, dass ein Chiplet einen bestimmten Takt (z.B. 2.5 oder 3 GHz) bei einer maximalen Spannung erreicht, damit die Effizienz gewährleistet ist.
Dann wird es sich aber auch entsprechend höher takten lassen. So unterschiedlich sind die Taktfrequenz vs. Spannung dann auch wieder nicht.
(insbesondere sollten sich die Kurven nicht kreuzen, sondern eher durch ein (nicht konstantes) Offset unterscheiden)
Ja, und da war die Erkenntnis, dass auf einem 3950X nur ein Die hohe Boostraten schafft. Also werden hier Dies mit sehr unterschiedlichen Qualitäten gemixt.
Berniyh
2020-02-27, 15:02:36
Also werden hier Dies mit sehr unterschiedlichen Qualitäten gemixt.
Das stimmt, aber beim 3950X ist Effizienz nicht ganz so kritisch.
Ein wirklich schlechtes (zweites) Die kommt da aber sicherlich auch nicht zum Einsatz.
Beim (64C) EPYC hingegen werden es schon eher die guten Dies sind die verwendet werden.
basix
2020-02-27, 16:00:06
Beim (64C) EPYC hingegen werden es schon eher die guten Dies sind die verwendet werden.
"gut" wäre in diesem Fall "energieeffizient" im Bereich von 2.0-3.4 GHz ;)
Hohe Taktraten erreichbar? Diese Art von "gut" ist in diesem Fall egal. Eigentlich wird grob in zwei Körbe sortiert:
Energieeffizient im tiefen bis mittleren Taktberiech = EPYC
Gut taktbar = Ryzen
Bei den 2x Chiplet Ryzens entsteht ein Spezialfall, wo man das allenfalls ein wenig mischt (obwohl auch das 2. Chiplet im Vergleich zu EPYC hoch taktet), die Stückzahlen der 3900X und 3950X sind aber im Vergleich zu den andere SKUs wohl vernachlässigbar.
Berniyh
2020-02-27, 16:04:50
Energieeffizient im tiefen bis mittleren Taktberiech = EPYC
Gut taktbar = Ryzen
Noch mal die Nachfrage: gibt es irgendwelche Artikel die sich damit befassen und aufzeigen, dass es zwischen diesen beiden Kriterien einen signifikanten Unterschied gibt?
Wie ich schon oben schrieb: ich würde nicht erwarten, dass sich die Taktfrequenz vs. VCore Kurven hier kreuzen, sondern es lediglich ein gewisses Offset gibt.
Mit anderen Worten: ein Chiplet, welches eine mittlere Taktfrequenz bei niedriger VCore mitmacht sollte sich auch gut takten lassen.
Ich lasse mich gerne eines Besseren belehren, aber dafür würde ich auch gerne belastbare Daten sehen wollen.
Complicated
2020-02-27, 17:42:03
Ja, und da war die Erkenntnis, dass auf einem 3950X nur ein Die hohe Boostraten schafft. Also werden hier Dies mit sehr unterschiedlichen Qualitäten gemixt.
Eben. :up:
basix
2020-02-27, 17:42:08
Niedrige Vcore ist nicht alles. Leakage ist auch ein Argument. Ausserdem gibt es CPUs, die zwar hohe Spannungen benötigen aber trotzdem gut taktbar sind, weil z.B. niedrige Temperatur ergo vorteilhafte Stromverbrauch vs. Spannung Kurve. Diese Kurve ist aber nicht immer gleich. Bei hohen Taktraten sieht es evtl. gut aus, im Bereich der EPYC Taktraten könnte sie zum Beispiel suboptimal verlaufen. Ein "gutes" Chiplet ist also nicht zwingend für alle Anwendungsfelder optimal. Mit einer gewissen Tendenz natürlich schon, Krüppel bleiben nunmal Krüppel.
Complicated
2020-02-27, 17:50:00
Hohe Taktraten erreichbar? Diese Art von "gut" ist in diesem Fall egal. Eigentlich wird grob in zwei Körbe sortiert:
Energieeffizient im tiefen bis mittleren Taktberiech = EPYC
Gut taktbar = Ryzen
Das wäre in dieser Grafik der Fall für "Unsorted Chips" hellblau dargestellt. Wenn du die Chips sortierst und entsprechend der gewünschten SKU-Eigenschaften sortierst (z.B:: 1x3,1 GHz, 3x2,7 GHz und 4x2,5 GHz) hast du mehr solcher SKUs als wenn du 8x 3,1 GHz verbaust (unsortiert). Alle Chips werden sowieso nie den vollen Takt gleichzeitig machen können. Und du kannst für jeden 3,1 GHz Chip eine solche SKU auflegen - 8X mal mehr als wenn die die gleichen Chips verwendest. Die Anzahl der bestückbaren SoCs bestimmt bis zu welcher Taktfrequenz man SKUs anbieten kann in ausreichend Stückzahlen um liefern zu können.
Hier zwei Grafiken die das veranschaulichen:
https://www.planet3dnow.de/vbulletin/threads/422600-AMD-Interposer-Strategie-Zen-Fiji-HBM-und-Logic-ICs
https://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34748&d=1474733491
https://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=34749&d=1474733041
AMD verbaut ja nicht 2 gleich gute Dies aus der Spitzengruppe für einen 16-Core.
amdfanuwe
2020-02-27, 18:10:00
Mit anderen Worten: ein Chiplet, welches eine mittlere Taktfrequenz bei niedriger VCore mitmacht sollte sich auch gut takten lassen.
Nein. Ist eine Sache der internen Kapazitäten. Wenn die nicht stimmen, macht ein Chiplet, welches eine mittlere Taktfrequenz bei niedriger VCore mitmacht, keine wesentlich höheren Takte mehr mit.
Umgekehrt kann man auch nicht sagen, dass ein Chiplet, welches hohe Frequenzen erlaubt, bei mittleren Taktfrequenzen einen niedrigen VCore mitmacht. Wenn dieser bei hohen Taktfrequenzen säuft, säuft der auch im mittlerem Taktbereich (leakage).
Bleiben also nur wenige Chiplets, die bei durchgehend niedrigem Verbrauch auch hohe Taktfrequenzen erlauben.
Nagel mich aber nicht fest, das Studium ist schon 30 Jahre her.
Berniyh
2020-02-27, 18:13:04
Niedrige Vcore ist nicht alles. Leakage ist auch ein Argument.
Das stimmt.
Ausserdem gibt es CPUs, die zwar hohe Spannungen benötigen aber trotzdem gut taktbar sind, weil z.B. niedrige Temperatur ergo vorteilhafte Stromverbrauch vs. Spannung Kurve.
Huh? Die Spannung ist doch das wesentlich bestimmende Element bzgl. der Temperatur.
Also zu der Aussage würde ich wirklich gerne Daten sehen.
Diese Kurve ist aber nicht immer gleich. Bei hohen Taktraten sieht es evtl. gut aus, im Bereich der EPYC Taktraten könnte sie zum Beispiel suboptimal verlaufen. Ein "gutes" Chiplet ist also nicht zwingend für alle Anwendungsfelder optimal.
Wie gesagt: gibt es irgendwo Daten die die Aussage untermauern?
Complicated
2020-02-27, 21:21:33
Die würde ich gerne ebenfalls sehen.
basix
2020-02-28, 00:20:18
Huh? Die Spannung ist doch das wesentlich bestimmende Element bzgl. der Temperatur.
Also zu der Aussage würde ich wirklich gerne Daten sehen.
Wie gesagt: gibt es irgendwo Daten die die Aussage untermauern?
Ich bin kein CMOS-Experte. Ich gebe hier nur mein (Halb)wissen weiter. Falls ich hier jetzt also etwas falsches verzapfe, mich bitte nicht gleich verteufeln ;)
Es gibt einige ganz "lustige" Effekte bei heutigen Strukturgrössen.
Die zwei heutzutage dominanten Leakage-Grössen sind Subthreshold Leakage (mehr oder minder statisch) und Gate Leakage. Letztere steigt mit immer dünner werdenden Isolationsschichten extrem stark an (exponentiell). Deswegen gibt es meines Wissens nach die High-K Dielektrika, um unter anderem diesen Effekt zu verringern.
Die Gate Leakage steigt überproportional Spannung an (exponentiell).
Nun gibt aufgrund dem oben beschriebenen zwangsweise den Effekt, dass die Leakage von der Spannungsvariation abhäng. Die Spannungsvariation wiederum hängt von den Leiterbahnwiderständen als auch den geschalteten Kapazitäten ab.
Desweiteren führen Temperaturerhöhungen zu ebenfalls überproportionalem Anstieg der Leakage.
...
Isolationsschichtdicke, Widerstände, Kapazitäten, usw. All das hängt von der Güte des Chips ab. Und diese Güte ist ein Kompromiss aller Parameter.
Beispiel:
Chip A hat dünne Isolationsschichten und niedrige Kapazitäten. Bei niedrigen Spannungen und Frequenzen wird dieser Chip effizient sein (noch relativ geringer Einfluss von Leakage, geringe Umschaltverluste). Sobald man aber die Spannung erhöht, steigt die Leakage stark an. Aufgrund der Leakage steigt die Temperatur, ergo Leakage erhöht sich weiter etc.
Chip B hat mittlere Isolationsschichten und ebenfalls niedrige Kapazitäten. Dieser wird bei tiefen wie hohen Spannungen relativ effizient sein.
Chip C hat dicke Isolationsschichten und grosse Kapazitäten. Bei niedrigen Spannungen ist der ineffizient. Steigert man die Spannung, wird die Leakage aber schwächer ansteigen und der Effekt der Kapazität auf die dynamischen Umschaltverluste bleibt konstant. Dadurch erhält man einen flacheren Anstieg der Verlustleistung.
Chip D-Z haben eine wilde Kombination aus Isolationsschichtdicke, Widerständen und Kapazitäten und noch weiteren Parametern und man erhält einen ganzen Blumenstrauss an Spannung vs. Verlustleistung Kurven.
Wenn man diese Kurvenschar einfachheitshalber mit einer linearen Funktion ausdrückt: m*x + b --> x ist die Spannung, m und b sind Werte aufgrund der Prozessstreuung. Nun ist halt die Frage, welcher der Parameter dominant ist. Typischerweise ist es ja nun die Aufgabe von TSMC, AMD, Nvidia, Intel und allen anderen, dass man das Design so auslegt sodass die Gesamtstreuung begrenzt wird.
Es gibt einige Papers zu diesem Thema. Hier einige Beispiele:
https://www.researchgate.net/publication/220799687_Leakage_in_CMOS_circuits_-_An_introduction
https://electronics.stackexchange.com/questions/82685/dependency-of-leakage-on-the-gate-oxide-thickness
Unicous
2020-02-28, 02:25:38
Man kann sich auf GB wirklich nicht verlassen.
Neuer 4500U Bench, der Multcore Score macht einem Sprung von fast 10% gegenüber dem Acer Score, Single Score ist ähnlich, nur unwesentlich besser.
Lenovo (https://browser.geekbench.com/v5/cpu/1307976)
4744
Acer (https://browser.geekbench.com/v5/cpu/1121212)
4323
Im direkten Vergleich:
https://browser.geekbench.com/v5/cpu/compare/1121212?baseline=1307976
Es gibt keinerlei Hinweise woran es liegt. Im Multi Core Bench gibt es sogar einen Teilbereich (HTML5) wo der Lenovo einfach mal 15% verliert der Acer also "besser" abschneidet, während der Lenovo die restlichen Benches relativ eindeutig gewinnt.
Wie inkonsistent kann denn ein Benchmark noch sein?:confused:
Complicated
2020-02-28, 07:07:41
Beim Lenovo steht "Invalid" in der Tabellenbeschriftung mit drin. Scheinen keine gültigen Werte zu sein.
Unicous
2020-02-28, 07:18:23
Bin mir ziemlich sicher, dass das ein Auslesefehler ist. Es konnte nicht festgestellt werden, welches Modell es ist und als string wird dann "invalid" ausgeben.
Es gibt 687 GB5 Einträge in denen "invalid" vorkommt, so gut wie alle sind Lenovo. ;)
Bei GB4 ist es das Gleiche.
Zossel
2020-02-28, 12:44:30
AMD Folien vom ISSCC:
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/html/photo000_o.jpg.html
Zum selber runterladen:
seq '--format=%03.0f' 0 30 | xargs -P 10 -I XXX -n 1 wget 'https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photoXXX_o.jpg'
SKYNET
2020-02-28, 13:11:45
Man kann sich auf GB wirklich nicht verlassen.
Neuer 4500U Bench, der Multcore Score macht einem Sprung von fast 10% gegenüber dem Acer Score, Single Score ist ähnlich, nur unwesentlich besser.
Lenovo (https://browser.geekbench.com/v5/cpu/1307976)
4744
Acer (https://browser.geekbench.com/v5/cpu/1121212)
4323
Im direkten Vergleich:
https://browser.geekbench.com/v5/cpu/compare/1121212?baseline=1307976
Es gibt keinerlei Hinweise woran es liegt. Im Multi Core Bench gibt es sogar einen Teilbereich (HTML5) wo der Lenovo einfach mal 15% verliert der Acer also "besser" abschneidet, während der Lenovo die restlichen Benches relativ eindeutig gewinnt.
Wie inkonsistent kann denn ein Benchmark noch sein?:confused:
das lässt auf ein grosszügigeres PT schliessen = MC kann höher boosten :)
basix
2020-02-28, 19:22:13
AMD Folien vom ISSCC:
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/html/photo000_o.jpg.html
Zum selber runterladen:
seq '--format=%03.0f' 0 30 | xargs -P 10 -I XXX -n 1 wget 'https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photoXXX_o.jpg'
Interessant, da sieht man zum ersten Mal den konkreten Floorplan des Cores, aufgeteilt in die entsprechenden Segmente. Bisher war das nur geraten. Auch andere Dinge sind sehr interessant.
Danke fürs sharen :up:
crux2005
2020-02-28, 19:44:02
Kann jemand diese Folie erklären? https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/html/photo009_o.jpg.html
bzw. was die Roten Striche sein sollen? Sind das die Rows?
BoMbY
2020-02-28, 20:00:58
Power Grid?
Eldoran
2020-02-29, 00:19:54
Kann jemand diese Folie erklären? https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/html/photo009_o.jpg.html
bzw. was die Roten Striche sein sollen? Sind das die Rows?
Ich habe mich das gleiche gefragt - bei wikichip https://fuse.wikichip.org/news/3320/7nm-boosted-zen-2-capabilities-but-doubled-the-challenges/ gibt es zwar eine Zusammenfassung der Präsentation, aber gerade diese Folie ist nicht erklärt. Es dürfte zwar quasi unter der dort abgebildeten Folie von photo010_o.jpg erwähnt sein, aber es fehlt eben eine klare Erklärung was das Bedeutet. Das passt gut zu den dort beschriebenen ungenutzten Flächen.
Andererseits wenn ich das mit den Erklärungen zu intel 10nm https://fuse.wikichip.org/news/2004/iedm-2018-intels-10nm-standard-cell-library-and-power-delivery/ vergleiche, macht es zwar Sinn, das das die Stromleitungen sind, aber dann sind die kleineren Blöcke 1-2 Fins???
Zossel
2020-02-29, 08:30:01
Hat jemand eine Idee was es mit diesen serdes Blöcken auf sich hat: (Ist da "Logik" außerhalb der Dies?)
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photo021_o.jpg
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photo022_o.jpg
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photo023_o.jpg
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photo024_o.jpg
Zossel
2020-02-29, 08:41:31
Ich habe mich das gleiche gefragt - bei wikichip https://fuse.wikichip.org/news/3320/7nm-boosted-zen-2-capabilities-but-doubled-the-challenges/ gibt es zwar eine Zusammenfassung der Präsentation, aber gerade diese Folie ist nicht erklärt. Es dürfte zwar quasi unter der dort abgebildeten Folie von photo010_o.jpg erwähnt sein, aber es fehlt eben eine klare Erklärung was das Bedeutet. Das passt gut zu den dort beschriebenen ungenutzten Flächen.
Also einfach die Folien abmalen und dann ein eigenes Copyright darauf zu beanspruchen ist schon ziemlich dreist:
https://fuse.wikichip.org/wp-content/uploads/2020/02/zen-zen-2-stack-comp.png
vs.
https://pc.watch.impress.co.jp/img/pcw/docs/1236/258/photo008_o.jpg
basix
2020-02-29, 09:13:58
Hat jemand eine Idee was es mit diesen serdes Blöcken auf sich hat: (Ist da "Logik" außerhalb der Dies?)
Das ist einfach die Beschriftung, welche Signalleitungen dort durchgehen, siehe DDR. SerDes ist halt alles mit serieller Übertragung (PCIe, IFOP, USB, etc.)
https://twitter.com/_rogame/status/1237715251631661062
First Renoir Desktop Result ?
Gigabyte Technology Co., Ltd. B550 AORUS PRO AC
CPU clock : 3.5GHz
GPU clock : 1750MHz (same as 4800U & 4900H 8CU?)
DDR4 2133MHz
3dmark 11 Performance
Overall score : 5659
For context :
Best 4800U : 6309
Best 4700U : 5713
Leonidas
2020-03-11, 16:25:38
3dmark 11 Performance
Warum auch den 3DMark13 nehmen, wenn man noch den 3DMark11 unter 1280x720 nutzen kann ...
OgrEGT
2020-03-11, 20:18:10
Neue Infos zu den B550 und A520 Chipsätzen
B550 mit PCIe4 Unterstützung
https://www.computerbase.de/2020-03/mainboard-amd-b550-platine/#update1
SKYNET
2020-03-11, 21:10:39
https://twitter.com/_rogame/status/1237715251631661062
First Renoir Desktop Result ?
Gigabyte Technology Co., Ltd. B550 AORUS PRO AC
CPU clock : 3.5GHz
GPU clock : 1750MHz (same as 4800U & 4900H 8CU?)
DDR4 2133MHz
3dmark 11 Performance
Overall score : 5659
For context :
Best 4800U : 6309
Best 4700U : 5713
2133er speicher... da geht noch was!!
Piefkee
2020-03-12, 16:57:19
https://twitter.com/_rogame/status/1238131211345842178
AMD Flute
GPU performance is almost similar to RX 5600 XT
CPU performance is similar to R7 4800U
basix
2020-03-12, 20:19:44
https://twitter.com/_rogame/status/1238131211345842178
High End APU?
5600XT? Mhh, kann ich nicht glauben. Wäre super.
SKYNET
2020-03-12, 22:19:33
oder doch ne 20CU Vega im desktop ableger :usex:
crux2005
2020-03-12, 22:46:24
Gibt es schon Gerüchte zu Castle Peak Genesis und dessen Sockel? also ob das noch TRX4 wie bei Threadripper 3000 ist oder nicht?
Lehdro
2020-03-12, 22:49:09
Gibt es schon Gerüchte zu Castle Peak und dessen Sockel? also ob das noch TRX4 wie bei Threadripper 3000 ist oder nicht?
Castle Peak ist TR 3000 auf TRX4.
crux2005
2020-03-12, 22:51:23
Castle Peak ist TR 3000 auf TRX4.
:hammer:
Meinte Genesis. Also auch falscher Thread. F...
robbitop
2020-03-12, 23:39:15
20CUs müsste man erstmal mit Bandbreite versorgen können. IMO ist das etwas, was mehr als den üblichen dual channel ddr4/5 nutzt. Ggf wieder so ein custom Ding wie für Subor Z im letzten Jahr?
unl34shed
2020-03-13, 00:04:26
War da nicht mal was mit Navi12 und HBM?
Berniyh
2020-03-13, 07:07:36
War da nicht mal was mit Navi12 und HBM?
Navi12 ist keine APU, denn die bekommen eigene Codenamen.
(und btw ist Navi12 auch over-powered für so einen Einsatz)
Tobalt
2020-03-13, 08:21:33
würden solche Daten nicht zu einer Konsole passen?
mironicus
2020-03-13, 08:40:56
Ja, für die kleine Version der neuen Xbox. Man stelle sich mal vor, es gäbe einen Windows-PC mit den Leistungsdaten für nur 300 Euro. Ein Träumchen! :D
SKYNET
2020-03-13, 23:18:57
20CUs müsste man erstmal mit Bandbreite versorgen können. IMO ist das etwas, was mehr als den üblichen dual channel ddr4/5 nutzt. Ggf wieder so ein custom Ding wie für Subor Z im letzten Jahr?
oder AMD ist pervers...
platz genug hätte es ja:
8C/16T chiplet + 7nm Vega 12(=20CUs) mit 1800MHz + 4GB HBM
dürfte damit auf level einer 1050Ti agieren... 5600 XT level ist total utopisch(leider)
preis setze ich mal an: 349€
bbott
2020-03-14, 01:57:52
Also war die Vega 8 (Intel + MAD APU) nicht schon auf 1050 ti nevou?!
y33H@
2020-03-14, 02:08:30
Nein.
KarlKastor
2020-03-14, 06:27:22
oder AMD ist pervers...
platz genug hätte es ja:
8C/16T chiplet + 7nm Vega 12(=20CUs) mit 1800MHz + 4GB HBM
dürfte damit auf level einer 1050Ti agieren... 5600 XT level ist total utopisch(leider)
preis setze ich mal an: 349€
Wo siehst du da genug Platz für HBM?
Und aus welchen Grund sollte AMD das machen? Weil sie so gerne Nischen bedienen?
Wenn das ein Kunde anfragt als Semi-custom, dann sicherlich. Aber ansonsten sehr unrealistisch.
robbitop
2020-03-14, 11:22:07
oder AMD ist pervers...
platz genug hätte es ja:
8C/16T chiplet + 7nm Vega 12(=20CUs) mit 1800MHz + 4GB HBM
dürfte damit auf level einer 1050Ti agieren... 5600 XT level ist total utopisch(leider)
preis setze ich mal an: 349€
Für sowas ist der Markt gar nicht groß genug. Und man kommt damit zu schnell in die Kostenbereiche wo auch dGPU + CPU in Laptops interessant werden. Vom Bauraum und der Energieeffizienz sicher interessant. Aber AMD muss stets abwägen wohin mit den knappen RnD Ressourcen? Wohin mit knapper Fertigungskapazität? Da nimmt man die Produkte, die den größten Umsatz und/oder größten Gewinn versprechen.
Solche Groß APUs waren bis dato immer Custom Kram.
amdfanuwe
2020-03-14, 12:46:10
Eine Fette APU müßte schon ordentliche FHD Leistung bringen, also auf dem Niveau einer 590/5500.
Weniger GPU Leistung erscheint mir uninteressant für Gamer.
Solch eine 8C APU wäre mit <250mm² machbar und durch die Verwendung von Salvage Chips wäre die Ausbeute auch sehr gut.
Dazu 16GB HBM wodurch kein externer DDR4 RAM bei Gaming Laptops, AIO, Einsteiger Gaming PC benötigt wird.
Aktuell kostet ein 3700X + 5500XT + 16GB RAM ~600€.
Eine Fette APU kann das billiger und kommt mit kostengünstigeren Boards aus.
Solch einen Chip könnte man auch schon als Nvidia Killer bezeichnen, da er den kompletten Bereich für FHD Gaming abdecken würde und alle kleinen GPUs obsolet macht.
Die Frage ist eigentlich nur: packt es AMD die Leistung in die entsprechenden TDP Anforderungen für Notebooks und Desktop unterzubringen?
3700X ist mit 65W, 5500 GPU Chip alleine mit 100W dazu noch der RAM.
Mit nochmaliger Effizienzsteigerung bei RDNA2, mehr CUs mit niedrigerem Takt läßt sich die Leistung sicherlich schon ins 105W TDP Desktop Gewand packen.
Also mal abwarten, was AMD sich einfallen läßt und wie die OEMs darauf reagieren.
Aus Spaß an der Freud macht AMD nichts, die wollen auch verdienen.
Knappe Ressourcen seh ich eigentlich nicht. Die Konsolenchips sind weitgehend durch, da dürfte einiges an Manpower frei sein und die Komponenten sind auch schon designed.
basix
2020-03-14, 13:08:41
Zen 3+4, Abschluss RDNA2, RDNAx APU, RDNA3, CDNA, DDR5, PCIe 5, AM5, TR5, IF3, X3D ...
Also da ist doch einiges in der Pipeline ;) Zudem: Fertigungskapazität ist knapp.
bbott
2020-03-14, 13:31:30
Nein.
Sorry nicht Vega 8 sondern Intel® Core™ i7-8809G Prozessor mit Radeon™ RX Vega M GH Grafik.
SKYNET
2020-03-14, 15:55:37
AVX512 scheint total important zu sein... wieviel intel dafür hat wohl springen lassen :uponder:
https://www.computerbase.de/2020-03/passmark-performancetest-beguenstigt-intel-prozessoren/
zum thema warum der mobile ableger den 3950X im SC schlägt: ich gehe davon aus, das die latenzen dermassen niedriger sind dadurch das es single-die ist, das die IPC 10% besser ist.
wenn das stimmt, kommt mir nen 4900G(?) in die kiste...
aufkrawall
2020-03-14, 15:59:42
VideoLAN's dav1d 0.6 Released With More AVX2 + AVX-512 Optimizations (https://www.phoronix.com/scan.php?page=news_item&px=Dav1d-0.6-Released)
unl34shed
2020-03-14, 16:00:22
Das einzig komische ist, dass Intel jetzt auch CPUs ohne AVX512 bringt. Mit tiger lake glaube ich.
Berniyh
2020-03-14, 16:32:34
Das einzig komische ist, dass Intel jetzt auch CPUs ohne AVX512 bringt. Mit tiger lake glaube ich.
Ist das nicht typische Intel Strategie? Features nur den größeren Modellen (manchmal auch nur XEON) vorbehalten um die Nutzer zu größeren Ausgaben zu bringen?
SKYNET
2020-03-14, 19:15:35
Ist das nicht typische Intel Strategie? Features nur den größeren Modellen (manchmal auch nur XEON) vorbehalten um die Nutzer zu größeren Ausgaben zu bringen?
jupp, so schauts aus... bei AMD gibts das featureset wenigstens durch die bank weg :)
eratte
2020-03-14, 20:07:01
bei AMD gibts das featureset wenigstens durch die bank weg
Nein auch hier gibt es Ausnahmen (SMT).
Brillus
2020-03-14, 20:35:53
Nein auch hier gibt es Ausnahmen (SMT).
Das ist aber nicht Featureset in dem Sinne, dann könnte man auch CPU Kerne nennen. AVX* kann man entweder oder nicht.
eratte
2020-03-14, 20:41:34
Warum sollte SMT/HTT kein Featureset sein? Für mich ist das auch ein Featureset. CPU ohne Kerne geht ja wohl schlecht. :)
Es ist ja auch immer vorhanden nur eben deaktiviert, da AMD das bis auf Einzelfälle (2200/3200g z.B.) aktiv hat wird ja die
nächste Intelgeneration es auch wieder durchgehend aktiv haben - freiwillig machen die das nicht.
Bei AMD könnte man auch noch die Pro Versionen nennen die z.B. Echtzeit-Verschlüsselung des Arbeitsspeichers bieten.
Tesseract
2020-03-14, 21:32:39
Warum sollte SMT/HTT kein Featureset sein?
die definition von "featureset" ist doch egal, der entscheidende unterschied ist, dass AVX512 eigene instruktionen hat und AVX512-code auf einer CPU ohne AVX512 nicht läuft - nicht nur langsamer sondern garnicht. SMT hingegen ist dem code egal, wenn der 16 threads erzeugt aber auf einem single core ohne SMT läuft dauert es halt einfach länger.
intel schießt sich mit dieser vorgehensweise seit jahren selbst ins knie weil dadurch viele projekte ihre neuen features nicht nutzen können/wollen.
AMD hat das bei zen 1 viel besser gemacht: volles AVX2 auf 8 cores wollten sie sich damals noch nicht leisten aber anstatt es komplett weg zu lassen haben sie es in mehreren cycles abgearbeitet. ist dann zwar langsamer aber läuft immerhin. sowas wollte intel mit AVX512 auf consumerchips eigentlich auch machen.
SKYNET
2020-03-14, 22:30:23
Warum sollte SMT/HTT kein Featureset sein? Für mich ist das auch ein Featureset. CPU ohne Kerne geht ja wohl schlecht. :)
Es ist ja auch immer vorhanden nur eben deaktiviert, da AMD das bis auf Einzelfälle (2200/3200g z.B.) aktiv hat wird ja die
nächste Intelgeneration es auch wieder durchgehend aktiv haben - freiwillig machen die das nicht.
Bei AMD könnte man auch noch die Pro Versionen nennen die z.B. Echtzeit-Verschlüsselung des Arbeitsspeichers bieten.
SMT ist kein befehlssatz...
eratte
2020-03-14, 23:16:48
Jetzt ist ein Befehlssatz und kein Featureset mehr?
Naja wie ihr wollt.
Berniyh
2020-03-15, 07:56:30
Das ist aber nicht Featureset in dem Sinne, dann könnte man auch CPU Kerne nennen. AVX* kann man entweder oder nicht.
Naja, ich finde da hat er schon recht, denn die CPUs haben das Feature ja, es ist nur deaktiviert.
Auch bei Threadripper vs. EPYC gibt es Beispiele.
Aber dennoch bleibt festzuhalten, dass AMD das in deutlich geringerem Umfang macht als Intel.
Zossel
2020-03-15, 08:49:56
Nein auch hier gibt es Ausnahmen (SMT).
SMT hat auch was mit der TDP und der Güte des Dies zu tun.
intel schießt sich mit dieser vorgehensweise seit jahren selbst ins knie weil dadurch viele projekte ihre neuen features nicht nutzen können/wollen.
Das ist das eigentliche Elend bei Intel. Es gibt aber auch Ausnahmen: aes-ni.
Durchaus sinnvolle Dinge verbreiten sich dadurch später als nötig.
Benutzername
2020-03-15, 19:47:30
Warum sollte SMT/HTT kein Featureset sein? Für mich ist das auch ein Featureset. CPU ohne Kerne geht ja wohl schlecht. :)
Es ist ja auch immer vorhanden nur eben deaktiviert, da AMD das bis auf Einzelfälle (2200/3200g z.B.) aktiv hat wird ja die
nächste Intelgeneration es auch wieder durchgehend aktiv haben - freiwillig machen die das nicht.
Bei AMD könnte man auch noch die Pro Versionen nennen die z.B. Echtzeit-Verschlüsselung des Arbeitsspeichers bieten.
Äpfel und Birnen. Eine hypotethische altmodische Ein-Kern CPU könnte auch AVX-512 berechnen, so sie das denn beherrscht. Die Anzahl der Kerne und ob mit oder ohne SMT/Hyperthreading ist da egal.
eratte
2020-03-15, 20:44:08
Ja, immer schön weiter spinnen. Eine Singlekern CPU funktioniert auch ganz ohne AVX. Halt ein Freature nur. Ohne eine Kern sehe ich da aber schwarz ;)
basix
2020-03-16, 08:43:36
SMT gehört ganz klar zum Featureset. Aber SMT hat schon einen grossen Unterschied verglichen mit AVX512 und allgemein Befehlssätzen: Man kann SMT abschalten, trotzdem funktioniert jeglicher Code genau wie vorher (mit allfälligen Abstrichen bei der Leistung). Fehlt ein Befehlssatz kann man ihn gar nicht ausführen. Man kann natürlich Fallback-Optionen in den Code reinkompilieren (z.B. SSE anstatt AVX), das ist für die Software-Entwickler aber Aufwand und kann mehrere Faktoren Leistungsunterschied ausmachen. Fehlendes SMT nicht.
Rabiata
2020-03-16, 11:49:17
Eine Fette APU müßte schon ordentliche FHD Leistung bringen, also auf dem Niveau einer 590/5500.
Weniger GPU Leistung erscheint mir uninteressant für Gamer.
Solch eine 8C APU wäre mit <250mm² machbar und durch die Verwendung von Salvage Chips wäre die Ausbeute auch sehr gut.
Dazu 16GB HBM wodurch kein externer DDR4 RAM bei Gaming Laptops, AIO, Einsteiger Gaming PC benötigt wird.
Aktuell kostet ein 3700X + 5500XT + 16GB RAM ~600€.
Eine Fette APU kann das billiger und kommt mit kostengünstigeren Boards aus.
Solch einen Chip könnte man auch schon als Nvidia Killer bezeichnen, da er den kompletten Bereich für FHD Gaming abdecken würde und alle kleinen GPUs obsolet macht.
Die Frage ist eigentlich nur: packt es AMD die Leistung in die entsprechenden TDP Anforderungen für Notebooks und Desktop unterzubringen?
3700X ist mit 65W, 5500 GPU Chip alleine mit 100W dazu noch der RAM.
Mit nochmaliger Effizienzsteigerung bei RDNA2, mehr CUs mit niedrigerem Takt läßt sich die Leistung sicherlich schon ins 105W TDP Desktop Gewand packen.
Die allgemeine Richtung dieses Ansatzes klingt schon sinnvoll. Für die Effizienz könnte der CPU-Teil auch noch im Eco-Mode (https://www.pcgameshardware.de/Matisse-Codename-268193/News/Ryzen-Stronmsparmodus-mit-AGESA-1004-Leitfaden-im-Forum-mit-Tipps-und-Messungen-1337613/)laufen, dann wären noch 45 W unter Opferung von etwas Performance anzusetzen. Wobei die Frage ist, wie billig dieses Design wirklich wäre. Der HBM-Stack würde den Preis in die Höhe ziehen, was den Vorteil der wegfallenden diskreten Grafikkarte mehr oder weniger zunichte macht.
Ein weniger drastischer Ansatz wäre eine APU, die mit 4-8 GB HBM für die Grafik auskommt und ansonsten externen DDR4 nutzt. Auch mit nur zwei DDR4-Steckplätzen auf dem Board wären 16-32 GB kein Problem, 16 GB Module sind breit verfügbar.
Ansonsten denke ich, Nvidias kleine GPUs werden jetzt schon mehr aus Trägheit seitens OEM und Kunden verbaut. In billigen Fertigrechnern ist oft eine GT1030 eingebaut, zusammen mit einem Pentium Gold. Die sind dann in der Grafik etwas schneller als die aktuellen AMD APUs, aber werden auf der CPU-Seite abgehängt. Zu einem insgesamt höheren Preis als ein Rechner mit AMD APU.
Tarkin
2020-03-16, 12:03:32
https://forums.anandtech.com/threads/speculation-zen-4-epyc-4-genoa-ryzen-5000.2571425/post-40098663
Charlie schreibt:
"I am going by historical launch periods. I posted when it taped out and when they had silicon back so both dates are going to be easy. Early silicon was REALLY good so I am not expecting any problems."
und "I know what is coming, don't want to say publicly but I have already said IPC increase is >15%."
Außerdem gibt es neue Gerüchte aus Asien (Chiphell), dass RDNA2+ZEN3 im Oktober 2020 kommen
siehe https://twitter.com/planet3dnow/status/1239229840332636165?s=20
Unicous
2020-03-16, 15:36:54
Falscher Thread und es wurde auch schon in den entsprechenden threads gepostet.
das_Apo
2020-04-23, 12:12:18
Gibt es eigentlich brauchbare Hinweise zu wann mit den Renoir-basierten Desktop-APUs zu rechnen ist?
Ich könnt schwören, dass ich die Wochen mal in den 3DCenter-News was gesehen habe, aber ich kann es nicht mehr finden.
Notebooks mit Renoir APUs werden mittlerweile einige gelistet, aber verfügbar ist noch keines. Tendenz scheint hier Ende Mai zu sein.
Complicated
2020-04-25, 12:35:45
Gabs das hier schon?
https://mobile.twitter.com/VideoCardz/status/1253617420662722560
https://cdn.videocardz.com/1/2020/04/AMD-Ryzen-3-3300X-vs-3100.jpg
BlacKi
2020-04-25, 13:09:05
Das einzig komische ist, dass Intel jetzt auch CPUs ohne AVX512 bringt. Mit tiger lake glaube ich.
ich will euren intel hater club nicht stören, aber ich kann das fehlen von avx leider nicht finden.
tigerlake hat jedenfalls avx 512, allerdings wird auch avx2 auf wiki genannt.
https://www.computerbase.de/2019-09/intel-cpu-tiger-lake-l3-cache-avx-512/
leaks deuten auch auf avx2 hin https://twitter.com/InstLatX64/status/1173590492002562048/photo/1
Unicous
2020-05-03, 19:51:34
Bei Userbenchmark wurde ein Ryzen 7 4700G mit 8 Kernen/16 Threads eingetragen, keine Ahnung ob das manipuliert werden kann. 3,6GHz und 4GHz Turbo sind angegeben. (Ich verlinke nicht auf diese Schrottseite, gibt eh nichts weiter her.)
Ziemlich mickriger Turbo, dafür relativ hoher Basistakt, wie auch beim 3700X. Nicht unplausibel, stellt sich dann aber die Frage was aus eben diesen 8-Kernern wird.:wink:
das_Apo
2020-05-03, 20:11:39
Bei Userbenchmark wurde ein Ryzen 7 4700G mit 8 Kernen/16 Threads eingetragen, keine Ahnung ob das manipuliert werden kann. 3,6GHz und 4GHz Turbo sind angegeben. (Ich verlinke nicht auf diese Schrottseite, gibt eh nichts weiter her.)
Ziemlich mickriger Turbo, dafür relativ hoher Basistakt, wie auch beim 3700X. Nicht unplausibel, stellt sich dann aber die Frage was aus eben diesen 8-Kernern wird.:wink:
Hatten die 3000er Ryzen APUs nicht einen kleineren L3-Cache im Vergleich zu ihren 2000er CPU-Pendants?
AMD wird schon irgendwas unternehmen, um die CPUs von den APUs, damit die CPUs nicht obsolet werden.
Man könnte hoffen, dass die 4000er APUs einen Preisrutsch einläuten und dass es dann mit den 4000er Zen 3 CPUs mehr Kerne für das gleiche Geld gibt (also 8 Kerne zum aktuellen Preis von 6 usw.). Aber da Intel bei der Anzahl der CPU-Kerne nicht mithalten kann, gibt es für AMD eigentlich keinen Anlass sowas zu tun.
Unicous
2020-05-03, 20:37:36
Ja, der Turbo ist auch deutlich höher (4,4GHz).
Ändert nur nichts an der Tatsache, das man jetzt einen 8 Kerner mit und ohne GPU hat und die eine CPU ein monolitischer Die ist und die andere ein Package aus 2 Dies. Es stellt sich die Frage welche CPU günstiger herzustellen ist und ob AMD es sich "leisten" kann beide CPUs weiter zu verkaufen.
Ich würde davon ausgehen, dass ähnlich wie bei Intel die Mainstream SKUs mit iGPUs ausgestattet werden. Natürlich betreibt AMD momentan noch ein sehr effizientes die harvesting, wie sie es auch schon in der Vergangenheit getan haben. "No die gets left behind".:wink:
Aber ich schätze die Matisse Chips inklusive Packaging sind teurer als die Renoir Chips, auch wenn der Die größer ist. Und generell braucht AMD in Zukunft wahrscheinlich jeden I/O Die der produziert werden kann bzw. könnte die frei werdenden Kapazitäten für die großen Chips/Server I/O Dies nutzen.
Aber das sind nur meine 2 cents. Es kann auch sein, dass sich das alles weiterhin rechnet und AMD kein Problem hat ihr Produktportfolio aufzublasen.
Der 3100 und der 3300X sind in der Hinsicht auch interessant, denn diese Chips würde man sicherlich eigentlich wegwerfen, denn man könnte auch Picasso/Renoir Chips dafür nutzen. Mal schauen, was aus den Chips wird, wenn Renoir im Desktop ankommt.
Der_Korken
2020-05-03, 21:06:43
Renoir braucht doppelt so viel 7nm Wafer-Space wie alles bis zum 3800X, das könnte ein Faktor sein. Und wie du schon sagst, hat AMD erst neulich Quadcores auf Matisse-Basis gelauncht.
amdfanuwe
2020-05-03, 21:14:24
Picasso 12nm ist relativ langsam, Renoir mit nur 4 funktionsfähigen Kernen dürften kaum vorkommen. Die wenigen kann man dann teurer als 4300U im Mobilsektor absetzen.
Da passen der 3100 und 3300X schon gut ind Portfolio.
Mit ZEN3 gibt es dann etwas mehr IPC und Takt, da kann man 3600(X), 3700X und 3800X schnell aus dem Markt nehmen, die Chiplets kann man auch anderswo einsetzen.
Sehe da kein Problem APUs und schnellere CPUs mit gleicher Kernanzahl im Programm zu haben.
Unicous
2020-05-03, 22:00:35
Ich sagte bereits, der Renoir Die mag größer sein, aber dafür ist das Package mutmaßlich deutlich günstiger herzustellen.
Man hat nur einen Die, logischerweise muss man daher keine zwei Dies unterbringen. Man braucht keine extra layers um die Chips zu verbinden, Matisse braucht ein 12-layer Substrat für die bis zu 3 Dies.
Gibt sicherlich noch andere Gründe die Matisse in Relation teurer machen.
Renoir kann meiner Meinung nach deutlich besser für die Resteverwertung genutzt werden. Ich schätze die 3100 und 3300X Chips rechnen sich nur weil AMD die letzten Monate teildefekte Chips angesammelt hat, während die Produktion von Renoir erst angelaufen ist. Da wird es auch genug Ausschuss geben.
SKYNET
2020-05-03, 23:05:53
viel interessanter finde ich das die read, write und copy werte identisch zu denen von 3900X/3950X sind, somit keinerlei einbussen in gewissen programmen die write brauchen wie beim 3100-3800X... würde das ding gerne mal mit meinem speicher arbeiten sehen, ob da dann <60ns gehen.
amdfanuwe
2020-05-03, 23:07:08
Ich schätze die 3100 und 3300X Chips rechnen sich nur weil AMD die letzten Monate teildefekte Chips angesammelt hat
Für ROME werden Chiplets mit nur einem Core/CCX verbaut.
Ich denke eher, AMD hat die zurückgehalten, da sie sonst den 3600 kanibalisiert hätten.
Complicated
2020-05-04, 00:14:45
Ich denke Renoir wird solange bis 8-Core den Desktop bedienen mit dem 7nm DUV, wie es dauern wird genügend EUV-Wafer für das ganze Portfolio von TSMC zu bekommen. Der Engpass bei den EUV-Belichtungsmaschinen macht eine solche Flexibilität derzeit auch notwendig bis zum Transit auf Zen4. AMD hat sich so etwas weniger abhängig von EUV gemacht. Die Chiplet-Yields sollten gut genug sein mittlerweile, um für AMD eine gute Kalkulationsbasis bieten zu können und den Bedarf über den Preis steuern zu können. Ob nun die APUs oder die CPUs günstiger Angeboten werden, wird wohl auch davon abhängen wie die CDNA-GPUs anlaufen werden und wie viele 7nm-Wafer dort benötigt werden.
Unicous
2020-05-04, 15:56:05
Okay, Userbenchmark ist noch nutzloser als man denke könnte:
Man kann die registry editieren und UB zieht strunzdoof daraus die Infos.:facepalm:
https://mobile.twitter.com/u234i/status/1257077186084966400
Complicated
2020-05-04, 16:18:03
"Fully customizable" :freak:
Leonidas
2020-05-14, 13:16:30
Modell-Spezifikationen von Desktop-"Renoir" (Ryzen 4000G) aufgetaucht
https://www.3dcenter.org/news/modell-spezifikationen-von-desktop-renoir-ryzen-4000g-aufgetaucht
eratte
2020-05-14, 14:32:34
R9 3950X kommt ohne Kühler, in der Tabelle steht Wraith Prism LED.
dildo4u
2020-05-14, 15:06:27
Nvidia nutzt Dual Epyc Rome für sein Ampere Cluster.
https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/nvidia-dgx-a100-datasheet.pdf
Schnoesel
2020-05-14, 16:03:55
Kein PCIe4.0 kein Intel. Sowas gabs auch noch nicht glaub ich:
https://www.computerbase.de/2020-05/supermicro-redstone-delta-nvidia-a100-amd-epyc/
Linmoum
2020-05-14, 16:11:55
Passt gut dazu:
https://pbs.twimg.com/media/Dk776f4U0AA1DIn.jpg
mironicus
2020-05-14, 16:45:39
Werden denn wenigstens die Renoir-APUs mit B450-Chipsätzen laufen können?
Screemer
2020-05-14, 17:16:24
Renoir ist zen2. Dem sollte also nichts entgegenstehen, wenn die Boardpartner entsprechende BIOS' veröffentlichen.
Ex3cut3r
2020-05-14, 17:25:11
Passt gut dazu:
https://pbs.twimg.com/media/Dk776f4U0AA1DIn.jpg
Bin ich der einzige der AMDs "Basher" Marketing peinlich findet? Poor Volta und Co? Warum kann man sich nicht einfach auf sich selbst konzentrieren? Bei poor Volta ist man damals auf die Fresse gefallen. Was macht man wenn Intel sowas ähnliches wie Sandy Bridge demnächst raushaut? Zwar aktuell unwahrscheinlich, aber muss man seiner Community nicht ein Vorbild sein? :rolleyes:
Blediator16
2020-05-14, 18:00:11
Bin ich der einzige der AMDs "Basher" Marketing peinlich findet? Poor Volta und Co? Warum kann man sich nicht einfach auf sich selbst konzentrieren? Bei poor Volta ist man damals auf die Fresse gefallen. Was macht man wenn Intel sowas ähnliches wie Sandy Bridge demnächst raushaut? Zwar aktuell unwahrscheinlich, aber muss man seiner Community nicht ein Vorbild sein? :rolleyes:
Diese Art von Marketing finde ich nicht mal schlimm. Viel schlimmer war poor volta oder der fixer.
Zossel
2020-05-14, 18:06:52
Diese Art von Marketing finde ich nicht mal schlimm. Viel schlimmer war poor volta oder der fixer.
Der ist besser: (Insbesondere weil Donald angeblich auf Kohle steht)
Bin ich der einzige der AMDs "Basher" Marketing peinlich findet? Poor Volta und Co? Warum kann man sich nicht einfach auf sich selbst konzentrieren? Bei poor Volta ist man damals auf die Fresse gefallen. Was macht man wenn Intel sowas ähnliches wie Sandy Bridge demnächst raushaut? Zwar aktuell unwahrscheinlich, aber muss man seiner Community nicht ein Vorbild sein? :rolleyes:
Das ist ja nicht wie früher. Ich finds schon lustig :D.
MartinRiggs
2020-05-14, 18:20:47
Aktuell hat AMD das Momentum aktuell auf seiner Seite, nichtsdestotrotz haben die noch viel Arbeit vor sich
AMD baut zwar gute Prozessoren, bei der Infrastruktur, Mainboards, Support und Co. happert es aber noch ganz schön.
Der Artikel von Igor ist imho wirklich lesenswert
https://www.igorslab.de/warum-sich-hersteller-mit-amd-notebooks-schwer-tun-amd-sich-oft-selbst-ein-bein-stellt-und-die-blaue-verschwoerung-keine-ist-einblicke-und-kommentar/
Complicated
2020-05-14, 18:37:01
Ja Igor hat da irgendwelche OEMs die ihm das Zeug immer wieder erzählen. Da war immer wieder ganz schön viel Bullshit dabei, wie sich später raus stellte.
Würde das auch nur im Ansatz stimmen, wäre so etwas mit AMD unmöglich:
https://youtu.be/q3TdaeqQhbY
Edit: Ein solches System kann man mit Intel derzeit überhaupt nicht bauen.
Zossel
2020-05-14, 19:30:01
Der Artikel von Igor ist imho wirklich lesenswert
https://www.igorslab.de/warum-sich-hersteller-mit-amd-notebooks-schwer-tun-amd-sich-oft-selbst-ein-bein-stellt-und-die-blaue-verschwoerung-keine-ist-einblicke-und-kommentar/
Wie ist der Marktanteil von Notebooks mit separater GPU?
Leonidas
2020-05-14, 20:06:07
R9 3950X kommt ohne Kühler, in der Tabelle steht Wraith Prism LED.
Danke für den Hinweis, ich fixe es.
Zossel
2020-05-15, 18:08:47
Schlechte Nachrichten, TSMC steigert seine Abhängigkeit von infantilen und wankelmütigen Präsidentendarstellern: https://www.anandtech.com/show/15803/tsmc-build-5nm-fab-in-arizona-for-2024
Zossel
2020-05-15, 18:10:32
Falsch geklickt.
Langlay
2020-05-15, 18:18:56
Das sind doch nur Absichtserklärungen. Seit Trump im Amt ist gibts das öfters, meist kommt am Ende nichts bei raus.
Foxcon hat mal was angekündigt, dabei ist es geblieben.
Setsul
2020-05-16, 00:23:20
Es ist auch zu Bedenken dass wir hier von 20k 5nm Wafern pro Monat im Jahr 2024 reden.
Zum Vergleich: Bei Fab 18 in Tainan sind es 120k 5nm Wafer pro Monat diese Jahr, 4 Jahre früher.
2024 wird Fab 18 laut Plan schon auf 3nm umgestellt sein und N3P/N3+ oder N2 oder wie auch immer die Nachfolger von N3 genannt werden laufen an.
Das ist ungefähr so als würden sie dieses Jahr eine 16/12nm Fab eröffnen.
Dazu eben noch die niedrige Kapazität.
Das riecht nach Militäraufträgen und ähnlichem, ab und zu vielleicht Importbeschränkungen umgehen, aber die neuesten Prozesse und größere Stückzahlen sind und bleiben in Taiwan.
amdfanuwe
2020-05-17, 05:22:47
Jetzt stecken sie schon 16 Core in einen Laptop
https://www.reddit.com/r/AMD_Stock/comments/gl2q1a/linus_tech_tips_the_most_powerful_laptop_ever/
Zossel
2020-05-17, 07:40:39
Das riecht nach Militäraufträgen und ähnlichem, ab und zu vielleicht Importbeschränkungen umgehen, aber die neuesten Prozesse und größere Stückzahlen sind und bleiben in Taiwan.
Woher kommt die Ausrüstung?
Woher kommen die Vorprodukte?
Ohne Importe wird diese Fab nicht laufen.
SKYNET
2020-05-17, 15:12:34
Woher kommt die Ausrüstung?
Woher kommen die Vorprodukte?
Ohne Importe wird diese Fab nicht laufen.
rohstoffe für die herstellung sämtlicher anlagen und auch wafer, hat die USA genug...
Setsul
2020-05-18, 17:44:17
@Zossel:
Man wird wohl kaum zur Feier neuer Importbeschränkungen eine Runde Aufrüstungen mit Geräten aus dem Ausland anfangen.
Beschränkungen und Zoll auf die wenigen Vorprodukte die man aus dem Ausland importiert, hauptsächlich Japan und Korea soweit ich weiß, wenn überhaupt, werden von dem Handelskrieg mit China nicht betroffen sein und selbst wenn es aus anderen Gründen dazu kommt vernachlässigbar sein.
Zossel
2020-05-18, 19:09:47
@Zossel:
Man wird wohl kaum zur Feier neuer Importbeschränkungen eine Runde Aufrüstungen mit Geräten aus dem Ausland anfangen.
Beschränkungen und Zoll auf die wenigen Vorprodukte die man aus dem Ausland importiert, hauptsächlich Japan und Korea soweit ich weiß, wenn überhaupt, werden von dem Handelskrieg mit China nicht betroffen sein und selbst wenn es aus anderen Gründen dazu kommt vernachlässigbar sein.
Dann wird das bestimmt kein billiger Spaß wenn TSMC seine Verfahren für eine Low-Volume Fab auf neue Anlagen, Rohstoffe und Vorprodukte portiert.
Welche US-Butze hat den z.b. Belichter im Angebot?
Setsul
2020-05-20, 16:21:06
Momentan ist doch noch nichts? Sonst hätte Intel schließlich die gleichen Probleme.
Die können die Fab so bauen wie sie wollen und solange sie alle Vorprodukte kriegen (sollten sie auch, wie gesagt) läuft das problemlos bis zur nächsten Aufrüstung.
Complicated
2020-05-20, 17:08:52
Vermutlich sind sie sich einige geworden wie sie die blockierten EUV-Belichter, die ursprünglich von ASML an SMIC geliefert worden wären gemeinsam einem Zweck zukommen lassen.
TSMC kickt Huawei, Intel verzichtet auf die Belichtereinheiten und TSMC kriegt den Auftrag für die USA zu fertigen bis zu 20.000 Wafer jährlich, solange die fab in den USA stehen. Die ursprünglich für China gedachten Maschinen werden dafür in den USA eingesetzt. Intel bekommt dafür Kapazitäten bei der TSMC GPU-Fertigung in 7nm+ und Luft bei den eigenen Fabs dadurch, da deren EUV noch nicht genug Durchsatz hat für Massenprodukte.
Matisse Refresh?
https://videocardz.com/newz/amd-rumored-to-refresh-matisse-cpus-ryzen-7-3850x-and-3750x-coming
Berniyh
2020-05-22, 09:49:21
Matisse Refresh?
https://videocardz.com/newz/amd-rumored-to-refresh-matisse-cpus-ryzen-7-3850x-and-3750x-coming
Interessant dabei ist auch, dass laut der Folie Renoir auch auf dem Desktop kein PCIe 4.0 beherrscht.
Da gab es ja noch seitens einiger Hoffnungen, dass das (im Gegensatz zu den mobilen Varianten) anders sein könnte.
Damit taugt Renoir auch nicht wirklich um einen Gaming-PC mit dedizierter Grafikkarte zu befeuern.
(Natürlich nur, soweit das ganze auch stimmt.)
Matisse Refresh?
https://videocardz.com/newz/amd-rumored-to-refresh-matisse-cpus-ryzen-7-3850x-and-3750x-coming
Kann man machen, wenn man den plötzlich in N7P produziert z.B.
Matisse bleibt ja trotz Vermeer im Markt präsent.
w0mbat
2020-05-22, 10:27:42
AMD hat ja erst von kurzem die 14nm Zen-SKUs eingestellt, deshalb gibt es jetzt die AF-Versionen. Kann gut sein, dass AMD auch Zen2 umstellt und es einen kleinen refresh gibt, würde bestimmt nochmal die Verkäufe ankurbeln, zusammen mit dem B550 launch.
So 100-200MHz mehr Takt bei gleichem Verbrauch wäre nett und würde Intels 10th gen etwas den Wind aus den Segeln nehmen. Bin gespannt!
Wobei ich mir nicht vorstellen kann, dass wir eine Namensänderung sehen werden. Das geht am Anfang zwar ganz gut, aber je höher man bei den SKUs geht, desto problematischer wird es: 3600(X) -> 3650(X), 3700X -> 3750X, 3800X -> 3850X, 3900X -> ???, 3950X -> ??? und die gerade releasten 3100 bzw. 3300X gleich im Namen zu ändern macht auch wenig Sinn.
Vielleicht wird es nur an der OPN zu erkennen sein, also quasi ein neuer "AF".
amdfanuwe
2020-05-22, 10:47:23
Kann man machen, wenn man den plötzlich in N7P produziert z.B.
Du meinst als Testserie für neuen Prozess?
Kann auch alles mögliche getestet werden: Verbessungen im Speicherinterface, optimierungen an AM4, welche sich erst ab B550 nutzen lassen, x3d Stacking ...
Wenn der Test gut verläuft, nutzt man die dann erarbeiteten Ressourcen ( Masken, ...) für eine Serie.
Vielleicht aber doch nur besser selektierte Chiplets.
Lassen wir uns überraschen. Zumindest wird die Wartezeit bis ZEN3 dann nicht zu lang.
amdfanuwe
2020-05-22, 10:53:31
Lol, auf Reddit https://www.reddit.com/r/AMD_Stock/comments/godd4z/3600xt_3800xt_3900xt_leaks/
werden fürs gleiche Datum 3600XT 3800XT 3900XT Leaks versprochen.
Das T deutet dann wohl auf 45/65W CPUs hin.
Du meinst als Testserie für neuen Prozess?
Kann auch alles mögliche getestet werden: Verbessungen im Speicherinterface, optimierungen an AM4, welche sich erst ab B550 nutzen lassen, x3d Stacking ...
Wenn der Test gut verläuft, nutzt man die dann erarbeiteten Ressourcen ( Masken, ...) für eine Serie.
Vielleicht aber doch nur besser selektierte Chiplets.
Lassen wir uns überraschen. Zumindest wird die Wartezeit bis ZEN3 dann nicht zu lang.
Du kannst N7 einfach in N7P produzieren, ähnlich wie bei Polaris10->30 beispielsweise. Es kann eben sein, dass TSMC soviel Fertigung umgebaut hat, dass das einfach on the fly transferiert wird.
Berniyh
2020-05-22, 11:32:25
Eigentlich war doch die Redeart, dass Zen2 schon in N7P produziert wird und angeblich Vega20 das einzige Produkt in N7 (ohne P) war.
Ob's stimmt? Keine Ahnung …
Was auch denkbar wäre ist, dass der Zen3 IO Die mit Zen2 kompatibel ist und einige Verbesserungen enthält und man sich daher dazu entschlossen hat den Refresh mit dem neuen IO Die aufzulegen. Hätte auch den Vorteil, dass man nur noch einen IO Die fertigen muss.
Zumindest prinzipiell sollte die IF ja übertragbar sein, ob das in der Praxis mit den unterschiedlichen Versionen/Revisionen auch so ist wissen wir natürlich nicht.
Gibt es eigentlich Infos dazu ob man bei Servern in 2 Sockelsystemen einen Sockel mit Zen2 und einen mit Zen3 bestücken kann? Die kommunizieren ja auch über IF?
Deinorius
2020-05-22, 13:15:32
Interessant dabei ist auch, dass laut der Folie Renoir auch auf dem Desktop kein PCIe 4.0 beherrscht.
Da gab es ja noch seitens einiger Hoffnungen, dass das (im Gegensatz zu den mobilen Varianten) anders sein könnte.
Damit taugt Renoir auch nicht wirklich um einen Gaming-PC mit dedizierter Grafikkarte zu befeuern.
(Natürlich nur, soweit das ganze auch stimmt.)
Renoir kann nur PCIe 3.0, das ist schon lange bekannt gegeben worden. Macht ja auch Sinn. Was brauchst im Laptop derzeit PCIe 4.0? Warum sollte man also etwas in der Richtung machen? Auch AMD weiß, dass sie eine passable Leistung mit nvidia GPUs bieten müssen, die kein PCIe 4.0 beherrschen, sonst hätten sie vielleicht sogar die GPU Lanes auf 8x reduziert. Renoir bietet ja 20 Lanes.
Bin schon extrem gespannt, wie sich die Desktop Varianten gegen Matisse in Spielen schlagen werden.
Korvaun
2020-05-22, 13:16:52
Na ich weiß ja nicht, wenn die Matisse-Refresh-CPUs wirklich ab Juli kommen dann ist das schon sehr kurz bis Nov/Dez 4000er-Serie-Release (hoffentlich). Wenn die Fertigung mittlerweile so gut ist das 100Mhz mehr leicht drin sind ok, kann man mitnehmen (auch als kurzfristiger Konter zu Intel), aber mehr als das? Kann ich mir nicht vorstellen das AMD dafür Ressourcen hat, gerade auch jetzt in der Corona-Zeit...
unl34shed
2020-05-22, 14:19:41
Renoir kann nur PCIe 3.0, das ist schon lange bekannt gegeben worden. Macht ja auch Sinn. Was brauchst im Laptop derzeit PCIe 4.0? Warum sollte man also etwas in der Richtung machen? Auch AMD weiß, dass sie eine passable Leistung mit nvidia GPUs bieten müssen, die kein PCIe 4.0 beherrschen, sonst hätten sie vielleicht sogar die GPU Lanes auf 8x reduziert. Renoir bietet ja 20 Lanes.
Bin schon extrem gespannt, wie sich die Desktop Varianten gegen Matisse in Spielen schlagen werden.
Ja Renoir bietet 20 Lanes, davon gehen aber im Notebook nur 8 an die GPU. 2 4x für SSD und 1 4x zum Chipsatz (im notebook dann USB, WIFI und Ethernet Controller).
Interessant wird es wie die Lanes am Desktop verteilt werden. Gibt es vielleicht noch 4 Weitere Lanes für einen x16 Slot zur GPU, die es im Notebook wegen dem Sockel nicht gibt? Oder fällt hier gar der neue zweite x4 Slot weg, weil er nicht in AM4 vorgesehen ist.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.