Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)
Savay
2023-02-10, 16:42:22
...wenn Plattform Features wie SAM/reBAR ins Spiel kommen kann es bei AMD GPU auf Intel Plattform auch eine gewisse HW-Limitierung der Plattform oder unterschiedliche Umsetzung im Detail sein, die hier für ein etwas anderes Bottleneck sorgt.
Optimiert AMD nicht auf Intel?
Optimiert Nvidia nicht für AMD CPUs?
Sowohl als auch würde ich vermuten!
Aber doch nicht wirklich, zumindest nicht bewusst oder absichtlich.
Ich würde mal davon ausgehen, das AMD GPUs auf ner AMD Plattform einfach näher am Optimum laufen, die haben in der Umgebung halt auch die volle Kontrolle über das komplette HW/SW/FW Stack.
nV wird sich einfach am Marktführer orientieren und hauptsächlich schauen das es auf dessen Plattform so gut läuft wie es nur geht.
r3ptil3
2023-02-19, 12:20:31
nV wird sich einfach am Marktführer orientieren und hauptsächlich schauen das es auf dessen Plattform so gut läuft wie es nur geht.
Halte ich für eine sehr gewagte Aussage.
PCGH: Ryzen 9 7950X3D im Geekbench: Kein Punktebonus für den Cache (https://www.pcgameshardware.de/Raphael-Codename-278188/News/Ryzen-9-7950X3D-im-Geekbench-Kein-Punktebonus-fuer-den-Cache-1413738/)
Da haben die Jungs wohl etwas verwechselt. Wenn ein tiefer getakteter und auf 120W TDP limitierter 7950X3D im Multiscore ein gleiches Ergebnis erzielt, wie der hoch getaktete und auf 170 TDP laufende 7950X, dann ergibt sich offensichtlich ein Vorteil aus dem 3D-Cache.
y33H@
2023-02-19, 12:46:37
Geekbench skaliert mies über viele Threads.
dildo4u
2023-02-19, 12:49:20
7745HX@ 95 Watt.
https://pbs.twimg.com/media/FpUn-MDaAAIsp0y?format=jpg&name=large
https://twitter.com/9550pro/status/1627251021889310720
BlacKi
2023-02-19, 13:12:53
standard TDP: 45-75 W
Ryzen 7 7745HX 1760 17644 8 / 16 3.6-5.1 GHz
MSABK
2023-02-19, 13:16:01
Ich blicke nicht mehr durch, ist dass der Chiplet Chip im Notebook?
DeadMeat
2023-02-19, 13:44:57
Ja sollte sein, Dragon Range glaub ich.
amdfanuwe
2023-02-19, 13:45:06
Ich blicke nicht mehr durch, ist dass der Chiplet Chip im Notebook?
Ja, entspricht etwa dem 7700 Desktop.
P.S. Dragon Range, erkennt man an der xx45. Entspricht den Desktop Modellen.
Achill
2023-02-19, 13:45:25
Ich blicke nicht mehr durch, ist dass der Chiplet Chip im Notebook?
Muss mal wieder sein Let me google that (https://letmegooglethat.com/?q=Ryzen+7+7745HX).. (Der erste bzw. zweite Link - je nach Sprachprofil https://www.notebookcheck.com/AMD-Ryzen-7-7745HX-Prozessor-Benchmarks-und-Specs.680192.0.html)
Lehdro
2023-02-20, 20:50:59
Neues zu X3D Varianten: (https://twitter.com/9550pro/status/1627636895714009090)
https://abload.de/img/x3dscib8.jpg
Und von Dylan Patel hat einige neue Informationen zu TSVs & anderes zu Zen 4 von der ISSCC: (https://twitter.com/dylan522p/status/1627714884648722432)
"Zen 4 targeted a technology process neutral frequency improvement of 3% and improved performance per watt compared to Zen 3" - @AMD
Zen 4” 2nd gen 3D V-cache reduced the area overhead of TSVs on the CCX die by 40%.
Design technology co-optimization techniques applied to the power grid design, as well as the standard cell library, enable minimal disruptions in cell placement, allowing for overall area and frequency improvements. Exposing standard cell pins on the local interconnect layer (M0) improves placement density and timing. The design team worked closely with TSMC to enable interconnect optimizations beyond the foundry platform offering to reduce wire capacitance by 4% resulting in a 1.5% frequency improvement.
Two cycles of latency are added to the L2 access to maintain high-frequency operation. The higher L2 hit rate achieved by the larger capacity reduces L3
cache active power by more than 10%.
Improved efficiency is achieved through a combination of process scaling, an ECC scheme implemented at a 256b granularity, which reduces storage by 4% compared to the 128b “Zen 3” ECC scheme in both the L2 and L3, and a substantially more compact LRU implementation.
Level one dcache bank conflicts are reduced by adding the ability to partially write level-one data-cache entries. Layout optimizations made to standard cells used in the dcache storage array reduce the area cost associated with adding the partial-write capability by more than 20%
#ISSCC
Sind noch ein paar Grafiken dabei, +16% Frequency bei selber Voltage für Zen 4 vs Zen 3 und >30% Performance/Watt bei niedrigen Wattagen sub 50W.
latiose88
2023-02-20, 21:19:35
Hm was mir bei den Test von Zen 4 fehlt,sind die Unterschiedlichen Ram Benchmarks damit man weis wie die jeweilige Anwendung so skaliert von ddr5 4800 auf 5200 und bis hinauf zu 6000.Weil ich suche allerdings finde ich nix.Nur halt ein ddr4 vs ddr5 vergleich.FInde ich echt schade das ganze.Aber das kostet halt leider Geld der kurze test.
nordic_pegasus
2023-02-20, 21:28:17
Neues zu X3D Varianten: (https://twitter.com/9550pro/status/1627636895714009090)
https://abload.de/img/x3dscib8.jpg
d.h. der CCD mit V-Cache wird auf dem 7950X3D langsamer boosten als der einzelne CCD mit V-Cache auf dem 7800X3D? das erklärt auch, warum AMD die beiden R9 zuerst launcht. Würde alle 3 Modelle zeitgleich kommen, würde kein Gamer einen R9 nehmen.
Irgendwie passt auch für mich die 120Watt nicht mit dem 7950X3D zusammen, wenn man hier einen CCD hat, der genau wie bei 7950X boosten soll und noch zusätzlich den V-Cache CCD. Da muss doch irgendwo das Powerlimit eingreifen.
Gibt es eigentlich schon Aussagen, ob man auch unter Win10 die R9 nutzen kann wegen Hardware Scheduler und co.? Ich wollte eigentlich nicht vor der ersten Win11 LTSC Version im Herbst wechseln.
latiose88
2023-02-20, 21:31:09
ALso es hat wer zen 4 wie den ryzen 9 7950x ohne den 3d auf Windows 10 am laufen gehabt und lief damit ohne Problem.Es war also die selbe Leistung wie unter WIndows 11 gewesen.Wolltest du das denn wissen oder was anderes?
Lehdro
2023-02-20, 22:24:03
Irgendwie passt auch für mich die 120Watt nicht mit dem 7950X3D zusammen, wenn man hier einen CCD hat, der genau wie bei 7950X boosten soll und noch zusätzlich den V-Cache CCD. Da muss doch irgendwo das Powerlimit eingreifen.
Das wird relativ irrelevant sein wenn es nicht das absolut letzte Stück Silizium ist was man aus der Ecke hervorgekramt hat: 7950X verliert absolut wahnwitzige -18% mit 88W statt 230W. Mit 142W sind es -5%. Rechne also mit ~ -10% bei dem angepeiltem Verbrauch des 7950X3D.
nordic_pegasus
2023-02-20, 22:24:12
der 7950X3D ist genauso wie Intels 12th/13th Gen eine heterogene Architektur mit unterschiedlichen Kernen. Der Task-Scheduler unter Windows muss doch bei einem 7950X3D einen Task, z.b. ein Spiel, dem passenden CCD zuweisen.
Bei Alder und Raptor muss man Win11 verwenden für optimale Leistung, weil Wintel natürlich die Optimierungen nicht in Win10 vollständig eingebaut hat. Ich frage mich nur, ob gleiches Spiel auch AMD/MS spielen und man für den 79x0X3D auf Win11 angewiesen sein wird. Der 7800X3D hat hier den Vorteil, dass man nur den V-Cache CCD bekommt. Dieser wird sich unter Windows 10 genauso verhalten wie der 5800X3D.
Falls es so kommt, wird der 7800X3D den Vorteil der Kompatibilität haben zu Win10. Wenn dann noch das Gerücht zu dem höhreren Boost-Takt des V-Cache CCD stimmen sollte, wird es zum No-Brainer für Gamer.
aufkrawall
2023-02-20, 22:26:24
Oder vielleicht auch Windows 7, oder XP. Manch einer muss wohl immer erst mit der Zeit gegangen werden...
nordic_pegasus
2023-02-20, 22:35:26
naja... Win10 ist noch voll in der Support-Phase und der Marktanteil ist mit 69% auch nicht sonderlich gering.
https://gs.statcounter.com/os-version-market-share/windows/desktop/worldwide
Für mich ist es ein wichtiges Kaufsargument für den 7800X3D, wenn dieser unter Win10 problemlos läuft und unter Win11 nicht. Kannst Du gerne anders sehen. Ich habe nur die Frage gestellt, ob es dazu Infos gibt.
Lehdro
2023-02-20, 22:36:54
Oder vielleicht auch Windows 7, oder XP. Manch einer muss wohl immer erst mit der Zeit gegangen werden...
AMD und Microsoft könnten auch mal aufhören die Zen 4 Performance unter Win 11 immer kaputtzufixen, wäre schon mal ein Anfang um die Akzeptanz der Adoption zu erhöhen.
aufkrawall
2023-02-20, 22:41:08
Gibt es, mehr oder weniger: Angeblich sollen Scheduler-Änderungen via neue Win 11-Version dafür kommen. Inwieweit da irgendwas zurückportiert wird oder nicht, ist, wie auch für Intels, nicht wirklich transparent. Und Tech-Seiten sind hier auch wieder nutzlos und testen ewig nur mit alten Windows-Versionen weiter.
Btw: Windows 10 war ja wegen der Telemetrie angeblich das böseste Windows aller Zeiten. Und nun soll es mit 11 wegen TPM der Lichtblick sein?
Uefi, Secure Boot, Telemetrie, TPM... alles das gleiche paranoide Gesülze, das zwangsläufig von der Zeit überholt werden muss. Ich kann es nicht mehr hören...
naja... Win10 ist noch voll in der Support-Phase und der Marktanteil ist mit 69% auch nicht sonderlich gering.
https://gs.statcounter.com/os-version-market-share/windows/desktop/worldwide
Für mich ist es ein wichtiges Kaufsargument für den 7800X3D, wenn dieser unter Win10 problemlos läuft und unter Win11 nicht. Kannst Du gerne anders sehen. Ich habe nur die Frage gestellt, ob es dazu Infos gibt.
Vergiss es, das hat man an ADL gesehen. Sowas gibts für 10 nicht mehr. Kannst ja 11 installieren, wenn du das haben willst.
Und aufkrawall da muss ich zustimmen.
Lurtz
2023-02-21, 10:12:00
naja... Win10 ist noch voll in der Support-Phase und der Marktanteil ist mit 69% auch nicht sonderlich gering.
https://gs.statcounter.com/os-version-market-share/windows/desktop/worldwide
Windows 10 ist ziemlich deutlich sichtbar nur noch im Extended Support und kriegt außer ein paar sinnlosen Features und Sicherheits/QoL-Patches überhaupt keine tiefgreifenden Änderungen mehr.
Btw: Windows 10 war ja wegen der Telemetrie angeblich das böseste Windows aller Zeiten. Und nun soll es mit 11 wegen TPM der Lichtblick sein?
Uefi, Secure Boot, Telemetrie, TPM... alles das gleiche paranoide Gesülze, das zwangsläufig von der Zeit überholt werden muss. Ich kann es nicht mehr hören...
Der übliche Kreislauf des Wahnsinns eines Windows-Users... Ich kann mich noch um die Hysterie vor dem Launch von Windows XP erinnern ;D
Windows 10 ist ziemlich deutlich sichtbar nur noch im Extended Support und kriegt außer ein paar sinnlosen Features und Sicherheits/QoL-Patches überhaupt keine tiefgreifenden Änderungen mehr.
Der übliche Kreislauf des Wahnsinns eines Windows-Users... Ich kann mich noch um die Hysterie vor dem Launch von Windows XP erinnern ;D
ja so gewöhnen sich einige an die Segnungen der immer mehr um sich greifenden Bevormundung und sind dann bereit für die nächsten Schritte
aceCrasher
2023-02-21, 10:29:33
Hm was mir bei den Test von Zen 4 fehlt,sind die Unterschiedlichen Ram Benchmarks damit man weis wie die jeweilige Anwendung so skaliert von ddr5 4800 auf 5200 und bis hinauf zu 6000.Weil ich suche allerdings finde ich nix.Nur halt ein ddr4 vs ddr5 vergleich.FInde ich echt schade das ganze.Aber das kostet halt leider Geld der kurze test.
https://www.youtube.com/watch?v=qLjAs_zoL7g&
^Zen4/Raptor Lake RAM Scaling.
latiose88
2023-02-21, 12:55:46
Ne sorry das ist genau das was ich eben nicht meinte dennoch danke dafür.
Meinte ja ddr5 vs ddr5 als Abstufung aber egal.
dildo4u
2023-02-21, 12:56:06
Cinebench Werte der Mobilen Zen 4 vs Alderlake.
https://cdn.videocardz.com/1/2023/02/AMD-RYZEN-7045-2.png
https://videocardz.com/newz/amd-dragon-range-ryzen-7745-7645hx-officially-compared-to-intel-12th-gen-core-series
aceCrasher
2023-02-21, 15:38:39
Ne sorry das ist genau das was ich eben nicht meinte dennoch danke dafür.
Meinte ja ddr5 vs ddr5 als Abstufung aber egal.
Doch das ist EXAKT was du meinst. In dem Video werden DDR5 4800 mit DDR5 5200 und DDR5 6000 auf Zen 4 verglichen. Schau dir das Video doch bitte erstmal an :confused:
latiose88
2023-02-21, 17:29:44
Ja bei games aber nicht bei Anwendung. Da gibt es das leider nicht. Echt schade. Zu gerne würde ich da Ergebnisse sehen. Es scheint wohl zu klein für Anwendung zu sein oder der Aufwand zu groß wer weiß.
Nightspider
2023-02-21, 17:50:19
d.h. der CCD mit V-Cache wird auf dem 7950X3D langsamer boosten als der einzelne CCD mit V-Cache auf dem 7800X3D?
Aber vinacis_vivids hat doch gesagt, der 7800X3D bekommt die Abfall-Chips? ;D
Ist eigentlich schon fast logisch, weil der zweite CCD den Kühler wenige Millimeter daneben schon aufheizt und damit das CCD mit Cache-Slice die Wärme noch schlechter abführen kann, als es so schon der Fall ist.
Dürfte eventuell aber bei Anwendungen irrelevant sein, die wenige Threads nutzen und bei Wasserkühlung. Natürlich vorstellbar das AMD dort trotzdem schon den Boosttakt stärker begrenzt.
Complicated
2023-02-21, 18:04:00
Der 7950X hat allerdings auch mehr Powerbudget zur Verfügung um mit etwas schlechteren CCDs auf den selben Takt zu kommen, sofern der CCD ohne Cache nicht genutzt wird. Dass das bei einem Boost-Takt schon der Fall ist, muss nicht gegeben sein. Der muss ja auch bei allen Kernen aktiv spezifiziert sein.
Nightspider
2023-02-21, 18:07:12
das Powerbudget ist nicht das Problem bei den V-Cache Chiplets.
Complicated
2023-02-21, 18:17:18
Über welches Problem bei den V-Cache Chiplets reden wir denn?
Nightspider
2023-02-21, 18:31:14
Wärmewiderstand
Wenn das normale Chiplet schon Wärme an den Kühler abgibt hat das zweite CCD mit V-Cache, welches sowieso schon Probleme hat die Wärme abzuführen, noch mehr damit zu kämpfen.
Der 5800X3D hat ja nur wegen dem Wärmewiderstand dieses enge Korsett bekommen. Die zwei gestackten Chips sollen nicht zu heiß werden. Worbei genaue Aussagen dazu von AMD noch nie gemacht wurden, glaube ich.
Es ist ja nicht so das AMD den 5800X3D begrenzen wollte um Strom zu sparen.
Wenn man den 5800X3D leicht unvervolted kann er bei gleicher Wärmeabgabe etwas höher takten.
In der Hinsicht bin auch auch extrem gespannt auf MI300, wenn Zen4, GPU und IO gestacked werden. Auch da wird man sicherlich sehr konservative Taktraten fahren.
Stimmt denke ich nicht. Der 3D kann genausoviel Temp ab, wie ein regulärer. Das Problem wird Maximaltakt und Maximalspannung sein. Das kann schlichtweg instabil werden aus meiner Sicht, das ist alles, worum es hier geht.
https://www.tomshardware.com/news/bios-tweak-ccd-priority
Die CCDs sind im BIOS konfigurierbar für den neuen X3D.
Zossel
2023-02-21, 22:39:59
Stimmt denke ich nicht. Der 3D kann genausoviel Temp ab, wie ein regulärer. Das Problem wird Maximaltakt und Maximalspannung sein. Das kann schlichtweg instabil werden aus meiner Sicht, das ist alles, worum es hier geht.
https://www.tomshardware.com/news/bios-tweak-ccd-priority
Die CCDs sind im BIOS konfigurierbar für den neuen X3D.
Klingt ziemlich übel, das verwirrt bestimmt nur den Scheduler vom OS.
Langsam glaub ich auch immer mehr, dass diese Lösung totaler Mist ist.
Nightspider
2023-02-22, 00:10:45
Stimmt denke ich nicht. Der 3D kann genausoviel Temp ab, wie ein regulärer. Das Problem wird Maximaltakt und Maximalspannung sein. Das kann schlichtweg instabil werden aus meiner Sicht, das ist alles, worum es hier geht.
[/url]
Die CCDs sind im BIOS konfigurierbar für den neuen X3D.
Meinst du nicht AMD hätte in der zweiten Generation den V-Cache dann so designed, dass dieser beim Takt nicht bremst?
Die 2. Gen taktet immerhin schon 15% höher als Gen 1.
Der_Korken
2023-02-22, 00:43:15
https://www.tomshardware.com/news/bios-tweak-ccd-priority
Die CCDs sind im BIOS konfigurierbar für den neuen X3D.
Das kann gut oder schlecht sein.
Gut, wenn man dadurch gute Default-Werte setzen kann, falls man eine Anwendung hat, die nicht auf der AMD/MS-Whitelist steht (oder unter Linux ...) aber standardmäßig immer auf dem (anwendungsspezifisch) langsameren CCD.
Schlecht, weil das in endlosem Gefrickel enden kann. Je nachdem, wie man irgendwelche Thresholds setzt, wird entweder das eine auf dem richtigen CCD ausgeführt und das andere nicht oder andersrum.
Ich hab ja schon mehrfach geschrieben, dass ich das für eine Bastellösung halte, die auf ewig manuelle Eingriffe erfordern wird. Populäre Anwendungen wie AAA-Spiele werden über Listen gepflegt, sodass (oder eher: damit) sie in Reviews gut laufen. Aber auch nur solange jemand diese Listen pflegt. Wer weiß ob das nach dem Zen 5 Launch überhaupt noch gemacht wird.
DavChrFen
2023-02-22, 05:42:35
Man kann seine Anwendungen doch selber auf die Cores legen. Insofern weiß ich nicht, wo das Problem ist, dass man das bei nicht-AAA-Spielen selber machen muss. Die Grafikeinstellungen muss ich doch auch in jedem Spiel am Angang selber anpassen.
Viel interessanter ist, was die da nun für Übertaktungsoptionen freigeschaltet haben.
Complicated
2023-02-22, 06:52:25
Wärmewiderstand
Wenn das normale Chiplet schon Wärme an den Kühler abgibt hat das zweite CCD mit V-Cache, welches sowieso schon Probleme hat die Wärme abzuführen, noch mehr damit zu kämpfen.
Da der Boost bei 2 CCD höher ist als bei nur einem und das bei selber TDP sehe ich dafür keine Indizien. Dass 16 Kerne beim Base Clock niedriger takten ist naheliegend und ist üblich. Der 16-Kerner ohne Cache taktet 300 MHz höher im Baseclock bei +50W TDP und boostet gleich hoch. Also ich würde schon sagen da ist der Cache an sich, und nicht der zweite CCD, der Faktor dass der Takt etwas niedriger ist. Allerdings nicht wegen Wärmeabfuhr.
Zossel
2023-02-22, 08:16:42
Viel interessanter ist, was die da nun für Übertaktungsoptionen freigeschaltet haben.
Und die Spielehersteller machen es dann wieder langsamer:
https://www.derstandard.at/story/2000143768088/ubisoft-macht-tastaturen-und-maeuse-von-cheatern-langsamer
Der_Korken
2023-02-22, 09:39:50
Man kann seine Anwendungen doch selber auf die Cores legen.
Auf Anwendungs-Level, aber nicht auf Thread-Level. Und nur statisch, d.h. es kann nicht zur Laufzeit wechseln, wenn mal cachelastige oder mal computelastige Sachen laufen.
Meinst du nicht AMD hätte in der zweiten Generation den V-Cache dann so designed, dass dieser beim Takt nicht bremst?
Die 2. Gen taktet immerhin schon 15% höher als Gen 1.
Na jo, gibt ja auch Fertigungsverbesserungen.
Zossel
2023-02-22, 10:28:34
Auf Anwendungs-Level, aber nicht auf Thread-Level. Und nur statisch, d.h. es kann nicht zur Laufzeit wechseln, wenn mal cachelastige oder mal computelastige Sachen laufen.
Ist das mal wieder so ein Windows-only Thema?
latiose88
2023-02-22, 12:11:59
Ja ich habe so eine Anwendung die bei Windows 11 merkwürdige Verhalten zeigt aber bei Windows 10 eben nicht. Scheinbar macht das Windows 10 das was es beim ryzen 9 7950x eben so machen soll. Microsoft schafft es eben irgendwie nicht wirklich das die AMD cpus super gut laufen. Merkwürdig ist das so ein Problem beim 7700x nicht der Fall ist. Also erst ab 8 Kerne aufwärts, man könnte es auch als Verschwörung gegen mehr Kerner bezeichnen.
Complicated
2023-02-22, 12:35:58
Das wird halt erst dann relevant wenn mehr als 1 CCD verbaut ist - Das hat für einige sub-8-Kerner auch Auswirkungen: https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Einige-Ryzen-5-und-Ryzen-7-sind-wieder-mit-zwei-CCDs-ausgestattet-1406412/
Der neue Fertigungsprozess von TSMC könnte besser als erwartet funktionieren und wenig Ausschuss produzieren, während gleichzeitig weniger PC-Spieler als erwartet die großen Ryzen-9-Modelle kaufen und damit die kleineren Chips nachfragen. Dadurch muss man kurzerhand einen als Ryzen 9 vorgesehenen Prozessor umlabeln und entsprechend Kerne deaktivieren.
amdfanuwe
2023-02-22, 13:35:08
Das wird halt erst dann relevant wenn mehr als 1 CCD verbaut ist - Das hat für einige sub-8-Kerner auch Auswirkungen:
Wieso sollte das Auswirkungen haben?
Der 2te CCD ist da inaktiv.
PCGamers haben noch eine 3te Möglichkeit außer acht gelassen:
Fehler beim Packaging. Der 2te CCD hat Lötfehler oder im Gesamtpaket wird nicht die Spezifikation erfüllt. Also schlechtes CCD abschalten und als 6 oder 8 Kerner verkaufen.
Der_Korken
2023-02-22, 14:05:29
Ist das mal wieder so ein Windows-only Thema?
Inwiefern windows-only? Windows-only werden imho die Whitelists und Konfigurationsmöglichkeiten sein.
Konami
2023-02-24, 12:50:32
Der 5800X3D hat ja nur wegen dem Wärmewiderstand dieses enge Korsett bekommen. Die zwei gestackten Chips sollen nicht zu heiß werden. Worbei genaue Aussagen dazu von AMD noch nie gemacht wurden, glaube ich.
Nein. Doch. Sogar schon vor Release des 5800X3D: (https://www.notebookcheck.net/AMD-reveals-surprising-reason-why-the-Ryzen-7-5800X3D-is-not-overclockable.608776.0.html)
On the desktop parts, you've seen us ship parts that range up to 1.45V or even 1.5V in boost and that is not the limit for 3D V-Cache. The voltage limit on that is more like 1.3V to 1.35V
Die Haupt-Limitation (laut AMD) war Spannung, nicht Temperatur.
Ein bisschen frage ich mich aber schon, ob das bei Zen 4 immer noch unverändert gültig ist. Mein 7600X boostet schon mit ~1,3V auf über 5,6 GHz (mit PBO). Zugegebenermaßen wassergekühlt, aber das zeigt schon, dass gut gebinnte Zen4 CCDs auch mit V-Cache eigentlich mehr können müssten als 5 GHz.
Außer der 3D-Cache ist jetzt durch den node shrink noch spannungsempfindlicher und packt auch keine 1,3V mehr...
Der_Korken
2023-02-24, 13:15:06
Außer der 3D-Cache ist jetzt durch den node shrink noch spannungsempfindlicher und packt auch keine 1,3V mehr...
Welchen Node-Shrink? Das Cache-Chiplet wird noch im guten alten 6nm-Verfahren hergestellt. Womöglich ist es sogar der gleiche Chip wie vom 5800X3D. Man kann da bei weitem nicht annehmen, dass der sich so viel besser takten lässt wie Zen 4 gegenüber Zen 3. Auch bei der Spannung.
Die werden der jetzigen X3D-Fertigung einfach 500MHz mehr zutrauen als beim alten X3D. Das ist ja nicht unbedingt nur das Cache-Die, das hier Probleme machen kann.
Konami
2023-02-24, 13:27:59
Welchen Node-Shrink? Das Cache-Chiplet wird noch im guten alten 6nm-Verfahren hergestellt. Womöglich ist es sogar der gleiche Chip wie vom 5800X3D. Man kann da bei weitem nicht annehmen, dass der sich so viel besser takten lässt wie Zen 4 gegenüber Zen 3. Auch bei der Spannung.
AFAIK ist das noch offen, oder habe ich was verpasst? Und vorher war's N7-on-N7. Jetzt könnte es N6-on-N5 oder N5-on-N5 sein.
w0mbat
2023-02-24, 13:40:11
Wann kommen eigentlich die Zen 4 X3D reviews?
Der_Korken
2023-02-24, 13:46:07
Ich kann mir nicht vorstellen, dass AMD den Cache shrinkt. Die Packdichte für DRAM nimmt durch 5nm kaum zu, d.h. der Die wird kaum kleiner. Durch die hohen N5-Preise würde der Cache deutlich teurer. Für Ryzen 3D würde sich der Shrink taktmäßig vielleicht irgendwie rechtfertigen lassen, aber ich gehe davon aus, dass das Cache-Chiplet das gleiche sein wird wie für Genoa. Und da wären 5nm völlig unnötig für 3,x Ghz. Insofern gehe ich davon aus, dass das N6-on-N5 sein wird.
Ich will den Teufel nicht an die Wand malen, aber ich hoffe, dass der Cache entweder eine eigene Voltage-Rail hat oder die Packdichte etwas verringert wurde für höhere Taktraten. Nicht dass das CCD unter dem Cache dann ständig mit unnötig hohen Spannungen laufen muss, weil der Cache den Takt (bei Spannung X) limitiert. Es könnte sein, dass der 7800X3D aus dem Grund eine höhere TDP bekommen, nämlich weil die Kerne bei 5Ghz mit 1,4V laufen müssen. Und dass das ein weiterer Grund war bei Ryzen 9 jeweils ein CCD ohne Cache zu lassen, damit dieses "normal" taktet. Kann auch völliger Blödsinn sein und die Teile stellen neue Effizienzrekorde auf, aber nach einigen komischen Entscheidungen, die AMD bei dieser Gen getroffen hat, würden mich so ein Fail nicht überraschen.
dildo4u
2023-02-24, 13:56:34
7950x3D Reviewer Guide Performance Werte.
https://videocardz.com/newz/amd-ryzen-9-7950x3d-is-6-faster-in-gaming-than-core-i9-13900k-according-to-leaked-amd-review-guide
r3ptil3
2023-02-24, 14:06:00
7950x3D Reviewer Guide Performance Werte.
https://videocardz.com/newz/amd-ryzen-9-7950x3d-is-6-faster-in-gaming-than-core-i9-13900k-according-to-leaked-amd-review-guide
https://cdn.videocardz.com/1/2023/02/AMD-RYZEN-7950X3D-LEAK-2-1200x750.jpg
Wie schon von Beginn an vermutet, unbedingt auf den 7800X3D warten.
Lehdro
2023-02-24, 14:45:38
Sieht ziemlich dünn aus. Aber interessanter wäre eh wie AMD sich mit sich selber vergleichen würde, aka 7950X vs. 7950X3D. Ich kann AMDs Werte für den 13900k halt null Einschätzen, weil ich keine Vergleichswerte (z.B. intern wie angesprochen, oder 7950X vs 13900k) habe.
r3ptil3
2023-02-24, 14:47:48
Sieht ziemlich dünn aus. Aber interessanter wäre eh wie AMD sich mit sich selber vergleichen würde, aka 7950X vs. 7950X3D. Ich kann AMDs Werte für den 13900k halt null Einschätzen, weil ich keine Vergleichswerte (z.B. intern wie angesprochen, oder 7950X vs 13900k) habe.
Zusätzlich sollte man bei Raptor Lake unbedingt auf die min. FPS achten und eine RTX 4090 fehlt in dem Test auch.
MSABK
2023-02-24, 14:50:12
Diesmal scheint der Zuwachs nicht so extrem wie bei Zen3 zu sein. Man wird wie es aussieht knapp auf 13900K Level sein.
Linmoum
2023-02-24, 14:54:32
Wie extrem der Zuwachs tatsächlich ist, lässt sich nur beurteilen, wenn die Reviewer das non-Cache-CCD abschalten und Spiele einmal ohne dieses benchen. Oder alternativ im April mit dem 7800X3D.
Lehdro
2023-02-24, 15:00:00
Diesmal scheint der Zuwachs nicht so extrem wie bei Zen3 zu sein. Man wird wie es aussieht knapp auf 13900K Level sein.
Wenn das so kommt (großes wenn), wären das ausgehend von CB (https://www.computerbase.de/2022-10/intel-core-i9-13900k-i7-13700-i5-13600k-test/5/#abschnitt_leistung_in_spielen_1080p_rtx_4090) oder PCGH (https://www.pcgameshardware.de/Core-i9-13900KS-CPU-279405/Tests/Preis-Release-Benchmark-Review-vs-13900K-1411692/2/) halt satte >20%. Das ist schon fett und mehr als damals beim 5800X3D zum 5800X, da waren es damals "nur" 15-20%.
Tesseract
2023-02-24, 15:02:48
5-6% über einem 13900K der selbst gute 15-20% über den non-3D ist ist definitiv nicht wenig.
rattentod
2023-02-24, 15:08:19
Wann kommen eigentlich die Zen 4 X3D reviews?
Am 27. Februar 2023 (siehe auch: https://videocardz.com/newz/amd-ryzen-9-7950x3d-7900x3d-reviews-go-live-on-february-27th)
Troyan
2023-02-24, 15:12:23
So, die 3D Variante ist 9% schneller als ein 13900K. Laut AMDunboxed ist ein 13900K 8% schneller als ein 7700X. Lmao.
Zeigt mal wieder, dass man den Typen nicht ernst nehmen kann.
Lehdro
2023-02-24, 15:15:19
So, die 3D Variante ist 9% schneller als ein 13900K.
Wo steht das?
KodeX
2023-02-24, 15:26:50
https://cdn.videocardz.com/1/2023/02/AMD-RYZEN-7950X3D-LEAK-3.jpg
latiose88
2023-02-24, 18:01:30
tya das zeigt mal wieder wie schön auf,das es scheinbar doch mal Grenzen gibt.Irgendwann sind halt mehr als genug Cache on mass vorhanden,so das dann der extra Cache auch kein Gewinn mehr gibt.Gillt gewiss auch bei Anwendung.Das halt nicht unendlich ne Steigerung möglich ist.
Habe ja auch schon welche vermutet das der Gewinn womöglich geringer ausfallen könnte.
dildo4u
2023-02-24, 18:03:40
Der Gewinn ist nicht geringer 15% zum normalen Modell ist auch das was AMD beim 5800x3D angegeben hat.
maximus_hertus
2023-02-24, 18:10:38
Also alles wie erwartet, es kommt also auf den Parcours an, ob der 7950X3D ganz vorne oder knapp hinter dem 13900K(S) raus kommt. Also grob Gleichstand. Montag dann die "echten" Reviews und Leo wird dann sicherlich, wie immer, eine schöne Analyse starten.
Bleiben die anderen Parameter: Stromverbrauch, Kühlbarkeit / Aufwand der Kühlung, Anforderungen an die Stromversorgung / Qualität des Boards, Abhängigkeit vom RAM-Speed, etc.
Ex3cut3r
2023-02-24, 18:36:05
Diese ganzen Cache Modelle extra herzustellen ist gar nicht mal so billig für AMD. Bei 6% auf Intel oder 15% auf den Ryzen non 3D könnte mich sich das eigentlich sparen. Weil jeder mit "getunten" RAM das gleiche Leistungsplus ohne extra 3D Cache erhält.
Wenn man mich fragt ist das absoluter Schwachsinn. Siehe HQs Bench Ergebnisse hier im Forum mit einem 5800X mit RAM Tuning und einem 5800X3D. Der 3D ist oft nur 5-10% schneller.
Ist wohl eher was für "faule"
MSABK
2023-02-24, 18:58:10
Diese ganzen Cache Modelle extra herzustellen ist gar nicht mal so billig für AMD. Bei 6% auf Intel oder 15% auf den Ryzen non 3D könnte mich sich das eigentlich sparen. Weil jeder mit "getunten" RAM das gleiche Leistungsplus ohne extra 3D Cache erhält.
Wenn man mich fragt ist das absoluter Schwachsinn. Siehe HQs Bench Ergebnisse hier im Forum mit einem 5800X mit RAM Tuning und einem 5800X3D. Der 3D ist oft nur 5-10% schneller.
Ist wohl eher was für "faule"
Alles wegen dem Balken. Es verkaufen sich halt auch die unteren Modelle besser wenn man mit dem Top Modell oben ist.
Aber so schlecht sieht es doch nicht aus finde ich. Wenn sich der 7800x3d bei so 399€ einpendelt hat man eine schnelle CPU zum guten Kurs.
amdfanuwe
2023-02-24, 19:13:14
Diese ganzen Cache Modelle extra herzustellen ist gar nicht mal so billig für AMD.
Sind ja zum Glück nur Chiplets, die auch für Server Verwendung finden.
Nightspider
2023-02-24, 19:32:18
Welchen Node-Shrink? Das Cache-Chiplet wird noch im guten alten 6nm-Verfahren hergestellt. Womöglich ist es sogar der gleiche Chip wie vom 5800X3D. Man kann da bei weitem nicht annehmen, dass der sich so viel besser takten lässt wie Zen 4 gegenüber Zen 3. Auch bei der Spannung.
Ich glaube gelesen zu haben, dass die TSVs bei Zen4 für V-Cache dichter gepackt sind und weniger Area einnehmen.
Das würde zwangsweise bedeuten, das für Zen4 ein neues V-Cache Die gemacht wurde.
Nightspider
2023-02-24, 19:39:34
Diese ganzen Cache Modelle extra herzustellen ist gar nicht mal so billig für AMD. Bei 6% auf Intel oder 15% auf den Ryzen non 3D könnte mich sich das eigentlich sparen. Weil jeder mit "getunten" RAM das gleiche Leistungsplus ohne extra 3D Cache erhält.
Wenn man mich fragt ist das absoluter Schwachsinn. Siehe HQs Bench Ergebnisse hier im Forum mit einem 5800X mit RAM Tuning und einem 5800X3D. Der 3D ist oft nur 5-10% schneller.
Ist wohl eher was für "faule"
Nur wenn man mit dem Durchschnittswert argumentiert aber es gibt eben sehr fordernde Spiele, wo eben genau dann die Leistung ""explodiert"", wenn andere CPUs gnadenlos durchhängen.
So eine CPU kauft man sich aber auch nicht für CS:GO, DOTA und Rainbow Six Siege. Niemand braucht 600-800 fps.
Wobei mir bewusst ist, das es auch teilweise diese E-Sports Titel sind, welche den Durchschnitt anheben.
Relevant für viele Gamer sind wohl eher Tests wie Flight Simulator, Battlefield, Anno usw.
In Battlefield sind bei mir die fps explodiert mit dem V-Cache im Multiplayer bei vollem Server. Das kannst du gar nicht mit diesen Durchschnitsswerten vergleichen.
Der Durchschnittswert taugt einzig und allein wenn man die Preise vergleicht.
Meine Meinung.
Natürlich hängt es auch von der persönlichen Spieleauswahl ab.
Und Vielzocker werden den Aufpreis vom 7800X3D nach 3-4 Jahren vielleicht schon wieder drin haben bei den aktuellen Energiekosten.
Du kannst dir ja ausrechnen, was so eine Intel CPU im laufen eines Jahres für zusätzliche Stromkosten verursacht, bei gleichem fps Level.
Zossel
2023-02-24, 21:01:50
Wenn man mich fragt ist das absoluter Schwachsinn. Siehe HQs Bench Ergebnisse hier im Forum mit einem 5800X mit RAM Tuning und einem 5800X3D. Der 3D ist oft nur 5-10% schneller.
Ist wohl eher was für "faule"
Nicht jeder will einen unzuverlässigen Rechner der auch möglicherweise die Platte zerschießt weil das RAM "getuned" ist.
Warum nur findet man ständig den Hinweis als erstes einen RAM-Test zu machen wenn der Rechner Probleme macht?
Tangletingle
2023-02-24, 21:02:24
Sicher nicht weil er die Platte zerschießt...
Zossel
2023-02-24, 21:08:19
Sicher nicht weil er die Platte zerschießt...
Die Verwaltungsstrukturen und Buffer für die Filesysteme im RAM sind aufgrund von welchem Effekt nicht von HW-Problemen des RAMs betroffen?
Rolsch
2023-02-24, 21:16:27
Nicht jeder will einen unzuverlässigen Rechner der auch möglicherweise die Platte zerschießt weil das RAM "getuned" ist.
Warum nur findet man ständig den Hinweis als erstes einen RAM-Test zu machen wenn der Rechner Probleme macht?
Mensch lass Exe doch in seinem Glauben dass ein optmierter irgendwas dasselbe leistet wie ein 3D. Sollte er mal im MSFS mit einer VR Brille im Tiefflug über eine Stadt fliegen wird er schon merken dass er falscher nicht liegen könnte. Auch MMO Spieler können ein Lied davon singen.
DavChrFen
2023-02-24, 21:47:30
Die Verwaltungsstrukturen und Buffer für die Filesysteme im RAM sind aufgrund von welchem Effekt nicht von HW-Problemen des RAMs betroffen?
Wenn es einen Schreib-Befehl gibt, dann geht dieser vom Prozessor aus direkt auf den Datenträger. D.h. die Befehle liegen in Cache der Prozessors, ebenso wie die Daten, die zu schreiben sind.
Jetzt könnte natürlich beides vorher im RAM gewesen sein, der es komprimitiert hat.
Bei den Befehlen wäre es ein ziemlich unwahrscheinlicher Zufall, dass davor schon nicht ein Befehl komprimitiert wurde und dadurch das Programm schon abgeschmiert ist. Außerdem sind die Teile des Programms, die wirklich was tun, meist so klein, dass die im Cache verbleiben.
Wenn die Daten kaputt sind, dann ist der Inhalt der Datei Schrott. Das wäre aber nur ein Problem von den Dateien, die gerade geschrieben werden und nicht des kompletten Datenträgers.
Buffer für die Filesysteme sind immer nur lesend. Sonst wäre bei jedem ungeplanten Neustart oder Stromausfall immer das Dateisystem kaputt.
Der_Korken
2023-02-25, 01:10:50
Ich glaube gelesen zu haben, dass die TSVs bei Zen4 für V-Cache dichter gepackt sind und weniger Area einnehmen.
Das würde zwangsweise bedeuten, das für Zen4 ein neues V-Cache Die gemacht wurde.
Guter Punkt.
][immy
2023-02-25, 01:37:31
tya das zeigt mal wieder wie schön auf,das es scheinbar doch mal Grenzen gibt.Irgendwann sind halt mehr als genug Cache on mass vorhanden,so das dann der extra Cache auch kein Gewinn mehr gibt.Gillt gewiss auch bei Anwendung.Das halt nicht unendlich ne Steigerung möglich ist.
Habe ja auch schon welche vermutet das der Gewinn womöglich geringer ausfallen könnte.
Der viel interessantere Punkt ist doch, die 120W TDP und schlägt trotzdem den "Bruder" ohne 3d Cache.
Wirklich interessant werden aber wohl die Ergebnisse der 7800x3d werden. Der boost takt gilt ja bei der größeren CPU wohl nur für die Kerne ohne 3d Cache, sollte also wohl ähnliche Ergebnisse liefern.
Finde das Konzept von 8 Kernen mit 5.6 GHz und 8 Kernen mit 5 GHz dafür mit mehr Cache aber interessant. Das könnte je nach workload durchaus Ben Unterschied machen auf welchen Kernen was läuft. Klingt nach theoretisch einiges an Kinderkrankheiten bis der Scheduler das kann.
OpenVMSwartoll
2023-02-25, 03:53:14
[immy;13245858']
[...]
Klingt nach theoretisch einiges an Kinderkrankheiten bis der Scheduler das kann.
Wenn man an Leos Meldung des Beta-BIOS denkt, läuft das Ganze auf ner tieferen Ebene.
Stichwort:
dynamic ccd priority switch with core flex, os / driver agnostic so win10 win11
amdfanuwe
2023-02-25, 06:45:48
Wenn man an Leos Meldung des Beta-BIOS denkt, läuft das Ganze auf ner tieferen Ebene.
Stichwort:
Sind die Kerne nicht schon von Werk aus nummeriert und Core 1 ist normalerweise der mit dem bestem Boost?
Core 1-8 CCD1, 9-16 CCD2
bzw. 1-6 CCD1, 7-12 CCD2
Das steckt doch eh schon drin, damit das OS weis die threads nicht wild zwischen den CCDs hin und her springen lässt.
Bei diesem Cache switch würde dann eben einmal
Core 1-8 mit Cache oder Core 1-8 ohne Cache zugewiesen.
robbitop
2023-02-25, 07:13:47
Nur wenn man mit dem Durchschnittswert argumentiert aber es gibt eben sehr fordernde Spiele, wo eben genau dann die Leistung ""explodiert"", wenn andere CPUs gnadenlos durchhängen.
So ist es. Der Durchschnittswert von +15% kommt eben aus dem arithmetischen Durchschnitt wo viele Titel drin sind die nur wenig profitieren. Und dann mag es so klingen als könnte man das mit RAM Tuning schaffem. Das stimmt aber nicht. In den Spielen in denen der L3 was bringt gibt es +30%.
Sowas wurde auch schon zum 5700X vs den 5800X3D behauptet und war direkt falsch. Halben Weg schafft man vielleicht. Aber auch beim X3D kann man RAM Tuning betreiben. Bringt dort weniger aber auch nicht nichts.
In Zeiten wo eine neue CPU Generation gerade mal 15-25% bringt ist ein zusätzlicher Sprung nur durch Cache nicht gerade klein. Man muss es halt in Relation sehen.
Schade, dass AMD schon wieder kein OC beim VCache ccd erlaubt. Das hat schon den 5800X3D zurück gehalten. Da würde bestimmt noch was gehen. Man darf nicht vergessem, dass es im arithmetischen Schnitt 15% bringt trotz guten 10% weniger Takt.
][immy
2023-02-25, 10:43:02
Das große Problem das ich sehe ist nach wie vor der Preis. Das ist Intel inzwischen günstiger. Ja Intel hat auch eine absurd hohe max TDP aber das interessiert bei Benchmarks (und damit in der Werbung) niemanden. Diesen Negativpunkt bekommt AMD nicht so schnell weg, vor allem da ein Plattform Wechsel notwendig ist. Selbst wenn die Zielgruppe der Preis der Plattform nicht so richtig tangiert, in der Werbung kommt man beim Otto normal Verbraucher schlecht weg. An and haftet halt noch der Ruf. Die Allgemeinheit ist halt eher dazu geneigt für Intel und Nvidia mehr zu berappen, aber eben nicht für AMD, selbst wenn die Leistung passen würde.
Aber bei der Leistung hat halt Intel mit dem gigantischen Power Target so viel vorgelegt, selbst wenn es eigentlich nur dazu reicht Benchmarks zu gewinnen bei einer absurd hohen Leistungsaufnahme.
Zossel
2023-02-25, 11:23:40
Wenn es einen Schreib-Befehl gibt, dann geht dieser vom Prozessor aus direkt auf den Datenträger. D.h. die Befehle liegen in Cache der Prozessors, ebenso wie die Daten, die zu schreiben sind.
Jetzt könnte natürlich beides vorher im RAM gewesen sein, der es komprimitiert hat.
Bei den Befehlen wäre es ein ziemlich unwahrscheinlicher Zufall, dass davor schon nicht ein Befehl komprimitiert wurde und dadurch das Programm schon abgeschmiert ist. Außerdem sind die Teile des Programms, die wirklich was tun, meist so klein, dass die im Cache verbleiben.
Wenn die Daten kaputt sind, dann ist der Inhalt der Datei Schrott. Das wäre aber nur ein Problem von den Dateien, die gerade geschrieben werden und nicht des kompletten Datenträgers.
Buffer für die Filesysteme sind immer nur lesend. Sonst wäre bei jedem ungeplanten Neustart oder Stromausfall immer das Dateisystem kaputt.
Bitte tu der Welt einen großen Gefallen und mach bitte nie etwas berufliches mit Computern.
y33H@
2023-02-25, 11:58:10
Wie erwartet profitiert Zen4 mit DDR5 weniger vom 3DVC als Zen3 mit DDR4, zudem die CCD-Problematik ... aber klar, erst Early Adopter abgreifen - und dann der 7800X3D.
Der_Korken
2023-02-25, 12:33:54
Wie erwartet profitiert Zen4 mit DDR5 weniger vom 3DVC als Zen3 mit DDR4, zudem die CCD-Problematik ... aber klar, erst Early Adopter abgreifen - und dann der 7800X3D.
Warum "wie erwartet"? Die Zen-4-Cores sind schneller als Zen 3, werden also potenziell stärker durch den RAM limitiert. Die Zuwächse durch DDR5 finde ich schwer einzuschätzen. Durchsatz ist sicher besser und bessere Paralliliserung durch die halbierte Channelbreite, aber die absoluten Latenzen sind gestiegen statt gesunken und das RAM-Tuning scheint bei Zen 4 mehr zu bringen als noch bei Zen 3 (und deutlich mehr als bei Intel). Ich hätte eigentlich erwartet, dass die Gewinne durch +64MB Cache bei Zen 4 größer werden als bei Zen 3. Bei anonsten gleichen Bedingungen versteht sich. Wenn der Taktverlust bei Zen 4 größer ausfällt, schmälert das natürlich den Gewinn.
mocad_tom
2023-02-25, 12:55:51
Aber Zen4 hat ja auch ein größeres Out-Of-Order-Window und mehr Schattenregister.
Alles Maßnahmen, die einen unabhängiger vom Cache machen.
Es gibt ja auch einen zweiten Grund, warum man die Taktzahl bei 3D-Cache runterregelt.
Wenn ich ein Programm wie CPUBurn anschmeiße, dann macht das in einer kleinen Schleife Iterationen von unsinnigen Handgriffen. Und lastet aber manche Segmente überhaupt nicht so stark aus (weil man das OOO-Window überhaupt nicht komplett fordert).
Jetzt pappt man aber den 3d-Cache mit dazu und damit hat die Pipeline viel weniger Bubbles drin, wo sich die Pipeline wieder "thermisch" erholen kann.
Die gesamte Pipeline mit dem OOO-Window wird nun stärker ausgelastet.
Und damit das nicht komplett wegglüht setzt man den Takt runter.
Da ist diese schlechtere Auflagefläche nur die Hälfte der Wahrheit.
y33H@
2023-02-25, 14:24:37
Warum "wie erwartet"?Weil es aufgrund der uArch Änderungen von Zen3 zu Zen4 abzusehen war, so wie es auch "mocad_tom" gerade erläutert hat. Hinzu kommt der noch stärkere Taktverlust vs den non-X3D-SKUs, weshalb Raphael relativ zu Vermeer weniger gut skalieren dürfte - was die Reviews morgen bestätigen sollten.
Der_Korken
2023-02-25, 15:05:22
Aber Zen4 hat ja auch ein größeres Out-Of-Order-Window und mehr Schattenregister.
Alles Maßnahmen, die einen unabhängiger vom Cache machen.
Da habe ich noch nicht drüber nachgedacht. Würde aber nur dann was bringen, wenn man durch das größere Fenster mehr unabhängige Loads anstoßen kann, denn wenn irgendeine alte Op, die auf den RAM wartet, den ganzen Kontrollfluss blockiert, nützt auch ein größeres Fenster nichts. Zufälligerweise hat Golden Cove einen nochmals 60% größeren ROB als Zen 4 und zeigte sich in den RAM-Tests von HWUB wesentlich robuster bei langsamen RAM.
Wenn ich ein Programm wie CPUBurn anschmeiße, dann macht das in einer kleinen Schleife Iterationen von unsinnigen Handgriffen. Und lastet aber manche Segmente überhaupt nicht so stark aus (weil man das OOO-Window überhaupt nicht komplett fordert).
Jetzt pappt man aber den 3d-Cache mit dazu und damit hat die Pipeline viel weniger Bubbles drin, wo sich die Pipeline wieder "thermisch" erholen kann.
Die gesamte Pipeline mit dem OOO-Window wird nun stärker ausgelastet.
Und damit das nicht komplett wegglüht setzt man den Takt runter.
Müsste sich eine CPU dagegen nicht ohnehin irgendwie schützen? Denn der Fall kann ja bei jeder Cache-Größe bzw. bei jeder Cache-Vergrößerung auftreten wie bei Zen 1 -> Zen 2 oder Zen 2 -> Zen 3 (wo der Takt übrigens auch jedes Mal stieg). Warum sollte ausgerechnet der Sprung von 32 auf 96MB so einen großen Impact haben, dass der Boost-Takt um mehrere 100Mhz gesenkt werden muss?
Tesseract
2023-02-25, 15:40:49
ich kann diese argumentation nicht ganz nachvollziehen. die hauptfaktoren für cacheskalierung sind wohl anzahl der threads, häufigkeit vom context switching bzw. scheduling und die größe der datenstrukturen, insebesondere der binaries. große programme mit vielen libs, viel code und viele threads die in viele nicht sequentiell liegende teile des codes eintauchen ist das was cache misses in die höhe treibt und für viele evictions sorgt.
ich rechne eigentlich nicht damit dass zen 4 weniger stark skalieren wird als zen 3, abgesehen von ein paar stark takt-limitierten spezialfällen vielleicht.
robbitop
2023-02-25, 15:44:59
Wie erwartet profitiert Zen4 mit DDR5 weniger vom 3DVC als Zen3 mit DDR4, zudem die CCD-Problematik ... aber klar, erst Early Adopter abgreifen - und dann der 7800X3D.
Der doppelt so große L2 Cache hat da sicherlich auch einen gewissen Anteil. :)
latiose88
2023-02-25, 15:45:37
Was mir aufgefallen ist das der Sprung von ddr4 auf ddr5 nur magere 3 % nur noch sind bei meiner anwendung.
Ich finde es schade das nur games gezeigt werden. Mich interessiert ob die 3 % Leistung von ddr4 3600 auf ddr5 6000,nicht auch durch einen kleineren RAM tskt nicht auf schon erreicht werden.
Ich weiß noch wie einer 5200 MHz hatte und da war das Ergebnis auch so gewesen. Vielleicht ja auch schon bei 4800 wer weis. Aber ich kann es leider nicht nachvollziehen weil ich es eben nicht testen kann und kein anderer es so hat. Echt schade. Naja bei gelegenheit und bei ausreichend Geld vorhanden, kann ich das gerne mal ausprobieren. Denn dann wird ddr5 wohl schon günstiger sein ab 2025.
robbitop
2023-02-25, 15:47:56
Warum "wie erwartet"? Die Zen-4-Cores sind schneller als Zen 3, werden also potenziell stärker durch den RAM limitiert. Die Zuwächse durch DDR5 finde ich schwer einzuschätzen. Durchsatz ist sicher besser und bessere Paralliliserung durch die halbierte Channelbreite, aber die absoluten Latenzen sind gestiegen statt gesunken und das RAM-Tuning scheint bei Zen 4 mehr zu bringen als noch bei Zen 3 (und deutlich mehr als bei Intel). Ich hätte eigentlich erwartet, dass die Gewinne durch +64MB Cache bei Zen 4 größer werden als bei Zen 3. Bei anonsten gleichen Bedingungen versteht sich. Wenn der Taktverlust bei Zen 4 größer ausfällt, schmälert das natürlich den Gewinn.
Die Redaktionen benchen meist mit gutem ram. 6000er mit expo. Zen 4 verliert (siehe hwub Test) mit schlechtem RAM mehr als Intel weil man eben den Latenznachteil der IF vs dem schnelleren Ringbus hat. Kann mir gut vorstellen, dass der vcache bei schlechtem RAM deutlich mehr bringt.
robbitop
2023-02-25, 15:51:23
Da habe ich noch nicht drüber nachgedacht. Würde aber nur dann was bringen, wenn man durch das größere Fenster mehr unabhängige Loads anstoßen kann, denn wenn irgendeine alte Op, die auf den RAM wartet, den ganzen Kontrollfluss blockiert, nützt auch ein größeres Fenster nichts. Zufälligerweise hat Golden Cove einen nochmals 60% größeren ROB als Zen 4 und zeigte sich in den RAM-Tests von HWUB wesentlich robuster bei langsamen RAM.
Ein Großteil wird vom Latenzvorteil des Ringbusses vs IF kommen. Das sind locker 15 ns bei gleichem RAM Takt. Das war auch bei Skylake schon so zu beobachten.
Schaut man sich meshbasierte Intels an, haben die das gleiche Verhalten (SKL-X und wahrscheinlich auch der neue 24C Goldencove „Sapphire Rapids“).
Der_Korken
2023-02-25, 15:53:26
Der doppelt so große L2 Cache hat da sicherlich auch einen gewissen Anteil. :)
Geht so. Im best case hat kann ein Zen 3 CCD 36MB Daten in seinen Caches halten, bei Zen 4 sind es 40MB. Im worst case, wo nur ein Thread so viel Cache braucht, sind es sogar nur 33MB vs 32,5MB.
Die Redaktionen benchen meist mit gutem ram. 6000er mit expo. Zen 4 verliert (siehe hwub Test) mit schlechtem RAM mehr als Intel weil man eben den Latenznachteil der IF vs dem schnelleren Ringbus hat. Kann mir gut vorstellen, dass der vcache bei schlechtem RAM deutlich mehr bringt.
CB und PCGH benchen afaik mit 5200er RAM. Und auch da machen die Subtiming sehr viel aus, wie man bei HWUB gesehen hat. Die haben selbst bei einem MB-Test fast 10% Performance-Unterschied zwischen schnellsten und langsamsten Board gemessen, weil die Boads beim laden des XMP/EXPO-Profils abweichende Subtimings einstellen! Aber im Grunde stärkt das ja nur das Argument, dass Zen 4 stärker am 3D-Cache hängen könnte, wenn sie schon so stark am RAM-Tuning hängen. Wer weiß was oberhalb von 6000Mhz noch gehen würde, wenn der IF-Takt noch weiter skalieren würde.
Edit:
Ein Großteil wird vom Latenzvorteil des Ringbusses vs IF kommen. Das sind locker 15 ns bei gleichem RAM Takt. Das war auch bei Skylake schon so zu beobachten.
Schaut man sich meshbasierte Intels an, haben die das gleiche Verhalten (SKL-X und wahrscheinlich auch der neue 24C Goldencove „Sapphire Rapids“).
Wo kommen denn heutzutage noch 15ns her? AMD hat mit Zen 3 stark aufgeholt und bei gleicher RAM-Config die Latenz um ~7ns gesenkt gegenüber Zen 2. Intel ist in der gleichen Zeit immer langsamer geworden, weil sie ursprünglich mit 4 core-seitigen Teilnehmern gestartet sind und mittlerweile bei 12 angekommen sind. Da sehe ich bei gleicher RAM-Config kaum noch Unterschiede. Von OC-Rekorden mit 8000er RAM natürlich abgesehen, da kommt Zen 4 einfach nicht hin.
robbitop
2023-02-25, 16:10:12
Stimmt du hast Recht. Mit 6000er RAM liegen beide bei Mitte/Ende der 60er ns. Man ist man da langsam geworden bei Intel.
Da war Zen 3 aber auch schon. Ich sehe bei Zen 4 keine Verbesserung in der Hinsicht.
y33H@
2023-02-25, 16:20:15
Der dicke L2 ist primär für Epyc hilfreich, weniger bei den Ryzen.
Der_Korken
2023-02-25, 16:46:18
Stimmt du hast Recht. Mit 6000er RAM liegen beide bei Mitte/Ende der 60er ns. Man ist man da langsam geworden bei Intel.
Da war Zen 3 aber auch schon. Ich sehe bei Zen 4 keine Verbesserung in der Hinsicht.
Der 7700K war damals ein durchoptimierter Vierkerner, der nie irgendwas anderes sein musste und keine Kompromisse eingehen musste und deswegen auf 40ns runtergetuned werden konnte. Zen dagegen war von Anfang an ein One-size-fits-all-Ansatz, d.h. es basierte komplett auf Infinity Fabric, welches im Hinblick auf Skalierung auf 32 oder gar 64 Kerne entworfen wurde. Damals hat man sich über AMDs lahmes IF lustig gemacht, aber jetzt wo Intel auch mal viele Kerne anbinden muss, merkt man, dass die auch nur mit Wasser kochen. Schneller ist Intel schon noch, auch bei gleichem RAM, aber es liegen keine Welten mehr dazwischen wie früher.
reaperrr
2023-02-25, 17:12:24
Der dicke L2 ist primär für Epyc hilfreich, weniger bei den Ryzen.
Warum?
In der Vergangenheit war es eigentlich immer so, dass ein größerer L2 gerade in Spielen einiges gebracht hat, v.a. wenn die L2-Latenz dadurch nicht nennenswert gestiegen ist (was bei Zen4 auch nicht der Fall ist).
Mich würde nicht wundern, wenn 1/3 bis 1/2 von Zen4's Spiele-IPC-Sprung vom doppelten L2 kommt. Das wäre gar nicht mal so wenig.
Klar, in anderen Anwendungen wird es nicht so viel sein, das stimmt. Aber ich denke mal, dass Spieleleistung gerade im DIY-Markt immer noch für viele eines der Hauptkriterien ist.
amdfanuwe
2023-02-25, 17:49:25
Warum?
In der Vergangenheit war es eigentlich immer so, dass ein größerer L2 gerade in Spielen einiges gebracht hat,...
Du glaubst doch nicht etwa, dass CPUs speziell für DIY Gaming entwickelt werden?
Entwickelt wird für Server. Bessere Gewinnmarge. Einige Serveranwendungen profitieren ordentlich vom großem Cache.
Das einige Spiele auch gut vom Cache profitieren ist dann mehr Zufall als geplant. Also vermarktet man entsprechende CPUs dann auch entsprechend mit Aufpreis im Desktop.
Welche dieser Extensions die im Prozessor stecken, sind denn nötig für Gaming?
AES, AMD-V, AVX, AVX2, AVX512, FMA3, MMX(+), SHA, SSE, SSE2, SSE3, SSE4.1, SSE4.2, SSE4A, SSSE3, x86-64
y33H@
2023-02-25, 17:49:43
AMDs eigene IPC Aufschlüsselung für Zen4 bei Ryzen zeigt, dass der L2 relativ zu anderen Änderungen einen ziemlich geringen Anteil hat - von 1/3 oder 1/2 meilenweit entfernt. Bei Server Workloads ist schlicht deutlich mehr L2 gefordert, siehe auch Golden Cove bei Alder Lake vs Sapphire Rapids.
Rolsch
2023-02-25, 19:17:33
Neue Leaks mit besseren zahlen:
https://wccftech.com/amd-ryzen-9-7950x3d-3d-v-cache-cpu-gaming-benchmarks-leak-up-to-35-percent-faster-than-i9-13900k/
Lehdro
2023-02-25, 19:58:19
Wie erwartet profitiert Zen4 mit DDR5 weniger vom 3DVC als Zen3 mit DDR4, zudem die CCD-Problematik ...
Laut AMD skaliert er aber vergleichbar stark?
Bei Zen 3 waren es +15% (https://www.computerbase.de/2022-01/amd-ryzen-7-5800x3d-dank-100-mb-cache-schneller-als-core-i9-12900k-im-gaming/) und jetzt laut Reviewguide +16%.
y33H@
2023-02-25, 20:19:52
Ich muss in den RG für den 5800X3D gucken, aber die Zahlen wären nur bei den selben Voraussetzungen überhaupt vergleichbar - sprich warte auf die Reviews morgen Montag.
mksn7
2023-02-25, 21:02:20
ich kann diese argumentation nicht ganz nachvollziehen. die hauptfaktoren für cacheskalierung sind wohl anzahl der threads, häufigkeit vom context switching bzw. scheduling und die größe der datenstrukturen, insebesondere der binaries. große programme mit vielen libs, viel code und viele threads die in viele nicht sequentiell liegende teile des codes eintauchen ist das was cache misses in die höhe treibt und für viele evictions sorgt.
ich rechne eigentlich nicht damit dass zen 4 weniger stark skalieren wird als zen 3, abgesehen von ein paar stark takt-limitierten spezialfällen vielleicht.
Der größte Nutzen durch größere caches liegt nicht darin, dass mehr code in die caches passt. Stalls durch cache misses beim instruction fetch, die über den L2 cache hinausgehen, dürften überaus selten sein.
Es passen größere datasets in den cache.
Sorry, aber es scheint keiner von euch hat R4 wirklich in Betrieb?!
Der L3 ist dem Durchsatz lediglich der sec. latency des Ram geschuldet und da scheint es schlicht egal zu sein, wie hoch der RAM taktet!
Lehdro
2023-02-25, 21:20:35
Ich muss in den RG für den 5800X3D gucken, aber die Zahlen wären nur bei den selben Voraussetzungen überhaupt vergleichbar - sprich warte auf die Reviews morgen.
Wieso eigentlich morgen, stand nicht Montag im Raum?
y33H@
2023-02-25, 22:20:20
Sorry, freilich Montag - war geistig iwie schon weiter ^^
bbott
2023-02-25, 22:53:14
Ist dieses mal beim Zen4 3D nicht UV möglich? Worduch im Gegensatz zum 13900K und 5950 einiges an Takt noch oben drauf kommen könnte, oder?
iamthebear
2023-02-25, 23:12:01
Wie groß der Vorteil des VCache ist hängt stark davon ab welche Spiele undvor allem welche Szenen gebenched werden.
Beim Launch des 5800X3D kam CB noch auf einen Unterschied von 15%: https://www.computerbase.de/2022-04/amd-ryzen-7-5800x3d-test/2/#abschnitt_spielebenchmarks_in_720p_fhd_und_uhd
Mit dem neuen Benchmarkparkour sind wir auf einmal bei 26%: https://www.computerbase.de/2022-09/ryzen-9-7950x-ryzen-7-7700x-gaming-benchmark-test/2/#abschnitt_benchmarks_in_spielen_in_720p
Es zeichnet sich hierbei ein klarer Trend ab: Je CPU intensiver die Spiele bzw. Szenen sind (mehr Threads, niedrigere Frameraten im CPU Limit) desto mehr Daten werden benötigt und umso wichtiger wird die L3 Kapazität und Speicherbandbreite.
AMD hat in seinem Reviewers Guide afaik nur Ergebnisse der integrierten Benchmarks inkludiert. Diese sind deutlich weniger CPU intensiv weil ja alles nur geskriptet abläuft. Der Sinn dahinter ist ja nicht die eigenen CPUs im Reviewers Guide (den normalerweise ja kein Kunde sieht) besonders toll aussehen zu lassen sondern dass man reproduzierbare Ergebnisse liefert, die die Reviewer leichtnachbenchen können. Wenn der integrierte Benchmark bei AMD z.B. 100fps liefert und beim Reviewer nur 90fps, dann ist offensichtlich etwas verkehrt.
Einmal abgesehen davon war der Parkour von AMD schon sehr alt. Auch hier lässt sich die Frage nach dem warum schnell beantworten: Selbst wenn der 7950X3D hier etwas besser als der 13900K dastehen würde: Man will sicher keine Benchmarks zeigen wo die eigenen non 3D Varianten gegen RTL überhaupt kein Land sehen.
00-Schneider
2023-02-26, 08:59:33
Wie ist das eigentlich beim Release von neuen CPUs:
Sind die ähnlich wie neue Grafikkarten Day1 direkt alle ausverkauft, und man wartet mehrere Wochen auf Nachschub, oder ist die Nachfrage hier gemäßigter? Welche Nachfrage ist für die beiden neuen X3D-Modelle am 28.02. zu erwarten?
Wie war das damals beim 5800X3D?
horn 12
2023-02-26, 09:27:49
Bei jenen gab es keine Lieferengpässe, im AMD Shop zwar nach 2 Stunden ausverkauft,- aber kam 1 - 2 Tage Nachschub.
und bei Geizhals auch gut Lieferbar.
Hate meinen sofort zu Release gekauft, 536 Euro inkl. Versand.
Denke auf den 5800X3D legt der 7950X3D / 7800X3D kaum etwas drauf, vielleicht 5 Prozent.
dildo4u
2023-02-26, 09:33:16
Nachfrage wird eher gering sein da die Masse auf das 8 Core Modell wartet, die Performance könnte dort besser sein da der Spiele Code immer auf Kernen mit 3D Cache läuft.
Der 5800x3D ging aber auch weg weil er auf den absolute billigsten b550/b450 Boards unter 100€ lief, die gibt es noch nicht für AM5.
Rolsch
2023-02-26, 10:10:14
Wie ist das eigentlich beim Release von neuen CPUs:
Sind die ähnlich wie neue Grafikkarten Day1 direkt alle ausverkauft, und man wartet mehrere Wochen auf Nachschub, oder ist die Nachfrage hier gemäßigter? Welche Nachfrage ist für die beiden neuen X3D-Modelle am 28.02. zu erwarten?
Wie war das damals beim 5800X3D?
Die Basis an aufrüstwilligen AM4 Brettern war viel höher als bei AM5, wo AMD ja Bundle Angebote raushauen muss. Die Verfügbarkeit sollte kein Problem sein.
Sardaukar.nsn
2023-02-26, 10:18:20
Nachfrage wird eher gering sein da die Masse auf das 8 Core Modell wartet, die Performance könnte dort besser sein da der Spiele Code immer auf Kernen mit 3D Cache läuft.
Daran wird sich meiner Meinung nach bis zum Ende der aktuellen Konsolen Generation nicht viel ändern.
latiose88
2023-02-26, 12:19:04
Ja sehe ich auch so, da kann auch der Nachfolger kommen wie Zen 5 und ob es dann besser wird, kann man noch nicht sagen. Zen 4 wird keine hohen Marktanteile mehr holen können. Preise sind halt einfach zu hoch und die Lust zum wechseln eben nicht mehr da.
robbitop
2023-02-26, 12:33:11
Mainboards waren und sind viel zu teuer. Sie haben wahrscheinlich gehofft, dass die Pandemiesituation wo alles an HW gekauft wird was es gibt, bleibt und keiner hat mit Rezenssion gerechnet. Und Intel hat ihre CPUs entsprechend günstiger gemacht (danke Wettbewerb! ohne AMD würden wir bei halb so vielen, langsameren Cores für höhere Preise rumgurken :D).
Klar, dass eine höhere TDP und DDR5/PCIe die Preise der Plattformen anheben. Aber nicht Faktor 2 ggü AM4. Man hätte von Anfang an Budget Optionen für <100 USD haben müssen.
Das ist IMO das größte Argument gegen Zen 4 im Moment.
Timbaloo
2023-02-26, 12:38:32
Das sehe ich genau so. AM5 macht Zen4 unnötig unattraktiv.
amdfanuwe
2023-02-26, 12:45:40
Vielleicht kommen ja noch Budget Optionen.
In etwa nur PCIe 4.0 und max 105W.
Wären dann nur für non-X CPUs geeignet und damit am Anfang uninteressant gewesen.
Mal noch etwas abwarten.
Wenn ZEN5 kommt, sind die auch erstmal hochpreisig.
ZEN4 im Abverkauf könnte dann noch gut laufen.
Bei ZEN3 ging es mit dem Nachrüsten ja auch erst richtig los nachdem die Preise und Leistung von ZEN4 klar war und die Preise für ZEN3 runter gingen.
y33H@
2023-02-26, 13:05:03
A620 steht ja noch aus ... und wollte mit einem 7700 non-X eine gute Basis bilden mit günstigem 5200er.
KarlKastor
2023-02-26, 13:09:59
Es gibt ja PCIe 4.0 only Boards. Nur sind die preislich auch nicht attraktiv.
bbott
2023-02-26, 13:29:29
Auch DDR 5 war lange Zeit sehr teuer was AMD nicht beeinflussen kann. Es waren also drei Faktoren CPU, Mobo und RAM die alle teuer sind. In der Vergangenheit waren meinst ein bis zwei Komponenten günstig und hat so ausgleichen gewirkt.
Es gibt ja neu neue Chipsatzvariante, die Boards verbilligen soll. Ich denke, einfach Geduld haben. Die ganze AM5-Nummer war kein wirklich guter Start. Die starken Probleme mit den default-Speichertimings, die teuren Boards, der nicht optimale Promontory 21... stand alles nicht unter so einem guten Stern das Ganze.
KarlKastor
2023-02-26, 15:02:33
Die Preise werden aber durch den neuen Chipset nicht besser. Es gibt dann billigere Boards, die dann eben Schrott sind.
Der B650 ist ja recht einfach ausgestattet. Wenn man sich die billigsten Boards anschaut, sind ja mATX, ist ja auch nichts an IO verbaut was ins Geld geht. Spannungswandler vielleicht für 140W. Aber übertrieben sind sie auch nicht.
Tesseract
2023-02-26, 17:17:46
Der größte Nutzen durch größere caches liegt nicht darin, dass mehr code in die caches passt. Stalls durch cache misses beim instruction fetch, die über den L2 cache hinausgehen, dürften überaus selten sein.
es geht nicht nur um den code selbst sondern um den ganzen rattenschwanz der dran hängt mit haufenweise datenstrukturoverhead (inkl. prefetching) und das ganze wird dir dann zusätzlich vom eigentlichen payload evicted und schaukelt sich weiter hoch.
00-Schneider
2023-02-26, 17:23:41
Mal eine triviale Frage:
Warum macht Intel eigentlich nicht etwas Ähnliches wie einen X3D?
Nightspider
2023-02-26, 17:27:53
In Zukunft müssten die IF Latenzen durch echtes 3D Stacking eigentlich deutlich gesenkt werden können.
2-3 Chiplets auf einem fetten Cache Die wären schon mehr als interessant, die sich dann nach außen eher wie ein nativer ManyCore geben.
Bei Zen5 soll AMD angeblich ja alles umkrempeln.
Hoffen wir mal, dass das mit dem großen IPC Zuwachs bei Zen5 dieses mal stimmt. Die Gerüchte bei Zen4 waren ja alle für die Tonne.
Mal eine triviale Frage:
Warum macht Intel eigentlich nicht etwas Ähnliches wie einen X3D?
So eine Umsetzung dauert ein paar Jahre.
Rolsch
2023-02-26, 17:29:41
Mal eine triviale Frage:
Warum macht Intel eigentlich nicht etwas Ähnliches wie einen X3D?
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56327-tsmc-soic-als-zukunftstreiber-die-technik-hinter-amds-3d-v-cache.html
Vermutlich sind sie noch nicht so weit wie TSMC.
amdfanuwe
2023-02-26, 17:44:57
Mal eine triviale Frage:
Warum macht Intel eigentlich nicht etwas Ähnliches wie einen X3D?
Intels entsprechende Technik heisst Foveros Direct.
Laut Zeitplan von 2021 hofften sie dieses Jahr damit soweit zu sein.
https://www.notebookcheck.net/Intel-details-new-process-innovations-and-node-names-Alder-Lake-10-nm-Enhanced-SuperFin-is-now-Intel-7-Intel-20A-is-the-2-nm-process-for-2024.552398.0.html
Hat AMD 2 Jahre Vorsprung.
amdfanuwe
2023-02-26, 17:57:57
In Zukunft müssten die IF Latenzen durch echtes 3D Stacking eigentlich deutlich gesenkt werden können.
2-3 Chiplets auf einem fetten Cache Die wären schon mehr als interessant, die sich dann nach außen eher wie ein nativer ManyCore geben.
Bei Zen5 soll AMD angeblich ja alles umkrempeln.
Wie soll das funktionieren, wenn es schon problematisch ist, 8 Cores an einen gemeinsamen L3 anzubinden?
Die Richtung geht bei AMD dahin die Speicherkanäle zu Cachen, IF$.
Dadurch gewinnt man an Bandbreite und hat einen unified kohärenten Cache.
Daran kann man dann Logik Chiplets, eventuell mit 3D Cache, anbinden.
CrazyIvan
2023-02-26, 18:20:39
Welchen Node-Shrink? Das Cache-Chiplet wird noch im guten alten 6nm-Verfahren hergestellt. Womöglich ist es sogar der gleiche Chip wie vom 5800X3D.
Es gab wohl einen THG Artikel, in den man diese Aussage hineininterpretieren konnte. In meinen Augen überwiegen aber die Argumente für ein neues Cache-Die:
AMD verwendet meines Wissens TSMC SoIC. Die haben nie 7/6nm on 5nm beworben.
Der bereits genannte Tweet von Dylan Patel. Man kann nur sehr schwer 40% TSV Overhead sparen, wenn eins der beiden Dies identisch bleibt, siehe: https://twitter.com/BorisTheBlade42/status/1627794380206514177?s=19
Zen3 und Zen4 CCD unterscheiden sich Recht massiv in der Länge/Höhe, Zen4 ist in der Dimension fast 1mm kürzer.
Siehe https://twitter.com/BorisTheBlade42/status/1628100704240795653?s=19
Nightspider
2023-02-26, 18:47:39
Wie soll das funktionieren, wenn es schon problematisch ist, 8 Cores an einen gemeinsamen L3 anzubinden?
Die Richtung geht bei AMD dahin die Speicherkanäle zu Cachen, IF$.
Dadurch gewinnt man an Bandbreite und hat einen unified kohärenten Cache.
Daran kann man dann Logik Chiplets, eventuell mit 3D Cache, anbinden.
Dann reden wir aber in etwa von der gleichen Sache.
Nur das durch echtes Stacking zusätzlich noch die Latenzen herunter gehen.
amdfanuwe
2023-02-26, 19:07:59
Sollte im Prinzip kein Problem sein unterschiedliche Nodes zu stacken.
Man muss dabei jedoch die unterschiedlichen Spannungsanforderungen der Nodes berücksichtigen.
Chiplets müssen nicht wiederverwendbar sein. Die produzierte Menge muss gross genug sein, damit sich der Chip lohnt.
reaperrr
2023-02-26, 19:28:25
Was man auch bedenken muss:
Im Gegensatz zu N3E, bietet N5 zumindest noch einen gewissen Packdichten-Vorteil bei SRAM (laut TSMC ca. 30%), und etwas weniger Energie verbrauchen/höher taktbar sein sollten die 5/4nm-SRAM-Zellen ebenfalls.
Natürlich sprechen die 5nm-Waferpreise auf den ersten Blick vielleicht dagegen.
Andererseits, bei perfektem Scaling von -30% Fläche für die gleiche Cache-Menge würden selbst 70% teurere Wafer nur zu ~20% teureren IF$-Stacks führen.
Wenn die dann auch noch etwas besser performen und man ein paar $ mehr verlangen kann, kann sich das schnell lohnen.
amdfanuwe
2023-02-26, 19:30:47
Dann reden wir aber in etwa von der gleichen Sache.
Nur das durch echtes Stacking zusätzlich noch die Latenzen herunter gehen.
Ah, OK. Beim Metal on Metal Stacking braucht man weniger Energie für die Übertragung und spart sich Phys.
Letztendlich eine Frage der Priorisierung, Kosten, Energieverbrauch, benötigte Bandbreite, Latenz, Aufwand, Yield...
CrazyIvan
2023-02-26, 21:32:39
Sollte im Prinzip kein Problem sein unterschiedliche Nodes zu stacken.
Das nehme ich grundsätzlich auch an. Aber es wird schon einen guten Grund geben, weshalb TSMC die per SoIC verbindbaren Strukturbreiten explizit aufführt, siehe u.a. hier:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56327-tsmc-soic-als-zukunftstreiber-die-technik-hinter-amds-3d-v-cache.html
Es lohnt sich auch immer mal wieder, sich hier eines zu vergegenwärtigen: Wir reden hier von der komplexesten und kompliziertesten Technologie der Welt. Und gerade SoIC im besonderen hat unheimlich geringe Fertigungstoleranzen.
Mal eben irgendwas zusammenklatschen kann man vielleicht auf'm Bau, nicht aber in der Bleeding Edge Halbleitertechnik.
amdfanuwe
2023-02-26, 22:01:20
Und gerade SoIC im besonderen hat unheimlich geringe Fertigungstoleranzen.
Im Prinzip geht es darum die Chips plan genug zu schleifen und genau genug zu platzieren. Ich verstehe halt nicht, was der Logik Node, außer unterschiedlichem Spannungsparametern, da ausmacht.
Vielleicht werden wir mal erfahren, warum TSMC nur 7-7 und 5-5 angibt.
basix
2023-02-26, 23:14:00
Im Prinzip geht es darum die Chips plan genug zu schleifen und genau genug zu platzieren. Ich verstehe halt nicht, was der Logik Node, außer unterschiedlichem Spannungsparametern, da ausmacht.
Vielleicht werden wir mal erfahren, warum TSMC nur 7-7 und 5-5 angibt.
Unterschiedliche Nodes = Unterschiedliche Materialien = Unterschiedliche Wärmeausdehnungskoffizienten oder das Kaltverschweissen geht nicht gleich gut
N6/7-on-N4/5 soll mWn aber kommen, da wirtschaftlich interessant. Wird vermutlich aber Anpassungen am SoIC Prozess benötigen.
amdfanuwe
2023-02-26, 23:29:25
Unterschiedliche Nodes = Unterschiedliche Materialien = Unterschiedliche Wärmeausdehnungskoffizienten oder das Kaltverschweissen geht nicht gleich gut
Also Basismaterial bleibt erstmal Silizium und die Schutzschicht oben drüber bleibt auch gleich. Die eventuelle unterschiedliche Dotierung sollte da nichts ausmachen, sonst würde es den Chip cracken.
Und Kupfer auf Kupfer bleibt Kupfer auf Kupfer.
N6/7-on-N4/5 soll mWn aber kommen, da wirtschaftlich interessant. Wird vermutlich aber Anpassungen am SoIC Prozess benötigen.
Schön. Schließlich will man ja für die entsprechende Logik den optimalen Node verwenden. Sonst könnte man auch direkt einen größeren Chip herstellen.
latiose88
2023-02-27, 01:06:04
@tesseract
Meinst du mit payload evicted das beim Cache Überlauf nicht mehr alles in den Cache passt und dann ausgelagert werden musst oder die Fehler Korrektur das diese den Cache überlaufen lassen und dann die Art der Komprimierung nicht sauber genug arbeitet oder was anderes damit gemeint gehabt?
Tesseract
2023-02-27, 01:26:30
ich weiß nicht was du mit "komprimiert" oder "überlauf" meinst. beim caching wird ein großer speicherbereich (RAM) auf einen viel kleineren (cache) gemappt. ist der adressraumunterschied z.B. 10000:1 gibt es jeweils 10000 adressen im RAM die auf eine im cache mappen. ist der cache 8x assoziativ können von diesen 10000 maximal 8 gleichzeitig im cache gehalten werden, sobald auf die 9. zugegriffen wird muss eine evicted (aus dem cache geschmissen) werden und wenn viele threads in vielen bereichen im speicher arbeiten ist die chance höher, dass diese sich gegenseitig die cachlines evicten, deswegen brauchen mehr aktive threads zwingend mehr cache um die performance gegenüber architekturen mit weniger threads überhaupt halten zu können. zusätzlich braucht man auch noch mehr cache pro thread wenn die threads jeweils einen größeren speicherfootprint haben. ein thread der auf ein paar byte speicher rumloopt ist relativ egal, ein thread der ständig auf größere datenstrukturen zugreift sehr wohl.
mit payload meine ich die eigenlichen daten vom spiel, z.B. 3D models, texturen usw. im gegensatz zu den datenstrukturen für metainformationen, organisation usw.
Nightspider
2023-02-27, 01:36:44
Ob Zen4D jetzt N7 on N5 ist oder N5 on N5 wissen wir aber noch immer nicht oder?
latiose88
2023-02-27, 01:48:01
Ja dann davor gibt es noch eine Einheit die das so vor sortiert und dann erst in das ganze rein geladen wird. Weil es ja sonst immer nur ein Überlauf geben würde.
Weil bei Nutzung von mehr Programmen gleichzeitig und zwar mehrere gleiche Programme geht es ja dann anderst zu. Und manches wird wohl auf dem RAM ausgelagert weil es ja sonst nicht mehr geht. Oder werden da nur die ganzen Befehle von dem Programm dort wo du schreibst zwischen gelagert?
Tesseract
2023-02-27, 02:02:35
ich weiß immer noch nicht was du meinst. stell dir vor der RAM ist eine bibliothek, der cache sind tische die von A bis Z durchnummeriert sind. du brauchst ein buch das mit D beginnt, holst es und legst es nach gebrauch auf den D-tisch. ein anderer braucht ein anderes D-buch, legt es danach ebenfalls auf den D-tisch. beide können jetzt ständig schnell in ihren D-büchern nachschlagen. auf den D-tisch passen aber nur 8 bücher, wenn jetzt jemand mit dem 9. kommt legt er das ebenfalls auf den D-tisch, muss aber ein anderes (z.B. das was am wenigsten verwendet wurde) zurückbringen. wenn das zurückgebrachte aber deines war hast du beim nächsten nachschlagen einen cache miss und musst das buch wieder holen gehen.
latiose88
2023-02-27, 03:49:46
Gibt es ein Programm wie viele cache misses die jeweiligen Programme so erzeugen oder kann man nicht nachsehen. Und woran erkennt man ob das Programm samt Befehle noch im Cache gehen oder schon übergehen. Kann man das echt nur per ram so feststellen?
Zossel
2023-02-27, 05:50:15
Gibt es ein Programm wie viele cache misses die jeweiligen Programme so erzeugen oder kann man nicht nachsehen. Und woran erkennt man ob das Programm samt Befehle noch im Cache gehen oder schon übergehen. Kann man das echt nur per ram so feststellen?
https://www.amd.com/en/developer/uprof.html
Die Preise werden aber durch den neuen Chipset nicht besser. Es gibt dann billigere Boards, die dann eben Schrott sind.
Der B650 ist ja recht einfach ausgestattet. Wenn man sich die billigsten Boards anschaut, sind ja mATX, ist ja auch nichts an IO verbaut was ins Geld geht. Spannungswandler vielleicht für 140W. Aber übertrieben sind sie auch nicht.
Was fürn Unsinn. Die verbillite Integration verbilligt natürlich Boards. Und die A620-Boards sind ausgestattet wie die B550-Varianten, Schrott kann ich da nicht erkennen. Und klar, OEM-Billigplatinen wirds auch geben. Musst du das kaufen?
Was man auch bedenken muss:
Im Gegensatz zu N3E, bietet N5 zumindest noch einen gewissen Packdichten-Vorteil bei SRAM (laut TSMC ca. 30%), und etwas weniger Energie verbrauchen/höher taktbar sein sollten die 5/4nm-SRAM-Zellen ebenfalls.
Natürlich sprechen die 5nm-Waferpreise auf den ersten Blick vielleicht dagegen.
Andererseits, bei perfektem Scaling von -30% Fläche für die gleiche Cache-Menge würden selbst 70% teurere Wafer nur zu ~20% teureren IF$-Stacks führen.
Wenn die dann auch noch etwas besser performen und man ein paar $ mehr verlangen kann, kann sich das schnell lohnen.
Da die eh untschiedliche Packdichten auch jetzt schon haben dürfte das wohl kaum ne Rolle spielen. Physikalische Eigenschaften des Materials aber klingt für mich sehr plausibel, von daher würde ich auch mittlerweile auf N5-Cache-Chiplets wetten.
dildo4u
2023-02-27, 12:30:19
Zen 4 V-cache CCX Prioritäts Optimierungen kommen Per Chipsatz Treiber
https://videocardz.com/newz/amd-chipset-drivers-feature-special-game-optimizations-for-ryzen-9-7000x3d-cpus
reaperrr
2023-02-27, 12:31:23
Da die eh untschiedliche Packdichten auch jetzt schon haben dürfte das wohl kaum ne Rolle spielen.
Ich meinte nicht den Packdichten-Unterschied zwischen Cache und CCD, sondern den zwischen Cache in N6 und Cache in N5.
Wenn die Cache-Chiplets in 5nm deutlich kleiner sind als in N6, ist der Kostennachteil längst nicht so groß, wie die Wafer-Preise suggerieren, weil man ja mehr Cache-Chiplets aus einem Wafer rausbekommt.
Ich wollte nur darauf hinaus, dass Cache in N5 nicht unbedingt weniger wirtschaftlich sein muss als in N6, wenn die elektrischen Eigenschaften so viel besser sind, dass auch die Endprodukte dadurch besser werden (und sich teurer verkaufen lassen).
Der Cache im Cache-Die ist eh schon weit dichter gepackt, als der Cache auf dem CCD, auch bei Zen3. Von daher wird das wohl kein Problem sein.
janz frisch:
AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/
reaperrr
2023-02-27, 15:15:26
Der Cache im Cache-Die ist eh schon weit dichter gepackt, als der Cache auf dem CCD, auch bei Zen3.
Ist das so? Das sind doch zwei Stacks, also haben 32MB 3D-Cache die gleiche Fläche wie 64MB.
Mir scheint der 3D-Cache von Zen3 eher mehr(!) Fläche zu brauchen als der On-Die-L3... aber jedenfalls nicht weniger.
Der Cache im Cache-Die ist eh schon weit dichter gepackt, als der Cache auf dem CCD, auch bei Zen3. Von daher wird das wohl kein Problem sein.
Ich versteh ehrlich gesagt nicht ganz, worauf du hinaus willst bzw. inwieweit da jetzt der Zusammenhang zu meinem Post ist. Ich glaube, wir reden aneinander vorbei und wollen auf verschiedene Dinge hinaus:smile:
Mir ging es einzig und allein darum, dass Kosten mMn nicht zwingend dagegen sprechen, den 3D-Cache auf N5 zu shrinken, weil ein 32MB-Stack in N5 kleiner als in N7 und somit der Kostenaufschlag für N5 moderat ist, und die elektrischen Vorteile das mglw. rechtfertigen.
Der_Korken
2023-02-27, 15:31:41
Ist das so? Das sind doch zwei Stacks, also haben 32MB 3D-Cache die gleiche Fläche wie 64MB.
Mir scheint der 3D-Cache von Zen3 eher mehr(!) Fläche zu brauchen als der On-Die-L3... aber jedenfalls nicht weniger.
Nein, es sind zwei Lagen insgesamt, nicht zwei zusätzlich. Das Base-Die hat 32MB, das (Singular!) Cache-CCD hat 64MB. Es sind also fsat doppelt so viele SRAM-Zellen pro Fläche, wobei das Base-Die wahrscheinlich noch zusätzliche Logik enthält und eventuell auch L2-Tags.
Zossel
2023-02-27, 16:45:26
Der Cache im Cache-Die ist eh schon weit dichter gepackt, als der Cache auf dem CCD, auch bei Zen3. Von daher wird das wohl kein Problem sein.
Das zusätzliche Die hat keine Verwaltungslogik, das besteht fast nur aus SRAM-Zellen.
Nein, es sind zwei Lagen insgesamt, nicht zwei zusätzlich. Das Base-Die hat 32MB, das (Singular!) Cache-CCD hat 64MB. Es sind also fsat doppelt so viele SRAM-Zellen pro Fläche, wobei das Base-Die wahrscheinlich noch zusätzliche Logik enthält und eventuell auch L2-Tags.
Jo und das zeigt eben, dass die Packdichte egal für den VCache als solches ist. Wichtig kann aber das unterschiedliche physikalische Verhalten der Fertigungsprozesse sein oder ob es schwer ist, bei unterschiedlichen Prozessen die TSVs korrekt zu platzieren oder sowas. Das ist auf jeden Fall erheblich plausibler als reine Cache-Packdichte.
MSABK
2023-02-27, 18:23:42
Jetzt wissen wir auch wie schnell Zen5 ca wird. Ich vermute der wird auf dem Level vom Zen4 3d sein.
reaperrr
2023-02-27, 18:52:07
Jetzt wissen wir auch wie schnell Zen5 ca wird. Ich vermute der wird auf dem Level vom Zen4 3d sein.
Die IPC soll gerüchteweise bei Zen5 relativ stark steigen, um 22-30%.
Kommt dann aber natürlich auf die Taktraten an.
robbitop
2023-02-27, 19:16:18
Das wäre ziemlich dünn. Da wird schon mehr dabei rauskommen. Erstmalig soll Zen deutlich breiter werden. Zen 4 war ja eher ein überarbeiterer Zen 3.
aceCrasher
2023-02-27, 23:31:54
janz frisch:
AMD Ryzen 9 7950X3D im Test: King of the Gaming-Hill
https://www.computerbase.de/2023-02/amd-ryzen-9-7950x3d-test/
Puhhh, Zen4 3D ist schon sehr geil. Wenn ich da die Techpowerup Nummern sehe werde ich schwach. 13900K Performance @50W mit 1x CCD off. Da bekomme ich Lust mir einen 7800X3D zu verbauen. Eigentlich wollte ich noch bis Zen 5 warten, da da meiner Meinung nach ein größerer Sprung ansteht. Andererseits wird mein treuer (und bis zum Kotzen übertakteter) i7 7820X langsam alt und zieht gut und gerne mal 150-200W beim spielen :redface:
Oder ich kauf mir jetzt einen 7800X3D + Board + RAM und tausch ihn dann in 2 Jahren gegen einen 8800X3D, was meint ihr?
reaperrr
2023-02-28, 02:15:47
Das wäre ziemlich dünn.
Stimmt, wäre nur der größte einzelne IPC-Sprung einer x86-Architektur gegenüber dem Vorgänger seit Zen1 vs. Excavator :freak: (Intels little cores mal außer Acht gelassen).
Außerdem ist der letzte Stand der Gerüchteküche auch, dass Zen5 "nur" eine Art breiterer Zen4 (also schon breiter, nur halt keine komplette Überarbeitung) und erst Zen6 ein richtig großer bzw. noch größerer Sprung werden soll.
Was natürlich nicht zwingend so stimmen muss.
robbitop
2023-02-28, 06:35:17
Stimmt, wäre nur der größte einzelne IPC-Sprung einer x86-Architektur gegenüber dem Vorgänger seit Zen1 vs. Excavator :freak: (Intels little cores mal außer Acht gelassen).
Außerdem ist der letzte Stand der Gerüchteküche auch, dass Zen5 "nur" eine Art breiterer Zen4 (also schon breiter, nur halt keine komplette Überarbeitung) und erst Zen6 ein richtig großer bzw. noch größerer Sprung werden soll.
Was natürlich nicht zwingend so stimmen muss.
Mit dem „ziemlich dünn“ bezog ich mich auf Zen 4x3d vs Zen 4 aus dem Vorpost. Zen 4x3D auf Zen4 sind 15% im Schnitt. Das ist nicht doll. Zen 3 allein brachte 19% ggü Zen 2.
Ich würde sicherlich 30% (+-5%) erwarten bei so einem radikalen Umbau.
Letzteres (Gerücht aus deinem Post) klingt nach Kokolores. Man war sehr aufmerksam und bewusst was die Breite von Zen und auch die Größe jedes Puffer angeht. Weil einfach nur breiter nix bringt und Energie und Transistoren verballert. So schlau war man. Und wenn dann muss alles perfekt zusammen passen und das klingt am wahrscheinlichsten mit einer großen Änderung oder rewrite. Und außerdem Zen 4 ist bereits ein geupdateter Zen 3. Und jetzt auf einmal macht man ein Design einfach so breiter aber nicht neu aber dafür im Folgejahr mit Zen 6? Das riecht nach BS. X-D
][immy
2023-02-28, 07:24:23
Also das ist schon echt extrem ggü der Konkurrenz, was der so weg rockt bei der Leistungsaufnahme
https://tpucdn.com/review/amd-ryzen-9-7950x3d/images/power-games.png
Loeschzwerg
2023-02-28, 08:10:50
Ja, das ist wirklich sehr stark =)
amdfanuwe
2023-02-28, 10:16:20
Und jetzt auf einmal macht man ein Design einfach so breiter aber nicht neu aber dafür im Folgejahr mit Zen 6? Das riecht nach BS. X-D
AMD macht eigentlich immer relativ kleine Schritte.
Eine total neue Architektur würde ich nicht erwarten, eher eine Evolution.
ZEN1: Infinity Links bei Naples
ZEN2: Chiplets
ZEN3: 8Core CCX, V-Cache
ZEN4: DDR5, PCIe5, Neue Platform
ZEN5: überarbeitete Cache Struktur, IF$?, AIE
ZEN6: Auf Frontend optimierte Cores
Mal sehen, was aus AIE wird.
Erledigt das, wofür mal MMX,SSE und AVX gedacht waren.
Da könnte man den Kern eventuell gar schlanker werden lassen und einiges auf AIE auslagern. Also weniger Fixed Function und dafür mehr adaptive Elemente.
Eventuell testet AMD schon bei Bergamo den IF$ um den kleineren Cache der ZEN4c zu entlasten.
Also, mit schnellerem RAM, IF$, AIE, FPGA hat AMD noch viele Möglichkeiten die Zukunft effizienter zu gestalten.
Ab ZEN7 neue Platform mit optischen Interconnects?
Nightspider
2023-02-28, 11:44:35
Jetzt wissen wir auch wie schnell Zen5 ca wird. Ich vermute der wird auf dem Level vom Zen4 3d sein.
Laber laber Rhabarbar, wir wissen gar nichts.
Zen5: Komplett neue Kernarchitektur seit Zen1, damit einhergehend neue Cache-Architektur, evtl. Direktverbindung zwischen CCX auf dem Träger, IOD, CCX-Topologie und AM5 keine Änderungen
Zen6: MMn komplett neue Plattform mit CXL, evtl. neue CCX-Topologie, optimierte Zen5-Architektur, die die low-hangig-fruits abpflückt
Zen7: Erste große Architekturänderung seit Zen5, gleiche Plattform wie Zen6
BlacKi
2023-02-28, 11:53:07
Ja, das ist wirklich sehr stark =)jop, stark im verbrauch:biggrin:
https://abload.de/img/screenshot2023-02-28asjcoz.png
Wie lange haste gebraucht, um das zu finden? :freak:
YEAAH endlich eine Strommessung, die Zen4 schlechter darstehen lässt als RPL.
Exxtreme
2023-02-28, 12:37:31
Man sollte auch "Ustawienia fabryczne" beachten. :D Das bedeutet "Einstellungen im Auslieferungszustand". :) Und die sind aus dem Screenshot nicht ersichtlich.
BlacKi
2023-02-28, 12:47:32
Wie lange haste gebraucht, um das zu finden? :freak:
YEAAH endlich eine Strommessung, die Zen4 schlechter darstehen lässt als RPL.tatsache ist, man muss wirklich danach suchen. denn generell praktisch keiner testet idle verbrauch.
als wäre es eine vorgabe von amd gewesen, bitte nicht idle testen...
Man sollte auch "Ustawienia fabryczne" beachten. Das bedeutet "Einstellungen im Auslieferungszustand". Und die sind aus dem Screenshot nicht ersichtlich.
auslieferungszustand sind 5200. mit ram oc wird das ergebnis nur noch schlimmer. bei intel hat memory oc keinen nennenswerten effekt auf den idleverbrauch. bei intel kannst du bei 6400 vl 1-2w obendraufsetzen, bei amd vermutlich nochmal 15w.
Nostalgic
2023-02-28, 12:51:05
In Sachen Stromverbrauch würde ich erstmal (auch private) Praxistests abwarten.
Nirgends habe ich so wiedersprüchliche Aussagen wie beim Stromverbrauch der letzten CPU Generationen gelesen.
Complicated
2023-02-28, 12:52:23
Na wenn der Idleverbrauch identisch zum Verbrauch im Gaming aus anderen Tests ist, würde ich schon fragen was das für ein Setting sein soll. Ein fehlender Link zur Quelle ist da nicht gerade hilfreich ;)
M4xw0lf
2023-02-28, 14:16:26
Na wenn der Idleverbrauch identisch zum Verbrauch im Gaming aus anderen Tests ist, würde ich schon fragen was das für ein Setting sein soll. Ein fehlender Link zur Quelle ist da nicht gerade hilfreich ;)
Auf jeden Fall Gesamtsystem, nicht reine CPUs. Dann könnte das schon ungefähr so stimmen. AM5 sah bisher noch nie sehr gut aus bei idle-Verbräuchen. Wer sein System hauptsächlich zum Nichtstun hat, sollte das beachten :freak:
Nostalgic
2023-02-28, 14:31:39
Stösst man nicht physikalisch an die Grenzen?
Ich mein hier 20%, da 30% oder mehr Rohleistung und gleichzeitig sinkenden Verbrauch zu erwarten ist doch irgendwie gaga.
Idleverbrauch misst ja eher das Mobo als den Prozessor :freak:
][immy
2023-02-28, 15:23:03
jop, stark im verbrauch:biggrin:
https://abload.de/img/screenshot2023-02-28asjcoz.png
Was haben die denn da kaputt gebaut? Mein 3700x ist im idle bei ~50W (Gesamtsystem). Kommt aber halt stark auf die Komponenten an, die man verbaut hat. Das Mainboard kann dabei schon eine große Rolle spielen, das Netzteil natürlich auch.
Kannst ja Mal gehen rechnen. Die CPU hat in dem von mir verlinkten Diagramm unter last deutlich weniger als das System im idle. Also wenn du bereits den Lastverbrauch davon abziehst was die gemessen haben solltest du auf die Idee kommen können das bei denen was nicht passen kann.
Oranje7
2023-02-28, 16:11:16
Also mein 5600g System zieht hier 33-36 Watt im idle (Steckdosen schätzeisen)
2 SSD 3 Gehäuse Lüfter, CPU lüfter, rx480 CPU ohne zerofan 3200er RAM
Hwinfo sagt CPU zieht so zwischen 5-7 Watt.
Da ist bei denen was schief gelaufen
Edit: selbst bei CB sind die zahlen durchweg tiefer, also Intel wie AMD. Nur Schlägt AMD viel deutlicher oben durch die Dekce bei den Russen
davidzo
2023-02-28, 16:23:25
Oder ich kauf mir jetzt einen 7800X3D + Board + RAM und tausch ihn dann in 2 Jahren gegen einen 8800X3D, was meint ihr?
Definitiv, der 7820K bremst deine GPU schon massiv aus, da helfen auch die 4,9ghz wenig. Spielst du denn wenigstens 4K?
Je nachdem wieviel der Rechner läuft kannst du das upgrade beinahe von den Energiekosten bezahlen. Habe neulich überlegt meinen x79 plattform upzugraden und dazu einen übertakteten 1650v2 mit einen R5 5600 verglichen weil die halt beide 6-cores haben. Der 5600 ist nicht nur 40% schneller pro Core, sondern verbraucht auch dabei nichtmal ein Drittel. Die Mehrenergiekosten von einem Jahr Nutzung entsprechen je nach Intensität schon fast dem Anschaffungspreis einer neuen CPU (4h pro Tag * 150Watt Mehrverbrauch, 0,50€/kwh = 110€).
Letzteres (Gerücht aus deinem Post) klingt nach Kokolores. Man war sehr aufmerksam und bewusst was die Breite von Zen und auch die Größe jedes Puffer angeht. Weil einfach nur breiter nix bringt und Energie und Transistoren verballert. So schlau war man. Und wenn dann muss alles perfekt zusammen passen und das klingt am wahrscheinlichsten mit einer großen Änderung oder rewrite. Und außerdem Zen 4 ist bereits ein geupdateter Zen 3. Und jetzt auf einmal macht man ein Design einfach so breiter aber nicht neu aber dafür im Folgejahr mit Zen 6? Das riecht nach BS. X-D
Ack! Die Verbreiterungsgerüchte stammen ja immer noch aus dem alten Interview mit Hallock afaik zu Zen3 Zeiten. Damals antwortete er auf die Frage Wieso AMD seit Zen1 die issue width nicht vergrößert hat dass AMD auch Produkte in der Pipeline habe die breiter wären, nur erstmal eher die Vorraussetzungen schaffen möchte für so eine Verbreiterung und daher mit Zen3 nochmal am Cache gearbeitet hat.
Damit war auch klar dass Zen4 noch nicht gemeint war.
Das klingt jetzt nicht wie eine starke Bekenntnis zu einer massiven Verbreiterung bei Zen5, sondern eher nach minimalen Änderungen, z,B. eine L/S unit mehr sein oder vllt. nur ein breiterer decoder.
Bis jetzt sehe ich in erster Linie massive Veränderungen der Cache-Struktur. Und was war bereits bei zen3 eine Stärke, ebenso Zen4. Cheese and Chips hat ganz gute Artikel die messen wieviel besser AMDs Cache-subsystem im Schnitt performt als das von Alderlake und Raptorlake.
Insofern finde ich das merkwürdig dass AMD hier soviel verändert. Ob die Cores dann auch so massiv verändert werden ist fraglich, normlerweise fässt AMD ja ungern so viele Sachen gleichzeitig an.
Idleverbrauch misst ja eher das Mobo als den Prozessor :freak:
Jo, die haben bei AMD das X670 MEG ACE genommen. 22+2+1 Phasen. Bei Intel nur das Z690 Unify, eine performance-plattform mit 19+2. Mit dem Z790 Ace und 24+1+2 phasen sähe das sicher etwas anders aus.
Allerdings ist die generelle Tendenz schon dass die Intel Plattformen im Schnitt einen geringeren Idleverbrauch haben und auch die Standardabweichung auch geringer ist.
Bei AMD ist das ein größeres Feld, da muss man schon sehr ins Detail gehen, was leider wenige review tun um die drastischen Unterschiede beim Idleverbrauch im voraus zu wissen.
Zossel
2023-02-28, 17:20:50
Jo, die haben bei AMD das X670 MEG ACE genommen. 22+2+1 Phasen. Bei Intel nur das Z690 Unify, eine performance-plattform mit 19+2. Mit dem Z790 Ace und 24+1+2 phasen sähe das sicher etwas anders aus.
Je überdimensionierter die Stromversorgung desto höher der Idle-Verbrauch.
latiose88
2023-02-28, 17:23:36
ZEN5: überarbeitete Cache Struktur, IF$?, AIE
ZEN6: Auf Frontend optimierte Cores
Mal sehen, was aus AIE wird.
Erledigt das, wofür mal MMX,SSE und AVX gedacht waren.
Da könnte man den Kern eventuell gar schlanker werden lassen und einiges auf AIE auslagern. Also weniger Fixed Function und dafür mehr adaptive Elemente.
Eventuell testet AMD schon bei Bergamo den IF$ um den kleineren Cache der ZEN4c zu entlasten.
Also, mit schnellerem RAM, IF$, AIE, FPGA hat AMD noch viele Möglichkeiten die Zukunft effizienter zu gestalten.
Ab ZEN7 neue Platform mit optischen Interconnects?
Heißt also so optimieren das die CPU weniger cache benötigt und dafür die latenz stark verbessert wird oder einfach den Cache vergrößern oder fügt man einfsch einen l4 Cache hinzu oder verbindet man alles mit einem schneller sram oder das gddr6+ als Cache wobei bestimmt langsamer als die ganzen Cache wäre.
Zu den Einheiten macht man dann wenige Einheiten die mit allen umgehen können ala unifed shader als wie bei gpu. Einheiten die mit allem umgehen können egal ob sse, mmx oder avx. Wo dann auch besser ausgelastet sein wird. Ob die ganzen Einheiten aktuell bei allen cpus gleichmäßig und viel ausgelastet sind kann ich nicht sagen.
Durch das zusammen legen spart es gewiss wafer Platz.
Bin so gespannt ob ich davon profitiere das es dann effizienter damit umgeht.
Achja was ist denn mit den IF$ sowie auch die adativ Elemente bei dir so gemeint?
latiose88
2023-02-28, 17:31:42
Idleverbrauch misst ja eher das Mobo als den Prozessor :freak:
OK heißt einfach das kleine Mainboard nehmen wie das A620 und schon sollte das system super sparsam sein. Finde ich super sowas.
amdfanuwe
2023-02-28, 19:37:01
Achja was ist denn mit den IF$ sowie auch die adativ Elemente bei dir so gemeint?
IF$ (Infinity Cache) ist der Cache, der die Speichercontroller cached. Wie bei RDNA2/3.
Adaptive Elemente sind an die Aufgabenstellung anpassbare Strukturen.
Schau mal hier rein: https://www.xilinx.com/products/technology/ai-engine.html
Die Vektor Prozessoren in der AIE sind in einer programmierbaren Verbindungsmatrix eingebettet.
Anstelle der Vektor Prozessoren könnte man ebenso gut X86 Cores, FPGA, Fixed Functions etc. einbinden. In der Art eines Programmieren Netzwerkes on Chip das entsprechend programmiert werden kann um den optimalen Datenfluss für eine Aufgabe abzubilden.
Das ist aber noch ferne Zukunft. Erstmal werden nur die AIE Einheiten hinzugefügt.
aceCrasher
2023-02-28, 20:09:19
Definitiv, der 7820K bremst deine GPU schon massiv aus, da helfen auch die 4,9ghz wenig. Spielst du denn wenigstens 4K?
Je nachdem wieviel der Rechner läuft kannst du das upgrade beinahe von den Energiekosten bezahlen. Habe neulich überlegt meinen x79 plattform upzugraden und dazu einen übertakteten 1650v2 mit einen R5 5600 verglichen weil die halt beide 6-cores haben. Der 5600 ist nicht nur 40% schneller pro Core, sondern verbraucht auch dabei nichtmal ein Drittel. Die Mehrenergiekosten von einem Jahr Nutzung entsprechen je nach Intensität schon fast dem Anschaffungspreis einer neuen CPU (4h pro Tag * 150Watt Mehrverbrauch, 0,50€/kwh = 110€).
Ja, ich spiele meisten in 4K auf dem Fernseher oder mit 4K DLDSR auf meinem Monitor. Eigentlich sagt mir mein Hirn aber dass 8x Skylake mit schnellem RAM eigentlich noch reichen müsste bis Zen 5. Strom zahl ich eh nur 1/3 - ich lebe in einer WG :freak:
davidzo
2023-02-28, 20:42:37
Ja, ich spiele meisten in 4K auf dem Fernseher oder mit 4K DLDSR auf meinem Monitor. Eigentlich sagt mir mein Hirn aber dass 8x Skylake mit schnellem RAM eigentlich noch reichen müsste bis Zen 5. Strom zahl ich eh nur 1/3 - ich lebe in einer WG :freak:
Skylake-X mit Mesh halt.
-> Also bei der Spieleleistung nicht mit kaby-, coffee- und cometlake vergleichbar sondern eher mit Haswell. Wenn ich mich an die Launchreviews erinnere war der langsamer in Spielen als Broadwell-E. Und der wiederum war auch kaum schneller als Haswell-E nur mit mehr Cores und geringerem Verbrauch. Und der Haswell 5960X war in spielen nicht schneller als der Ivybridge 4960x, da der viel höher taktete. Wenn ich also richtig gerechnet habe passt zwischen dem 1650v2 und deiner CPU stock nur ein Blatt Papier :freak:.
Erst mit OC dürfte Skylake-X in Games schneller sein als die anderen vintage CPUs und ein R5 5600 könnte selbst stock schon schneller sein. Und der limitiert eine 4090 schon häufiger.
Wäre mal Interessant modernere Tests zu den alten µArchs zu sehen, im Direktvergleich mit den aktuellen midrange/low cost CPUs.:biggrin:
Und ja, auch in 4K wird der 7820k sehr häzfig zum Bottleneck. Habe dazu neulich was von hwunboxed gesehen, finde es aber nicht mehr, nur das hier: plQj8i63rao
mocad_tom
2023-02-28, 22:47:22
Eine Webseite mag ein Ausreisser sein, aber zwei Webseiten sind ein Trend (idle verbrauch)
https://tweakers.net/reviews/10906/17/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-stroomverbruik-en-efficientie.html
zumal sich hier beim Stromverbrauch ein 7950 von einem 7950x3d unterscheidet
Und man muss einen 7950 mit einem DDR5 Board betreiben.
Was wurde auf Rocket Lake und Alder Lake drübergekübelt, weil sich der DDR5 controller mehr spendiert hat.
Jetzt trifft es Ryzen und plötzlich wäre das Problem kein Problem mehr?
Linmoum
2023-02-28, 23:08:39
Worum geht es? Dass der Idle-Verbrauch massiv vom getesteten Board abhängt, völlig egal ob Intel oder AMD?
y33H@
2023-02-28, 23:40:00
wäre mal Interessant modernere Tests zu den alten µArchs zu sehen, im Direktvergleich mit den aktuellen midrange/low cost CPUs.:biggrin:
https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html
https://www.golem.de/news/core-2500k-2600k-im-retro-test-so-flott-ist-sandy-bridge-heute-noch-2108-158969.html
https://www.golem.de/news/fx-8150-8370-9590-im-retro-test-so-schnell-ist-amds-bulldozer-heute-2110-159505.html
Oranje7
2023-02-28, 23:42:24
JEIN, praktisch ja...
aber theoretisch ist je nach auslegung die CPU verantwortlich.
und auf keinen fall die peripherie.
BlacKi
2023-03-01, 00:07:16
Je überdimensionierter die Stromversorgung desto höher der Idle-Verbrauch.stimmt, kannst 1-2w abziehen:rolleyes:
Worum geht es? Dass der Idle-Verbrauch massiv vom getesteten Board abhängt, völlig egal ob Intel oder AMD?
das es bei amd größere schwankungen gibt stimmt. bei intel aber eher geringfügig. ich hatte 3x sockel 1700 hier. auch die anderen boards die ich hatte wichen höchstens 3-5w von einander ab. bei intel ist das stabil.
aber es geht mit garnichtmal um das board. denn selbst wenn du ein sparsames board findest, verbraucht die intel cpu/monolitische amd apu selbst trotzdem 10x weniger strom als amds chiplet cpus.
und das hat garnichts mit dem board zu tun.
Auf jeden Fall Gesamtsystem, nicht reine CPUs. Dann könnte das schon ungefähr so stimmen. AM5 sah bisher noch nie sehr gut aus bei idle-Verbräuchen. Wer sein System hauptsächlich zum Nichtstun hat, sollte das beachten
und youtube + 3dcenter ist für die cpu nichts tun. aber wenigstens bist du nicht so verblendet wie die anderen hier.
Jetzt trifft es Ryzen und plötzlich wäre das Problem kein Problem mehr?
über was reden wir hier? chiplet cpus saufen schon je her. ist doch nichts neues. aber idle verbräuche gehören dazu, wenn man schonmal verbrauchswerte postet. das kam hier wieder mal garnicht gut an. wespennest und so.
OK heißt einfach das kleine Mainboard nehmen wie das A620 und schon sollte das system super sparsam sein. Finde ich super sowas.
nein, das heißt, chiplet cpus saufen im idle. wir reden hier von 3-4w bei monolitischen cpus und 30-40w bei chiplet cpus. das falsche mainboard machts nur schlimmer. dass das setup nicht optimal ist sieht man auch schön an den intel cpus, die sollten knapp unter 50w liegen, tun sie aber nicht. ich tippe auf das netzteil, das bei ~50w richtig scheiße ist. das netzteil wird hier 10-15w mehr verbraten. als ein effizientes.
nordic_pegasus
2023-03-01, 06:50:50
über was reden wir hier? chiplet cpus saufen schon je her. ist doch nichts neues.
kann man das so allgemein sagen? Zen2/3 haben beide den I/O-Die in 12nm genutzt, dazu häufig kombiniert mit dem X570 Chipsatz, welcher auch ein umgelabelter I/O-Die in afaik 14nm ist. Ist das also ein generelles Problem von Chiplets oder den Sparmaßnahmen von AMD geschuldet?
Ist der Idle-Verbrauch von Zen4 wirklich so hoch? Für mich ist bei AMD der Teillast-Verbrauch das Problem. Sobald die CPU nicht komplett alle Threads parken kann, geht der Verbrauch viel zu steil hoch. Ein bisschen Browsen, und schon zieht das System signifikant mehr als ein Intel System.
Gleiches Problem hat AMD auch bei RDNA3, siehe Teillast-Verbrauch z.B. bei Youtube-Videos.
Complicated
2023-03-01, 07:19:53
Eine Webseite mag ein Ausreisser sein, aber zwei Webseiten sind ein Trend (idle verbrauch)
https://tweakers.net/reviews/10906/17/ryzen-9-7950x3d-vs-core-i9-13900ks-heeft-amd-of-intel-de-snelste-gaming-cpu-stroomverbruik-en-efficientie.html
Was heisst ein Trend? Schaut ihr nur noch auf Balken?
Der erste hatte 80 W idle ausgewiesen für das Gesamtsystem, der zweite 30W für CPU und Board. Niemand behauptet Intel sei nicht sparsamer. Doch die absoluten Zahlen unterscheiden sich ja mal gravierend in beiden Tests.
Oranje7
2023-03-01, 07:58:52
aber es geht mit garnichtmal um das board. denn selbst wenn du ein sparsames board findest, verbraucht die intel cpu/monolitische amd apu selbst trotzdem 10x weniger strom als amds chiplet cpus.
und das hat garnichts mit dem board zu tun.
Laut deinem geposteten Bild sagst du gerade selbst die Unwahrheit.
Dort gibt es nähmlich keinen/minimalst unterschied zwischen 5600G und 5600.
Die haben halt einfach Misst gemessen oder was weis ich
BlacKi
2023-03-01, 10:24:16
Laut deinem geposteten Bild sagst du gerade selbst die Unwahrheit.
Dort gibt es nähmlich keinen/minimalst unterschied zwischen 5600G und 5600.
Die haben halt einfach Misst gemessen oder was weis ich
dein punkt mit dem 5600 ist valide. bei dieser einen cpu ist das anders. jetzt hoffe ich, du kannst mir erklären warum das bei dieser cpu anders ist.
ich wünsche mir, das mich da jemand aufklärt wie man chiplet cpus so optimiert, das man so niedrige idle verbräuche hinbekommt. bitte!
kann man das so allgemein sagen? Zen2/3 haben beide den I/O-Die in 12nm genutzt, dazu häufig kombiniert mit dem X570 Chipsatz, welcher auch ein umgelabelter I/O-Die in afaik 14nm ist. Ist das also ein generelles Problem von Chiplets oder den Sparmaßnahmen von AMD geschuldet?
Ist der Idle-Verbrauch von Zen4 wirklich so hoch? Für mich ist bei AMD der Teillast-Verbrauch das Problem. Sobald die CPU nicht komplett alle Threads parken kann, geht der Verbrauch viel zu steil hoch. Ein bisschen Browsen, und schon zieht das System signifikant mehr als ein Intel System.
Gleiches Problem hat AMD auch bei RDNA3, siehe Teillast-Verbrauch z.B. bei Youtube-Videos.
zen4 hat durch die bank höheren idle verbrauch, als alle anderen chiplet gens. das argument mit den 6nm hat also nicht funktioniert, es hat sich sogar umgekehrt. wo wird dann zen5 liegen?
die erste chiplet gen war noch relativ gering im mehr verbrauch, aber zen 3 hat dann nochmal was obendraufgelegt, genauso wie zen4.
CrazyIvan
2023-03-01, 10:47:22
@nordic_pegasus
Ja, das kann man bei AMD Chiplet CPUs im speziellen und bei Chiplets je nach Bauart auch im allgemeinen so sagen.
Der Verbraucher ist auch nicht direkt das IOD, sondern mittelbar der Interconnect über das Package (IFoP), der vom IOD mit Energie versorgt werden muss. Pro transferiertem bit benötigt der schlicht 10-20x so viel wie on-die (ca. 2pJ/bit vs. <0,1pJ/bit). Daher auch der ganze Hype um EMIB, INFO, Foveros, you name it.
BlacKi
2023-03-01, 10:55:08
Der Verbraucher ist auch nicht direkt das IOD, sondern mittelbar der Interconnect über das Package (IFoP), der vom IOD mit Energie versorgt werden muss. Pro transferiertem bit benötigt der schlicht 10-20x so viel wie on-die (ca. 2pJ/bit vs. <0,1pJ/bit). Daher auch der ganze Hype um EMIB, INFO, Foveros, you name it.
schön hier zu sehen was warm wird.
https://youtu.be/YAWZd6kfVV8?t=646
Oranje7
2023-03-01, 11:38:08
dein punkt mit dem 5600 ist valide. bei dieser einen cpu ist das anders. jetzt hoffe ich, du kannst mir erklären warum das bei dieser cpu anders ist.
ich wünsche mir, das mich da jemand aufklärt wie man chiplet cpus so optimiert, das man so niedrige idle verbräuche hinbekommt. bitte!
richtiges Mainboard kaufen :rolleyes: manche Boards sollen bis zu 6Watt im ausgeschalteten Zustand ziehen.
ob Chiplet oder mono liegen wohl ähnlich viele Watts wie zwischen verschiedenen DDR-konfigurationen.
BlacKi
2023-03-01, 12:11:02
richtiges Mainboard kaufen :rolleyes: manche Boards sollen bis zu 6Watt im ausgeschalteten Zustand ziehen.
ob Chiplet oder mono liegen wohl ähnlich viele Watts wie zwischen verschiedenen DDR-konfigurationen.du hast es nicht verstanden. die chiplet cpus ziehen selbst(bis auf den5600) selbst 20w im idle. mit memory oc nicht selten 30w, und bei zen4 hab ich schon 35w gesehen. idle, ohne mainboard oder ram/psu. mein 13600k braucht ohne dgpu 28 aus der dose. sag mir bitte wie ich da hinkomme mit einer amd chiplet cpu(ausser dem 5600). das geht schlichtweg nicht, IMHO.
Complicated
2023-03-01, 12:19:55
Was heisst ohne den 5600? Das ist doch genau der Punkt, der das Gegenteil beweist. Keine Ahnung warum eigene optimierte Systeme mit Reviews verglichen werden. Mein System mit 3700X benötigt ebenfalls deutlich weniger als die Tests ausweisen, mit eingebauter 5700 nur halt mit einem Board das deutlich weniger Phasen hat (X570).
Oranje7
2023-03-01, 12:45:41
Nein Blacki du verstehst es nicht. Vielleicht hilft das ein wenig:
https://www.reddit.com/r/Amd/comments/10evt0z/ryzen_vs_intels_idle_power_consumption_whole/
@Complicated: Er excludiert den 5600 weil auf der Russenseite, welche offenstlich misst gemessen hat, der eben besser wegkommt als alle anderen.
latiose88
2023-03-01, 15:55:42
Ja das kann ich bestätigen das alle die mehr als 1 chiplet haben, im idle mehr Strom ziehen.
Nun ja noch ist ja mein 5950x nicht geschlagen. Der 7700x ist jedoch nah dran den zu schlagen. Dabei habe ich da schon 2 Programme am laufen gehabt.
Scheinbar erzeugen auf der chiplet Seite nicht nur höheren stromverbrauch sondern auch ne höhere latenz.
Aber davon ist selbst Intel mit den großen montolischen cpu ebenfalls nicht davon verschont.
Scheinbar hat die Größe der cpu ebenso Auswirkung auf die latenz. Dadurch sinkt der wirkung Grad. Kein Wunder also das die Herstellern daran interessiert sind möglichst kleine cpus zu herzustellen.
Aber naja habe zwar keine Zen 4 System nur ein Zen 3 aber dafür dank andere User Ergebnisse von den Zen 4 cpus.
Habe mal die ipc die man ja eh bei selben CPU takt mal das ganze ausgerechnet.
Zen 4 alias rzyen 9 7950x hat bei 4 GHz takt nur an 5-6 % an Leistung zugelegt gehabt . Darin enthalten ddr5 und die interne Verbesserung der CPU an sich. Gehe mal davon aus das bei mir ddr5 keine leistungsgewinne zu verzeichnen ist weil Anwendung nicht Speicher limitiert ist.
Wie stark die meinige CPU an Cache limitiert wird, kann ich ja dank des eines Tools auslesen das hier gepostet worden ist. Daraus kann ich auch die abhängigkeit in Zukunft ausrechnen.
Gab es so ein Fall schon mal das weder Festplatte, Arbeitsspeicher noch der Cache der cpu limitiert hatte und somit trotz keiner limtierung dennoch die Leistung nicht so stark gestiegen war wie gedacht oder nicht?
Und das von vorhin liegt den Verdacht nahe das es entereder die software der Aufbau von chiplet nicht passt und darum die Leistung bei montolischen stärker steigt als der des chiplet Aufbau, trotz mehr kerne der CPU?
Langlay
2023-03-01, 16:26:16
du hast es nicht verstanden. die chiplet cpus ziehen selbst(bis auf den5600) selbst 20w im idle. mit memory oc nicht selten 30w, und bei zen4 hab ich schon 35w gesehen. idle, ohne mainboard oder ram/psu. mein 13600k braucht ohne dgpu 28 aus der dose. sag mir bitte wie ich da hinkomme mit einer amd chiplet cpu(ausser dem 5600). das geht schlichtweg nicht, IMHO.
Das ist imo zuviel Single CCDs CPUs sollten so 7-15W im Idle ziehen(ne nach IF Speed und Vsoc), Dual CCD liegen so bei 15-25W.
Wenn du mit X570 sparsam haben sein willst, musste halt selber Hand anlegen.
Maximal DDR3200, Vsoc <850mV, SB 1,2V auf <= 1V, SB 1V auf <825mV. Wenne dann noch den ganzen unnützen scheiss ausmacht (2. Lan, Wifi und alles was man sonst nicht braucht) komm ich mit meinem Rechner so auf 55-60W im Idle und da ist die Customwakü mit Pumpe(die Pumpe allein zieht 8-10W) dabei.
latiose88
2023-03-02, 08:23:19
https://www.amd.com/en/developer/uprof.html
Das hatte ich versucht es sagt nur leider Nr Fehlermeldung das etwas nicht klappt. Ist ja leider alles auf englisch.
Hast du das Programm selbst in Verwendung?
Bei mir scheitert es nur bei der ersten Einstellung.
Oder wer anderes sich gut damit auskennt, kann mir bitte dabei helfen. Danke schon mal im voraus für eure Hilfe.
Beim X570 müsste ab AGESA 1200 deutlich weniger Strom ziehen als vorher. Tests von davor sind halt nicht mehr zeitgemäß.
Beim Idle-Verbrauch kommts schlichtweg auf das Board an und das ist bei AMD und Intel so. Die alten IODs von AMD hatten ja auch nur wenig Powermanagement, da stimmte Blackis Anklage so halbwegs noch, aber mit dem N6-IOD, das selbst den Weg ins Notebook fand, wird das kein Argument mehr sein. Aber wir reden hier auch beim 5000er von irrelevanten Größen. Es kommt darauf an, wie die Mobo-Hersteller Zusatzcontroller implementieren, deren Powermanagement nutzen, ob sie (wirklich) abschaltbar sind, ob PCIe-Powermanagement auf dem ganzen Board korrekt implementiert ist, wie sinnlos das VRM ist usw.
Und Soft-Off-Verbrauch ist irrelevant, wenn man im BIOS Erp einschaltet, was wirklich jeder tun sollte, weil das hier aufkam.
Zossel
2023-03-02, 10:54:23
Das hatte ich versucht es sagt nur leider Nr Fehlermeldung das etwas nicht klappt.
War deine Erwartungshaltung das es dafür ein Point&Shoot Tool gibt?
Ist ja leider alles auf englisch.
Englisch sollte man können wenn man an solche Sachen ran möchte.
Hast du das Programm selbst in Verwendung?
Nein, manchmal muss man was neues lernen um was lösen zu können.
latiose88
2023-03-02, 17:56:55
War deine Erwartungshaltung das es dafür ein Point&Shoot Tool gibt?
.
ja dachte ich echt so ne Software die Automatisch erkennt weche Art des Program Art man verwendet.Wie egal was für eines,ok ist ein Videoumwandlungs Programm oder muss nicht mal sondern nur anzeigen was das so verwendet.Da muss ich die Pfade eingeben.Aber auch ein Profil.Habe den link zum Profil angegeben aber er erkannte es nicht als solches.Nur immer rot zeigt es das an.So komme ich auch leider nicht weiter.Habe gehofft es wäre so einfach.Naja dann halt leider echt nicht weiter.
Platos
2023-03-02, 18:49:38
Das ist imo zuviel Single CCDs CPUs sollten so 7-15W im Idle ziehen(ne nach IF Speed und Vsoc), Dual CCD liegen so bei 15-25W.
Wenn du mit X570 sparsam haben sein willst, musste halt selber Hand anlegen.
Maximal DDR3200, Vsoc <850mV, SB 1,2V auf <= 1V, SB 1V auf <825mV. Wenne dann noch den ganzen unnützen scheiss ausmacht (2. Lan, Wifi und alles was man sonst nicht braucht) komm ich mit meinem Rechner so auf 55-60W im Idle und da ist die Customwakü mit Pumpe(die Pumpe allein zieht 8-10W) dabei.
Wen interessiert schon idle? seichte Teillast ist der Punkt und da ist AMD im Chiplet-Design einfach mies.
Oranje7
2023-03-02, 23:17:13
sagt der schreiner vor dem herrn ;D
zwischen idle und seichter teillast also:
IGPU zeigt fernseher
EGPU zeigt dieses forum liegen bei mir 6 Watt!
würde ich den Fernseher an die Grafikkarte anschliesen wärem es 20 Watt weil die dumme Sau den Speicher dann auf maximum taktet.
die 1-5 Watt die das Chiplet design kostet, sind doch echt egal. Ich glaube der 55° Fernseher verbaucht gerade mehr
latiose88
2023-03-02, 23:44:56
ok wie wird es sich denn Verhalten bei nur ner Nutzung einer Onbard GPU,geht dann wegen sowas auch der Stromverbrauch nach oben oder hat damit die GPU was damit zu tuen bei dir?
Oranje7
2023-03-02, 23:57:26
Ich benutze beides. Also beides braucht Strom, da bei der Graka jedoch der Speicher dauerhaft niedrig taktet braucht das ganze weniger an der Steckdose.
Ist scheinbar kompliziert
natürlich braucht die IGPU strom, natürlich braucht chiplet strom.... aber hier werden immer von 30W+ geschwafelt.
Und das kann ich an keinem PC nachstellen ausser ich stelle in windoof auf Höchstleistung ein. Oder baue bewusst misst :p
dildo4u
2023-03-03, 07:53:43
AMD Top Notebook Modell@120 Watt
SuIIFE5LF_0
MSABK
2023-03-03, 08:17:16
Amd braucht nur den 3d in die Notebooks bringen und Intel ist im HighEnd Bereich verloren.
dildo4u
2023-03-03, 08:22:39
Macht imo kein Sinn da Intel im Notebook keine 300 Watt geben kann.
Performance scheint hier nicht das Problem sondern das AMD endlich genug APU/CPU für alle Segmente fertigen kann.
Ich tippe mal drauf das Modelle ohne 3d bessere Yields haben.
Corny
2023-03-03, 08:51:33
Warum muss Intel im Notebook 300 Watt geben, damit AMD eine 3D-CPU dort verbauen kann?
Für ein Gaming-Notebook mit dGPU macht ein Zen 3D durchaus sinn. Er läuft effizient und lässt damit viel thermischen Raum für die GPU.
MSABK
2023-03-03, 09:18:52
Vor allem braucht der 3d ja keinen höheren Takt und 50W reichen schon. Der Preis ist halt eine andere Frage.
dildo4u
2023-03-03, 09:24:45
Ich würde X3D einsetzen wenn Intel Meteor Lake bringt, mich überzeugen die Ryzen Modelle mit zwei CCX + X3D gar nicht.
Gegen Meteor Lake sollte ein 8 Core X3D reichen, da die neuen Intels erstmal mit weniger Kernen kommen.
amdfanuwe
2023-03-04, 22:21:19
Ausführliche Infos zu 5nm ZEN4 Chiplet und neuem 7nm Cache Die
https://www.tomshardware.com/news/amd-shares-new-second-gen-3d-v-cache-chiplet-details-up-to-25-tbs
basix
2023-03-05, 02:46:51
Ausführliche Infos zu 5nm ZEN4 Chiplet und neuem 7nm Cache Die
https://www.tomshardware.com/news/amd-shares-new-second-gen-3d-v-cache-chiplet-details-up-to-25-tbs
N7-on-N5 ;)
Der L3 ist anscheinend auf der selben Voltage Rail wie die Cores. Deswegen auch die Limitierung auf 1.15V bei den Cores und somit geringere Taktraten. Speku für Zen 5: Voltage Rails von L3 und Cache werden entkoppelt, dann könnte die Taktregression mit 3D V-Cache ihr Ende finden.
amdfanuwe
2023-03-05, 06:54:37
N7-on-N5 ;)
Der L3...
Dann haste aber wieder ein Takt/Latenzproblem.
Müsste man bei hohem Takt einen Zyklus länger auf den dann langsameren Cache warten.
basix
2023-03-05, 07:30:16
Der L3$ hat eh ~50 Cycles Latenz. Da macht ein Cycle nicht viel aus. Solange man bei ~10ns bleibt ist alles OK. Intel arbeitet schon ewigs mit unterschiedlichen Clock-Domains.
amdfanuwe
2023-03-05, 08:28:00
Dann sollte es ja in Zukunft kein Problem mehr sein.
robbitop
2023-03-05, 09:23:22
N7-on-N5 ;)
Der L3 ist anscheinend auf der selben Voltage Rail wie die Cores. Deswegen auch die Limitierung auf 1.15V bei den Cores und somit geringere Taktraten. Speku für Zen 5: Voltage Rails von L3 und Cache werden entkoppelt, dann könnte die Taktregression mit 3D V-Cache ihr Ende finden.
Man könnte ja wenigstens den Multiplikator frei lassen und die maximale Spannung cappen. Beim 5800x3d sieht man, dass in Bezug aus Spannung ordentlich reserve out of the box da ist und man mit viel weniger den Standardtakt schafft was impliziert dass man mit Nennspannung auch höhere Taktraten schaffen könnte.
Der_Korken
2023-03-05, 11:08:35
N7-on-N5 ;)
Der L3 ist anscheinend auf der selben Voltage Rail wie die Cores. Deswegen auch die Limitierung auf 1.15V bei den Cores und somit geringere Taktraten. Speku für Zen 5: Voltage Rails von L3 und Cache werden entkoppelt, dann könnte die Taktregression mit 3D V-Cache ihr Ende finden.
Ich persönlich finde den Voltage-Cap gar nicht so übel, denn er sorgt dafür, dass die Cores bei kurzen Lasten nicht mehr so absurd hohe Temp-Spikes bekommen und auch für generell wesentlich bessere Effizienz im Teillast-Bereich. Bei den 7950X3D-Reviews wurde oft der sehr geringe Verbrauch gelobt und der Cache dafür verantwortlich gemacht, weil er DRAM-Zugriffe einspart. Ich persönlich glaube, dass die 3D-Modelle deswegen so effizient sind, weil die hohen Spannungen entfallen.
Man könnte ja wenigstens den Multiplikator frei lassen und die maximale Spannung cappen. Beim 5800x3d sieht man, dass in Bezug aus Spannung ordentlich reserve out of the box da ist und man mit viel weniger den Standardtakt schafft was impliziert dass man mit Nennspannung auch höhere Taktraten schaffen könnte.
Das könnte daran liegen, dass die Spannungskurven zumindest bei Zen 3 nicht so gut gewählt sind. Wenn man per CO die Core-Spannungen optimiert, dann testet man pro Core immer den höchsten Takt, weil dieser am instabilsten läuft. Wenn man diese bis zum Anschlag optimiert hat, haben geringere Taktraten teilweise noch immer krass viel Headroom bei der Spannung. Beispiel: 1,45V bei 4,9Ghz bei ST-Last (nach Optimierung), aber bei MT-Last liegen bei 4,5Ghz immer noch 1,3V an und bei 4,2Ghz immer noch 1,2V. Theoretisch würden die 4,5Ghz aber auch mit 1,2V laufen und die 4,2Ghz sogar mit nur 1,05V. Die im AGESA hinterlegte Kurve ist also zu flach. Zieht man die Kurve weiter runter, um z.B. auf 4,5Ghz@1,2V zu kommen, dann laufen die 4,9Ghz plötzlich komplett instabil und crashen. Der 5800X3D ist beim Takt auf 4,55Ghz limitiert, scheint aber trotzdem eine ähnliche Kurve wie der 5800X3D zu haben. Zusätzlich zum UV-Potenzial des 5800X käme dann das Potenzial dazu, dass man hätte wenn man nur auf mittelhohe Taktraten optimiert und hohe Taktraten ignoriert. Sprich: Die 5800X3D mit krassem UV laufen stabil, aber die Kurve würden aber (hypothetisch) mit 5800X-Boost-Taktraten instabil werden. So sehe ich das jedenfalls.
robbitop
2023-03-05, 14:59:20
Ja das stimmt. Aber umgekehrt ist eben mit der default Spannung garantiert mehr Takt drin.
Der_Korken
2023-03-05, 15:16:40
Ja, mehr Takt bekommt man. Ich sehe das mittlerweile aber eher so, dass diese krassen ST-Boosts eigentlich unnötig sind. Man muss nicht gleich ins andere Extrem gehen und die Taktraten so weit runterziehen, dass alle Kerne gleichzeitig damit laufen können. Aber ob ein 7950X jetzt auf 5,75Ghz peakt oder auf 5,35Ghz, das wird abseits von Cinebench oder Geekbench ST nur wenig Einfluss haben, dafür könnte man aber die max. Spannung geschätzt um satte 200mV runterdrehen und die Spannungskurve leichter optimieren.
Ich selber habe vor kurzem entdeckt, dass man bei Zen 3 den CO mit dem normalen Offset Mode für alle Kerne kombinieren kann und somit effektiv auch auf kleinere Werte als -30 kommt. Ich habe den Boost Offset auf -300Mhz gestellt (4650 statt 4950Mhz) und experimentiere gerade ein wenig rum, wie weit ich mit der Spannung runterkomme. Als Nebeneffekt sieht man bei Teillast deutlich weniger Core Power (25-30% weniger), während ST-Lasten (z.B. Laden oder Kompilieren auf einem Kern) gemessen gerade mal 3-4% langsamer sind. Nur CPU-Z und Cinebench ST verlieren 6%.
Ich frage mich, ob man beim Design der Kerne noch was rausholen kann, wenn man sagt die Teile laufen mit max. 1,25V statt mit 1,5V. Den 3D-Cache kann AMD in 7nm z.B. sagenhafte 30% dichter packen als Logik+Cache in 5nm. Da wäre schon interessant, ob das auch dann noch möglich wäre, wenn das Cache-Chiplet 1,5V vertragen dürfte.
Zossel
2023-03-05, 16:53:44
Ich frage mich, ob man beim Design der Kerne noch was rausholen kann, wenn man sagt die Teile laufen mit max. 1,25V statt mit 1,5V. Den 3D-Cache kann AMD in 7nm z.B. sagenhafte 30% dichter packen als Logik+Cache in 5nm. Da wäre schon interessant, ob das auch dann noch möglich wäre, wenn das Cache-Chiplet 1,5V vertragen dürfte.
Zen4c?
Der_Korken
2023-03-05, 17:02:25
Zen4c?
Möglich. Ich frage mich aber warum man solche Kerne dann nicht standardmäßig benutzt, denn in Servern laufen die Cores eh mit max. 4Ghz und in Laptops sind zu krasse Taktraten wegen Verbrauch/Effizienz auch nicht so nice.
amdfanuwe
2023-03-05, 17:11:45
Möglich. Ich frage mich aber warum man solche Kerne dann nicht standardmäßig benutzt, denn in Servern laufen die Cores eh mit max. 4Ghz und in Laptops sind zu krasse Taktraten wegen Verbrauch/Effizienz auch nicht so nice.
Weil man es kann.
Interessiert eigentlich nur in DIY, für die Freaks die das letzte GHz rausholen wollen, um Presse für schnelle Chips zu bekommen.
basix
2023-03-07, 03:09:11
Weil man es kann.
Interessiert eigentlich nur in DIY, für die Freaks die das letzte GHz rausholen wollen, um Presse für schnelle Chips zu bekommen.
ST Performance ist für Client schon sehr wichtig. Dafür kippt man aber die Energieeffizienz etwas über Bord. Die Cores und das CCD sind jedoch primär für Server und Workstation designed. Ist für Client nicht per se schlecht, doch ST max. Performance wird relativ teuer erkauft (Power, Area).
Zen 4c hat den "ST Ballast" nicht. Deswegen kann man bei Takt und Cache zurückstutzen.
Zossel
2023-03-07, 16:32:22
Im Projekt openSIL stellt AMD Code zur Initialisierung von Epyc-CPUs bereit, um Server mit quelloffener Coreboot-Firmware zu booten statt per UEFI-BIOS.
https://www.heise.de/news/AMD-ermoeglicht-offene-Coreboot-Firmware-fuer-Epyc-Server-7534970.html
Für Embedded wäre das auch noch ein Thema.
MSABK
2023-03-10, 14:51:21
In den USA tut sich was bzgl günstiger AM5 Boards. $125 mit B650. Sollte hier dann um die 160€ kosten. Immer noch zu viel.
The B650M-HDV/M.2 supports two DDR5 memory modules, rated up to 6400 MT/s when overclocked. There are two full-size PCIe Gen4 x16 slots and one with four lanes. This platform is powered by 8+2+1 phase VRM which is enough for all Ryzen 7000 CPUs.
https://videocardz.com/newz/first-amd-am5-motherboard-is-now-available-below-125
KarlKastor
2023-03-11, 06:45:43
Wenn man überlegt, dass es selbst ein x570 Brett für 150€ gibt...
dildo4u
2023-03-11, 14:07:36
Ryzen 7945 hx Gaming Werte von AMD.
https://wccftech.com/amd-ryzen-7045-dragon-range-laptop-cpus-now-available-ryzen-9-7945hx-10-faster-than-core-i9-13950hx-in-gaming/
Und zum 7800x3d.
https://videocardz.com/newz/amd-claims-8-core-ryzen-7-7800x3d-is-20-faster-than-core-i9-13900k-in-1080p-gaming
MSABK
2023-03-11, 14:43:43
Jetzt fehlt noch der 3d zen4 im Notebook. Wird locker kühlbar sein.
dildo4u
2023-03-15, 17:45:46
2Gen 3D V-Cache weiterhin in 7nm aber kompakter als das ältere Modell.
gQvpopnDGq0
Wenn man überlegt, dass es selbst ein x570 Brett für 150€ gibt...
https://geizhals.de/gigabyte-x570s-ud-a2549347.html?hloc=at&hloc=de
Gibts sogar mit 3 m.2 :D.
Nightspider
2023-03-15, 18:39:19
2Gen 3D V-Cache weiterhin in 7nm aber kompakter als das ältere Modell.
Hatten wir hier doch schon vor fast 2 Wochen.
Viel mehr würde mich interessieren ob AMD in ihren Labs Prototypen mit deutlich mehr V-Cache Slices hat. In 7nm sind die V-Cache Chips ja billig und 7nm ist gerade gut verfügbar und günstig.
Just 4 Fun würde ich sogar ein 2 Slice V-Cache 7800X3D² kaufen, selbst wenn der 2. Slice nur noch ein Drittel vom 1. Slice bringt. :D
basix
2023-03-16, 00:13:27
Lieber bei Zen 5 ein Designansatz, wo alle CCDs ihren L3$ sharen können. Wäre ökonomischer und Multi-V-Cache-CCDs würden sich lohnen ;)
Mehr stapeln könnte man sicher, TSMC hat bereits 12-hi Stacking präsentiert. Anscheinend lohnt es sich nach aktiellen Massstäben aber zu wenig (Kosten vs. Speedup vs. Markup beim Preis)
mboeller
2023-03-16, 07:08:39
Just 4 Fun würde ich sogar ein 2 Slice V-Cache 7800X3D² kaufen, selbst wenn der 2. Slice nur noch ein Drittel vom 1. Slice bringt. :D
... und durch den schlechteren Wärmeübergang geht die max. mögliche Frequenz auf 4GHz runter, oder so.
Keine Ahnung, was für einen Einfluss das haben würde, aber besser wird die Taktbarkeit dadurch auf jeden Fall nicht.
Nightspider
2023-03-16, 09:10:47
Der Wärmewiderstand über den Cores würde sich doch nicht verändern.
Nur der Wärmewiderstand über dem Cache und dort ist's eh nicht so wichtig. ;)
Das was in allen AMD Folien immer gefehlt hat, war das Support Silicon wie hier im Schaubild:
https://www.hardwareluxx.de/images/cdn02/uploads/2022/Feb/worth_signal_y6/isscc-2022-amd-zen3-09_1920px.png
2 Layer vom V-Cache würde nur bedeuten, das der rote Slice im Bild nochmal geteilt wäre. Sollte nicht viel ausmachen, weil diese dann nicht über den Cores wären.
BlacKi
2023-03-16, 10:10:20
so ein Die ist vl knapp über 1 mm dick. davon hat amd nun knapp die hälfte weggeschliffen und durch einen extra cache ersetzt. du willst den halben mm nochmal teilen? also 0,25mm oder was?
wird das bei hbm auch os gemacht?
mboeller
2023-03-16, 10:18:36
Der Wärmewiderstand über den Cores würde sich doch nicht verändern.
Nur der Wärmewiderstand über dem Cache und dort ist's eh nicht so wichtig. ;)
Das Silikon über den Cores wird damit ja auch min. doppelt so dick.
BlacKi
2023-03-16, 10:57:17
woran liegt es denn eigentlich das praktisch alle boards keine 256gb ram support haben? pushen der HPC platformen?
Das Silikon über den Cores wird damit ja auch min. doppelt so dick.nein, er will den cache in der höhe halbieren. die cache stacks nur halb so hoch machen.
dildo4u
2023-03-16, 12:18:43
woran liegt es denn eigentlich das praktisch alle boards keine 256gb ram support haben? pushen der HPC platformen?
192GB soll mit einem neuen Bios möglich sein ich würde mehr in Zukunft nicht ausschließen, das scheint alles noch nicht fertig gebacken.
https://videocardz.com/newz/asus-teases-rog-x670e-motherboard-support-for-192gb-ddr5-memory
Epyc hat auch Probleme und dort ist es keine Segmentierung.
https://www.computerbase.de/2023-03/marketing-spielereien-intel-stichelt-gegen-amd-und-die-genoa-speicherprobleme/
amdfanuwe
2023-03-16, 17:32:47
Lieber bei Zen 5 ein Designansatz, wo alle CCDs ihren L3$ sharen können. Wäre ökonomischer und Multi-V-Cache-CCDs würden sich lohnen ;)
Mehr stapeln könnte man sicher, TSMC hat bereits 12-hi Stacking präsentiert. Anscheinend lohnt es sich nach aktiellen Massstäben aber zu wenig (Kosten vs. Speedup vs. Markup beim Preis)
Globaler Cache kommt doch, nennt sich IF$ und sitzt im I/O Die.
Ich spekuliere darauf, das schon Bergamo damit kommt. Müsste man in den nächsten paar Monaten ja mehr dazu erfahren.
Zumindest für MI300 ist IF$ ja schon bestätigt.
83124
Etwas merkwürdig, das MI300 auf den Folien im SP5 Sockel dargestellt wird.
Hast due einen Link zum 12-hi Stack?
Nicht dass du das mit HBM verwechselst.
Da wurde bisher eine andere Technik eingesetzt als AMDs V-Cache sie verwendet.
83123
https://www.golem.de/news/stacked-memory-lecker-stapelchips-1412-111215-5.html
robbitop
2023-03-17, 09:17:46
Cache im I/O Die hat allerdings den Nachteil, dass es Latenz kostet. Gerade wegen der geringen Entfernung bringt VCache ja richtig was. Weil die 64 mb auf der Z-Achse auf den planaren Cache gestapelt werden, wird die Latenz gemessen an der Größe erst so wahnsinnig gut.
Ein Cache im I/O Die wäre dann zwar potentiell besser nutzbar, da von allein erreichbar aber wesentlich langsamer.
][immy
2023-03-17, 09:52:50
In den USA tut sich was bzgl günstiger AM5 Boards. $125 mit B650. Sollte hier dann um die 160€ kosten. Immer noch zu viel.
https://videocardz.com/newz/first-amd-am5-motherboard-is-now-available-below-125
Vor allem verzichtet man dann wieder auf PCIe 5 für die GPU. Was heute zwar noch nicht interessant ist, aber da der Plattform Wechsel schon recht teuer ist und man hier für mehrere Jahre kalkuliert ist das dann schon wieder so eine Sache die man vielleicht mitnehmen möchte, wodurch die Mainboards aber extrem im Preis steigen.
Ich verstehe aber auch nicht warum es bei vielen Boards überhaupt noch nen zweiten PCIe x16 Port gibt. Sli und Crossfire sind tot und es gibt nur sehr wenige Anwendungsfälle für den zweiten Slot. Da müsste es doch mehr Platinen mit nur einem x16 Slot geben, dafür eventuell nen weitern m.2 Slot.
Ja, man kann auch nen m.2 Adapter unterbringen, ist aber auch eher nein Spezialfall.
Und ich wage zu behaupten das auch ein kleinerer Slot für eine m.2 Erweiterungskarte in den meisten Fällen ausreicht, da es nur wenige Anwendungsfälle gibt in denen man wirklich volle Geschwindigkeit gleichzeitig mit alle SSDs braucht.
Aber irgendwie scheinen alle Boards sich auf diesen selten Anwendungsfall zu konzentrieren.
Zossel
2023-03-17, 10:24:56
[immy;13260343']Ich verstehe aber auch nicht warum es bei vielen Boards überhaupt noch nen zweiten PCIe x16 Port gibt. Sli und Crossfire sind tot und es gibt nur sehr wenige Anwendungsfälle für den zweiten Slot. Da müsste es doch mehr Platinen mit nur einem x16 Slot geben, dafür eventuell nen weitern m.2 Slot.
Elektrisch ist der Zweite x4, lediglich mechanisch ist der Zweite x16.
Cache im I/O Die hat allerdings den Nachteil, dass es Latenz kostet. Gerade wegen der geringen Entfernung bringt VCache ja richtig was. Weil die 64 mb auf der Z-Achse auf den planaren Cache gestapelt werden, wird die Latenz gemessen an der Größe erst so wahnsinnig gut.
Ein Cache im I/O Die wäre dann zwar potentiell besser nutzbar, da von allein erreichbar aber wesentlich langsamer.
Wird mMn keinen Cache im IOD geben, weil es kein neues IOD geben wird. Das wird denke ich anders gelöst.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.