Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 4 (Raphael, Phoenix & Genoa, 5 nm, AM5, DDR5, PCIe 5.0, Ende 2022)
davidzo
2022-12-19, 12:58:24
Preislich sind die aber in einer andere Liga angesiedelt. Der 7600X ist mittlerweile bei 250€ angekommen un der 7700X bei 365€. Dann wird der 7700 um die 300€ kosten und der 7600 um die 200€. Ist doch furzegal, was die auf ihre Folien schreiben. Die Dinger sind wieder so günstig, dass die glatt empfehlenswert sind. DDR5 ist ja jetzt auch nicht mehr so teuer, nur muss man 200€ für ein Brett kalkulieren, das hat dann aber schon 3 m.2. Ich bin sehr angetan von der jetzigen Preisstruktur.
Günstig? Was hast du denn genommen?
Das sind immer noch über 150€ premium für leicht schlechtere performance.
Der 13600K ist 20€ günstiger als der 7700x, 5% schneller in Games und fast 10% schneller in Anwendungen.
Und wenn man die KF Variante in Betracht zieht ist der Unterschied sogar 40€.
Die Plattform ist nochmal min 70€ günstiger und der RAM ebenfalls gute 20€.
Ein vollständiges Kit aus 13600KF + B660 und 32Gb DDR4 kriegt man unter 500€. Dafür kriegst du nichtmal ein 7600x mit Plattform.
Ein vergleichbares 7700x system kriegst du nicht under 650€.
Jetzt dramatisier das nicht so. Man sieht doch, wohin die Preise gehen. Und DDR5 kostet bei 32GB nur noch 50€ mehr, das wird im Laufe des Q1 gleich werden. Boards sind halt noch teurer, aber mal sehen, wie sich das einpendelt.
dildo4u
2022-12-27, 13:16:40
AMD Folien zum 7900 vs 5900X.
https://videocardz.com/newz/amd-ryzen-7000-non-x-series-to-launch-january-10th-ryzen-9-7900-faster-than-5900x
mboeller
2022-12-27, 17:42:28
Ich bin mal gespannt wie Zen4 im Notebook wird, taktet ja deutlich höher als Zen3. Könnte evtl nicht so sparsam sein.
was meinst du?
Dragon Range oder Phoenix?
Bzgl. Dragon Range sollten die "neuen" 65w ZEN4-Modelle doch schon einen guten Hinweis geben.
r3ptil3
2022-12-27, 17:56:20
AMD Folien zum 7900 vs 5900X.
https://videocardz.com/newz/amd-ryzen-7000-non-x-series-to-launch-january-10th-ryzen-9-7900-faster-than-5900x
https://cdn.videocardz.com/1/2022/12/AMD-RYZEN-9-7900-VS-5900X-1.jpg
https://cdn.wccftech.com/wp-content/uploads/2022/08/AMD-Ryzen-7000-CPU-Official-Unveil-_6-low_res-scale-3_81x-Custom.jpeg
Linmoum
2022-12-27, 18:07:14
Die Zielgruppe für einen zweiten 12C im Portfolio mit >$400 erschließt sich mir nicht. In dem Preisbereich wäre ein X3D sinnvoller als eine CPU, die vor allem für Spiele kaum jemand kaufen wird.
reaperrr
2022-12-27, 21:08:42
Wenn ich so darüber nachdenke, dann finde ich den ganzen Launch der AM5-Plattform merkwürdig. Sie wirkt mehr wie eine HEDT-Plattform statt einer Consumer-Plattform. Das Problem mit den 230W hatte ich schon mal angesprochen, dass die MB-Hersteller sich dadurch genötigt fühlen jedem Einsteigerboard so viel Spannungsversorgung mitzugeben, dass man auch die dicken 16-Kerner volle Möhre drauf laufen lassen kann. Ich glaube es wäre schlauer gewesen entweder bei 140W zu bleiben (oder meinetwegen auch bei 150 oder 160W) oder die 140W zum "offiziellem" Limit zu erklären und 230W optional zu lassen bzw. verpflichtend z.B. für die B650E- und X670E-Boards.
Naja, bei Intel sind's 253W, daran allein kann's nicht liegen.
Außerdem würde im alten 142W-Hardlimit gerade die MT-Perf um einige Prozent niedriger ausfallen, dann würde man in Benchmarks gegenüber Raptor bei allem außer Perf/W noch schlechter abschneiden.
Ich denke es ist eher so, dass alle - AMD und die Boardpartner - vor nem halben Jahr noch nicht mit einem derartigen Nachfrageeinbruch gerechnet haben und sich deshalb erstmal auf margenträchtige Premium-Produkte eingeschossen hatten sowie darauf, bei den Single-CCD Modellen erstmal Marge mitzunehmen, was jetzt alles im jetzigen Marktumfeld halt eher so bleimäßig in den Regalen liegen bleibt.
Vermutlich aus Margengründen weiter auf 14- und 10-Kerner zu verzichten, obwohl es seit Zen3 (CCD = CCX) technisch gehen sollte und Intel mittlerweile einen recht klaren MT-Vorsprung je $ rausgearbeitet hat, während man gleichzeitig auch in Singlethread weiter hinterherhinkt, hilt halt auch nicht.
Auch wenn's AMD nicht gefällt, ein sinnvolleres Line-Up (zum Launch, wohlgemerkt, nicht erst jetzt!) wäre halt eher sowas gewesen:
7950X (170W TDP / 230W PL, 16C) - 569$
7920X (125W TDP / 170W PL, 14C) - 469$
7900X (125W TDP / 170W PL, 12C) - 399$
7900 ( 65W TDP / 100W PL, 12C) - 369$
7800X (105W TDP / 142W PL, 10C) - 349$
7700X (105W TDP / 142W PL, 8C) - 279$
7700 ( 65W TDP / 95W PL, 8C) - 249$
7600X ( 95W TDP / 142W PL, 6C) - 199$
7600 ( 65W TDP / 80W PL, 6C) - 169$
mironicus
2023-01-03, 18:45:22
Wann gibt es Infos zu den neuen Zen 4-Mobile CPUs? Wann ist die AMD-Pressekonferenz bei der CES?
dildo4u
2023-01-03, 18:49:25
In der Nacht zum 5.1.
https://youtu.be/OMxU4BDIm4M
Naja, bei Intel sind's 253W, daran allein kann's nicht liegen.
Außerdem würde im alten 142W-Hardlimit gerade die MT-Perf um einige Prozent niedriger ausfallen, dann würde man in Benchmarks gegenüber Raptor bei allem außer Perf/W noch schlechter abschneiden.
Ich denke es ist eher so, dass alle - AMD und die Boardpartner - vor nem halben Jahr noch nicht mit einem derartigen Nachfrageeinbruch gerechnet haben und sich deshalb erstmal auf margenträchtige Premium-Produkte eingeschossen hatten sowie darauf, bei den Single-CCD Modellen erstmal Marge mitzunehmen, was jetzt alles im jetzigen Marktumfeld halt eher so bleimäßig in den Regalen liegen bleibt.
Vermutlich aus Margengründen weiter auf 14- und 10-Kerner zu verzichten, obwohl es seit Zen3 (CCD = CCX) technisch gehen sollte und Intel mittlerweile einen recht klaren MT-Vorsprung je $ rausgearbeitet hat, während man gleichzeitig auch in Singlethread weiter hinterherhinkt, hilt halt auch nicht.
Auch wenn's AMD nicht gefällt, ein sinnvolleres Line-Up (zum Launch, wohlgemerkt, nicht erst jetzt!) wäre halt eher sowas gewesen:
7950X (170W TDP / 230W PL, 16C) - 569$
7920X (125W TDP / 170W PL, 14C) - 469$
7900X (125W TDP / 170W PL, 12C) - 399$
7900 ( 65W TDP / 100W PL, 12C) - 369$
7800X (105W TDP / 142W PL, 10C) - 349$
7700X (105W TDP / 142W PL, 8C) - 279$
7700 ( 65W TDP / 95W PL, 8C) - 249$
7600X ( 95W TDP / 142W PL, 6C) - 199$
7600 ( 65W TDP / 80W PL, 6C) - 169$
Jo die machen im Moment echt nur Quatsch und treffen blöde Marketingentscheidungen. (Die 355W bei der XTX war auch dämlich, der Name XTX war ebenfalls saudämlich. Die ganze Markteinordnung der Grafikkarten war dämlich).
Man hätte zudem sicherstellen müssen, dass ein paar B650-Boards mit Minimalbestückung und günstigem Preis verfügbar sein müssen, dem Hersteller also für den B650 einen Maximalpreis aufdrücken sollen. Wer mehr will kann ja den B650E nehmen. Den X670 non-E hätt ich einfach ersatzlos gestrichen, der ist schlichtweg sinnlos.
Also:
B650: 100-150€
B650E: 200-450€
X670E: 300-???€
Und wo wir gleich dabei sind, kann man die Dinger gleich auch korrekt benennen:
B630 statt B650
B650 statt B650E
X670 statt X670E
Später dann zusätzlich einen B610 und auch noch B600 µATX-exklusiv ohne Chipsatz.
oder sowas.
Man hätte das mit deinem Lineup mit etwas höheren UVP-Preisen und einer nicht verkackten Plattform-Politik problemlos zum Hit machen können.
Außerdem: Wenn man sowas macht, MUSS der X3D sofort verfügbar sein. Sich da so von Intel so billig auskontern zu lassen war sowas von Saudämlich. Man wusste doch, dass Zen4 ein schmales Design ist und seine Grenzen hat. Intel launcht ja auch immer zuerst die k-Varianten. Intel bescheißt zwar bei den Roadmaps, aber Marketing läuft bei denen. Selbst wenn man den Zen4-Launch noch mal verschoben hätte, wär das trotzdem viel besser gewesen! Man muss doch sowieso den 7nm-Krempel weiterproduzieren, weil das momentan einfach extrem billig ist. Zudem hätte man später zu besseren DDR5-Preisen gelauncht. AMD ist wieder 2011 angekommen, was Marketing und Produktpolitik angeht, einfach schlecht.
Ich hoffe ernsthaft, dass die solche Fehlentscheidungen für die nächsten Launches nicht mehr treffen, man sollte meinen, aus dem Desaster müsste man lernen.
1.) neue Chipsätze, um das Mainboarddesaster zu korrigieren, selbst wenn sich an Promontory2 nix ändert.
B730
B750
X770 (am besten wieder eine Ableitung vom IOD mit PCIe5)
2.) Zuerst die X3D launchen. Dann kann der Rest des Portfolios mit auf der Welle surfen.
3.) das Portfolio sinnvoll diversifizieren und nicht so ein Blödsinn wie jetzt
4.) kein non-X-CPUs mehr und die CPUs als Eco vermarkten. Warum macht man das nicht? Die Intels sind nicht sparsam, warum nutzt man den Vorteil nicht aus?
5.) Grafikkarten auf dem richtigen Spot launchen und korrekt benennen. Eine niedrigere Modellnummer ist hier sogar von Vorteil mMn, weil damit nicht impliziert wird, das teure Top-Produkt zu kaufen. Die Preise passen sich ja eh automatisch der Produktqualität an.
AMD hat hier aber wieder mal furchtbar Schwein gehabt, weil Intel auch Intel4 wieder nicht hinbekommt und das gesamte Jahr 2023 mit Intel7 bestreiten muss. So fällt das verkackte Marketing nicht so sehr ins Gewicht. Wäre MTL gekommen, hätte es sicher düster ausgesehen.
robbitop
2023-01-03, 19:40:27
Iirc sagte MLID dass bei Zen 5 ggf auch der 3D schon zum Start dabei sein wird.
Iirc sagte MLID dass bei Zen 5 ggf auch der 3D schon zum Start dabei sein wird.
Das wär echt mal ne gute Nachricht ;).
Hammer des Thor
2023-01-03, 20:20:51
Iirc sagte MLID dass bei Zen 5 ggf auch der 3D schon zum Start dabei sein wird.
Denke mal weil die bei 3nm den cache kaum noch mit runterskalieren können wird das dann zum Standard:
https://www.heise.de/hintergrund/Neue-Chip-Fertigungstechnik-Houston-wir-haben-ein-Problem-7396426.html
Nightspider
2023-01-03, 20:31:16
Iirc sagte MLID dass bei Zen 5 ggf auch der 3D schon zum Start dabei sein wird.
Who cares about MLID?
Das Wissen über das Skalierungsproblem von SRAM haben alle schon lange. Das es in diese Richtung geht, dafür brauchen wir kein YouTuber.
Das sieht man schon an den Bauplänen von TSMC.
robbitop
2023-01-03, 20:32:52
Was hat das Skalierungsproblem von SRAM mit dem releasezeitpunkt des x3D zu tun? :)
Ansonsten: ist halt ein Spekulationsforum insofern finde ich die Nennung von MLID nicht unpassend.
Der_Korken
2023-01-03, 20:34:06
Iirc sagte MLID dass bei Zen 5 ggf auch der 3D schon zum Start dabei sein wird.
Das macht auch Sinn. In Spielen macht der Cache fast eine ganze Gen wett. Diesmal bleibt die Fertigung ja größtenteils gleich.
Naja, bei Intel sind's 253W, daran allein kann's nicht liegen.
Außerdem würde im alten 142W-Hardlimit gerade die MT-Perf um einige Prozent niedriger ausfallen, dann würde man in Benchmarks gegenüber Raptor bei allem außer Perf/W noch schlechter abschneiden.
Stimmt schon, bei Intel hat's auch irgendwie geklappt mit hohem Limit. Der MT-Verlust beträgt trotzdem gerade mal 5%. Da muss man sich schon fragen, ob es sich lohnt die ganze Plattform dafür aufzublähen, denn erstens ist die Anzahl an 7950X-Usern klein und wer ständig damit rendert und von den 5% wirklich was merkt, der wird vielleicht froh sein gegenüber Intel so viel Strom sparen zu können. Die allermeisten Leute spielen mit den Teilen und da bringen >140W selbst auf dem 7950X null. Für 24 oder 32 Kerne wird es relevanter, aber will man sowas überhaupt mit AM5 abdecken?
Auch wenn's AMD nicht gefällt, ein sinnvolleres Line-Up (zum Launch, wohlgemerkt, nicht erst jetzt!) wäre halt eher sowas gewesen:
[...]
Ich finde das schmale Lineup von AMD eigentlich OK. Lieber wenige aber dafür gute Modelle, die sich klar voneinander abgrenzen als so ein Gewusel wie bei Intel. Zwei CCDs haben manchmal auch Nachteile, da würde ich entweder bei 8C bleiben oder gleich 12C, damit ich wenigstens einen klaren Vorteil bei MT habe. Die X-Versionen von 7600, 7700 und 7900 sind eigentlich so überflüssig wie damals der 3800X.
Und wo wir gleich dabei sind, kann man die Dinger gleich auch korrekt benennen:
B630 statt B650
B650 statt B650E
X670 statt X670E
Das habe ich mir auch schon mal gedacht. Ich sehe natürlich das Schema mit dem E, aber der X670 ohne E ist schon sehr nischig. Wer so viele Highspeed USB 3.1-Ports und M2-Slots braucht, der kann auch den PCIe x16 5.0 Slot mitbezahlen. Und dann kann man es auch von den Nummern her übersichtlicher machen. B630 ist dann halt B650 in PCIe 4.0 only (inkl. M2-Slot und Chipsatz-Anbindung).
Nightspider
2023-01-03, 21:20:16
Was hat das Skalierungsproblem von SRAM mit dem releasezeitpunkt des x3D zu tun? :)
Die ganze Industrie arbeitet seit vielen Jahren daraufhin die Teile auszulagern ->3D, die kaum skalieren und bald werden erste Designs kommen, die explizit für 3D Packacking Verfahren designed wurden.
Bei Zen3D war es nur eine Option aber es wird zwangsläufig zur Pflicht werden müssen, im highend Bereich.
Die gleiche Menge an Cache wird in einem neuen Node deutlich teurer, statt billiger. Das ist schon der größte Indikator.
Der Kampf um den besten Fertigungsprozess wird in Zukunft ein bisschen unwichtiger, weil das Packaging einfach stark an Bedeutung gewinnt
Ansonsten: ist halt ein Spekulationsforum insofern finde ich die Nennung von MLID nicht unpassend.
Wie oft lag er denn richtig in letzter Zeit?
Ich habe das Gefühl er wirft alles in einen Topf was er irgendwo hört. Er spekuliert sehr viel wild herum, um die paar Fakten die er vielleicht hat.
MSABK
2023-01-03, 22:41:43
Mal sehen was Amd zeigen wird. Mit den neuen 65W RTL wird es für Zen4 leider nicht gut aussehen. Bleibt dann nur der 5800X3d als Budget Option im oberen Leistungsbereich.
Der 65W RPL hat das gleiche Problem wie der 65W ADL. Die sind so derart gedrosselt, dass sich wieder alles auf den lahmen e-Kernen abspielt, wenn das Teil zuviel Strom braucht. Immerhin gehts bei Teillast.
CrazyIvan
2023-01-03, 23:31:14
Mal sehen was Amd zeigen wird. Mit den neuen 65W RTL wird es für Zen4 leider nicht gut aussehen. Bleibt dann nur der 5800X3d als Budget Option im oberen Leistungsbereich.
Nunja, in CB23 steht der 7950X mit 65w TDP / 88w PPT im Vergleich zu 13900K mit 65w ganz gut da. Benötigt zwar etwas mehr Energie, ist aber auch deutlich schneller (beide weit links unten im Diagramm).
https://raw.githubusercontent.com/BrsVgl/PerformanceEfficiencySuite/main/Ranking/CB_Perf_Power_MT.png
Gewichtet man beide Eigenschaften 50:50, dann gewinnt der 7950X.
https://raw.githubusercontent.com/BrsVgl/PerformanceEfficiencySuite/main/Ranking/CB_MT_PES.png
Grundsätzlich steht Raptor Lake bei niedriger TDP aber wirklich sehr gut da. Für den 7900 ohne X wird es wohl locker reichen.
Gott1337
2023-01-04, 00:27:08
Was hat das Skalierungsproblem von SRAM mit dem releasezeitpunkt des x3D zu tun? :)
Ansonsten: ist halt ein Spekulationsforum insofern finde ich die Nennung von MLID nicht unpassend.
er lag bei den letzten 3 leaks bezüglich zen 4, rdna3 und Lovelace falsch.
mironicus
2023-01-04, 11:19:21
Ich bin schon gespannt auf die neue 16 Kern Mobile-CPUs von AMD. :)
robbitop
2023-01-04, 11:43:45
er lag bei den letzten 3 leaks bezüglich zen 4, rdna3 und Lovelace falsch.
Man muss aber auch dazu sagen, dass das auch oft „moving targets“ sind. Wenn bestimmte Konfigurationen im Labor getestet werden ist das das was die Leaker mitgeteilt bekommen. Das muss aber zwangsweise nicht der End SKU entsprechen.
Bei Ada zum Beispiel sprechen die (relativ zum Verbrauch der End SKU und der relativ große OC Headroom) ja Bände, dass man bereit war die SKUs höher zu prügeln sollte es nötig sein.
Insgesamt hat er ja auch eine Menge richtig bekommen. Mir ist das „leaker xyz lag falsch“ zu platt. Man kann es ja als eine von vielen Indizien betrachten. Ob es dann am Ende immer richtig ist, ist natürlich die Frage.
Linmoum
2023-01-04, 20:25:21
Wenn Su da heute Nacht keine X3D ankündigt, dann bin ich echt mad und verstehe die Strategie hinter dem Portfolio einfach Null.
Will man AM5 für die Masse nicht attraktiv machen? Welche Gaming-Enthusiasten oder einfach nur solche, die primär zocken wollen, interessieren sich für einen 65W 7900? Statt dafür 2 Chiplets zu verschwenden, sollten sie lieber einen 7600X3D auflegen, der würde für $2xx alles wegnageln.
Langlay
2023-01-04, 20:26:42
sollten sie lieber einen 7600X3D auflegen, der würde für $2xx alles wegnageln.
Wäre ich auch dafür, aber selbst wenn der 7600X3D kommt wird der wohl eher 3XX$ kosten.
Gott1337
2023-01-04, 20:30:38
Man muss aber auch dazu sagen, dass das auch oft „moving targets“ sind. Wenn bestimmte Konfigurationen im Labor getestet werden ist das das was die Leaker mitgeteilt bekommen. Das muss aber zwangsweise nicht der End SKU entsprechen.
Bei Ada zum Beispiel sprechen die (relativ zum Verbrauch der End SKU und der relativ große OC Headroom) ja Bände, dass man bereit war die SKUs höher zu prügeln sollte es nötig sein.
Insgesamt hat er ja auch eine Menge richtig bekommen. Mir ist das „leaker xyz lag falsch“ zu platt. Man kann es ja als eine von vielen Indizien betrachten. Ob es dann am Ende immer richtig ist, ist natürlich die Frage.
Ja hast recht mit den moving targets, dennoch wüsste jemand der connections da hat mehr als den Quark den er von sich gibt. Ich wüsste nix wo er mal richtig lag, ausser Sachen die kurz vor release waren, die auch andere leaker genannt haben. Eher ist er für seine dummen Aussagen bekannt an die er fest glaubt und nicht eine sekunde darüber nachgedacht hat "n31 is going to destroy lovelace" etc etc. wo die anderen leaker das gegenteil gesagt haben.
MSABK
2023-01-04, 20:33:16
Wenn Su da heute Nacht keine X3D ankündigt, dann bin ich echt mad und verstehe die Strategie hinter dem Portfolio einfach Null.
Will man AM5 für die Masse nicht attraktiv machen? Welche Gaming-Enthusiasten oder einfach nur solche, die primär zocken wollen, interessieren sich für einen 65W 7900? Statt dafür 2 Chiplets zu verschwenden, sollten sie lieber einen 7600X3D auflegen, der würde für $2xx alles wegnageln.
Verstehe das auch nicht. Auch eine Non x Cpu wird da keine weiteren Verkäufe generieren. Der Preis vom 7600X ist ja nicht schlecht. Die Boards kosten halt. Alles andere als ein 3d wäre heute Nacht eine Enttäuschung und man überlässt das Feld komplett Intel.
r3ptil3
2023-01-04, 21:05:04
Hab das Gefühl, dass da nur eine Vorstellung der Vorstellung kommt....
Keine Infos zu Modellen oder änhliches.
Release: April 2023
Lehdro
2023-01-04, 22:26:19
Ja hast recht mit den moving targets, dennoch wüsste jemand der connections da hat mehr als den Quark den er von sich gibt. Ich wüsste nix wo er mal richtig lag, ausser Sachen die kurz vor release waren, die auch andere leaker genannt haben. Eher ist er für seine dummen Aussagen bekannt an die er fest glaubt und nicht eine sekunde darüber nachgedacht hat "n31 is going to destroy lovelace" etc etc. wo die anderen leaker das gegenteil gesagt haben.
Bei Intel lag er bisher immer recht gut, hatte auch einige Codenamen weit vor allen anderen.
Bei AMD und NV greift er regelmäßig daneben, wobei ich sowas wie "Ada 2x Ampere" nicht als Fail ankreiden würde. Immerhin hat das NV selber so beworben - dieselbe Firma von der das dann auch geleakt ist. Das weißt er daraufhin, dass seine Quellen selber entfernt von der eigentlichen Hardware sitzen - AiBs oder so.
r3ptil3
2023-01-04, 22:50:47
https://cdn.wccftech.com/wp-content/uploads/2023/01/AMD-Ryzen-7-7800X3D-Zen-4-3D-V-Cache-CPU-Gaming-Performance.jpg
https://wccftech.com/amd-ryzen-7-7800x3d-v-cache-cpu-leak-up-to-30-perecent-faster-gaming-performance/
MSABK
2023-01-04, 22:53:31
Hmm, sieht eher nach Fake aus oder? Aber unabhängig davon würde ich die Performance in dem Rahmen schätzen.
Wenn das so kommt alles richtig gemacht einen 5800X3D gekauft zu haben. Board 300+€, RAM 200€, 7800X3D 450€, günstig ist anders. Aber passt zum Trend.
Sardaukar.nsn
2023-01-04, 23:02:07
Noch 4 Stunden :freak:
OMxU4BDIm4M
@ianm: Ich bin da auch noch ganz entspannt mit dem 5800X3D. Da inzwischen bei 4k angekommen, wird sich da real-life auch wenig an der Performance ändern. Lasse mich natürlich gerne überraschen ;)
Linmoum
2023-01-04, 23:15:20
https://cdn.wccftech.com/wp-content/uploads/2023/01/AMD-Ryzen-7-7800X3D-Zen-4-3D-V-Cache-CPU-Gaming-Performance.jpg
https://wccftech.com/amd-ryzen-7-7800x3d-v-cache-cpu-leak-up-to-30-perecent-faster-gaming-performance/MLID, also fake. Sieht man eigentlich auch schon an den fps in CS:GO. Wenn der 7800X3D angeblich +23% schneller als der 5800X3D ist, wäre er laut Techspot/HWUB immer noch ein gutes Stück langsamer als selbst der 7700X. Letzterer ist dort schon ganze 45% schneller als der 5800X3D.
https://static.techspot.com/articles-info/2537/bench/CSGO-p.webp
Rolsch
2023-01-04, 23:19:42
Weißt ja nicht was wieder am Takt fehlt.
Ju CS:GO hängt massiv am Takt, wenig am Cache. Wenn ein X3D wieder deutlich niedriger taktet nicht ganz abwegig.
Sardaukar.nsn
2023-01-04, 23:35:35
Ju CS:GO hängt massiv am Takt, wenig am Cache. Wenn ein X3D wieder deutlich niedriger taktet nicht ganz abwegig.
Dann wäre der neue X3D aber wieder künstlich kastriert nur um die teuersten Multi-Core CPUs zu schützen. :rolleyes:
Oder der Cache verhindert den höheren Takt. Denke aber auch man will die anderen CPUs nicht obsolet machen.
Denke mit Zen5 läuft das anders.
Exxtreme
2023-01-04, 23:37:46
Weißt ja nicht was wieder am Takt fehlt.
Nicht nur Takt. Je größer ein Cache desto höhere Latenzen hat er. Bei so alten Spielen wie CS:GO kann es leicht sein, dass die wichtigsten Dinge bereits in den kleinen L2-Cache passen. Und da können die niedrigeren Latenzen ausgespielt werden.
Da gibt es schon einige Beispiele wo der 5800X3D taktnormiert langsamer ist als ein 5800X.
Linmoum
2023-01-05, 00:06:24
Wenn das taktbereinigte Benchmarks wären, die AMD so als Vergleich zeigt, und der finale X3D dann aber Zen4-ähnlichen Takt hat, dann würde das wiederum Sinn ergeben.
Sicherlich werden wir hier keinen Rekordtakt sehen. Aber es würde mich stark überraschen, wenn mit Zen4 die X3D nicht zumindest auf 7600X-Niveau liegen, was den Takt anbelangt.
Langlay
2023-01-05, 00:14:56
Sicherlich werden wir hier keinen Rekordtakt sehen. Aber es würde mich stark überraschen, wenn mit Zen4 die X3D nicht zumindest auf 7600X-Niveau liegen, was den Takt anbelangt.
Das würde ich auch erwarten und zu hoffen wäre auch das die 3Ds diesmal unlocked sind. Wer das Teil durch OC grillt, ist auch ein neuer Kunde *g
Linmoum
2023-01-05, 01:26:07
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7000X3D-HERO2.jpg
Das sieht ja mal richtig lecker aus. Glaube, der 7900X3D wird meiner. :O
Die Folie mit den Benchmarks ist also auch echt. Da kommen bei den beiden 12C/16C also noch mal 10%+ durch den Takt hinzu.
Langlay
2023-01-05, 01:31:15
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7000X3D-HERO2.jpg
Das sieht ja mal richtig lecker aus. Glaube, der 7900X3D wird meiner. :O
Die Folie mit den Benchmarks ist also auch echt. Da kommen bei den beiden 12C/16C also noch mal 10%+ durch den Takt hinzu.
Wieso haben die 12 und 16 Kerner den Cache scheinbar nur auf einem CCD? Und wieso ist der max. Takt beim 7800X3d soviel geringer.
Der_Korken
2023-01-05, 01:55:36
Naja, den hohen Takt schafft dann nur das CCD ohne 3D-Cache ;D
Also wenn das kein Fake ist, frage ich mich schon was diese Konstruktion soll. Spiele profitieren nicht von mehr als 8 Kernen, d.h. es "reicht" wenn ein CCD den Cache hat. Das andere CCD könnte entsprechend höhere Taktraten fahren, damit man in ST-limitierten Szenarien gegenüber den normalen Modellen keine Leistung verliert. Die Sache hat aber zwei Haken: 1. Wie wird das richtig gescheduled? Das ist ja quasi noch komplizierter als big.LITLLE. 2. Was mache ich, wenn ein Spiel viel Cache UND viel Takt will? :freak:
Langlay
2023-01-05, 02:06:11
Naja, den hohen Takt schafft dann nur das CCD ohne 3D-Cache ;D
Das ist das was ich auch vermutet hätte, macht für mich so auch keinen besonders runden Eindruck.
Ich hätte aber beim 7800X3D auch mit mehr Takt gerechnet, so 5.3-5.5GHz Boost wären eigentlich schon ganz nett gewesen. Aber scheinbar ist dann bei den Zen4 3D Versionen das Spannunglimit absolut gesehen wohl tiefer als bei Zen3 3D (1.35V)
y33H@
2023-01-05, 02:23:38
Frankenstein!
Gott1337
2023-01-05, 03:33:12
verzögert sich weil die Folien wohl wieder falsch waren =D
Bin gespannt wie sich die Mischung aus V-Cache Chiplet und normalem Zen4 Chiplet macht. Und ob es da überhaupt Infos zu geben wird.
Gott1337
2023-01-05, 03:43:04
witzig das sie Mercedes F1 zeigen obwohl Mercedes ein deal mit Nvidia hat oO
https://cdn.wccftech.com/wp-content/uploads/2023/01/AMD-Ryzen-7-7800X3D-Zen-4-3D-V-Cache-CPU-Gaming-Performance.jpg
https://wccftech.com/amd-ryzen-7-7800x3d-v-cache-cpu-leak-up-to-30-perecent-faster-gaming-performance/
Laut Lisa Su ist der 7800X3D im Schnitt 15% schneller als ein 5800X3D. Keine Preise, kein Erscheinungsdatum zu den drei CPUs.
https://abload.de/thumb/img_20230105_042010a1fyb.jpg (https://abload.de/image.php?img=img_20230105_042010a1fyb.jpg)
https://videocardz.com/newz/amd-ryzen-7000x3d-series-coming-february-16-core-ryzen-9-7950x3d-features-144mb-cache
horn 12
2023-01-05, 04:24:33
Somit nix falsch gemacht bis Zen 5 / 6
mit einem Kauf des 5800X3D letztes Jahr zum X3D Launch.
Nun muss nur noch RDNA3 Optimiert werden und das Teil rockt
DrFreaK666
2023-01-05, 04:59:02
INVD-O0Y1LE
Bezüglich der ungleichen Cacheverteilung auf den CCDs (von Tom's HW (https://www.tomshardware.com/news/amd-unveils-three-ryzen-7000x3d-v-cache-chips-three-new-65w-non-x-cpus-too)):
AMD is working with Microsoft on Windows optimizations that will work in tandem with a new AMD chipset driver to identify games that prefer the increased L3 cache capacity and pin them into the CCD with the stacked cache. Other games that prefer higher frequencies more than increased L3 cache will be pinned into the bare CCD. AMD says that the bare chiplet can access the stacked L3 cache in the adjacent chiplet, but this isn’t optimal and will be rare. Yes, the chip with the extra L3 cache will run games at a slower speed, but most games don’t operate at peak clock rates, so you should still get a huge performance benefit.
Nightspider
2023-01-05, 05:57:30
Lustig, dieser geteilte Aufbau wurde hier ja auch paar mal erwähnt aber das er wirklich kommt, damit hat keiner gerechnet.
Rolsch
2023-01-05, 06:38:41
Lustig, dieser geteilte Aufbau wurde hier ja auch paar mal erwähnt aber das er wirklich kommt, damit hat keiner gerechnet.
Eigentlich schon. Es hieß ja damals schon bei AMD der 5800x3D ist die einzig sinnvolle Variante. Jetzt gibts halt auch noch was für Leute die mehr Kerne fürs arbeiten benötigen aber aufs Spielen nicht verzichten wollen. Spieler werden mit dem 7800x3D genausogut bedient sein, es sei denn sie spielen den ganzen Tag CS GO.
Ich find die neuen CPUs klasse, endlich wird die Zen4 Plattform attraktiver. Aber von einem 5800x3D wird man wegen 20% nicht wechseln wollen. Aber für neue Systeme würde ich das jetzt kaufen.
dargo
2023-01-05, 07:10:47
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7000X3D-HERO2.jpg
Meh... wieder die TDP angehoben beim 16 Threader. :down:
Gott1337
2023-01-05, 07:13:41
das ist echt wenig wow. werden schwierige 2 Jahre für AMD, hoffentlich geht es bald wieder Berg auf
dargo
2023-01-05, 07:18:58
Laut Lisa Su ist der 7800X3D im Schnitt 15% schneller als ein 5800X3D.
Hängt wieder davon ab welche Spiele verwendet werden. Bei diesem Parkour hier ist es etwas mehr.
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7800X3D-768x416.jpg
Gott1337
2023-01-05, 07:20:59
Hängt wieder davon ab welche Spiele verwendet werden. Bei diesem Parkour hier ist es etwas mehr.
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7800X3D-768x416.jpg
daher zählt auch eher der SCHNITT, wenn es Lisa schon sagt, wirds auf keinen Fall besser sein. Und wer braucht schon in Dota und CS noch mehr fps xD. Ja skaliert in älteren Spielen wohl besser, was eher an Zen4 liegt als am Cache
konkretor
2023-01-05, 07:21:37
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/
https://www.computerbase.de/2023-01/amd-ryzen-7000-mobile-rdna-3-in-der-zen-4-apu-und-16-kerne-per-chiplet-ansatz/
Darin sind auch die Folien enthalten
MSABK
2023-01-05, 07:39:28
Geile CPUs und auch mega coole APU. Mal sehen wie die so performen.
dildo4u
2023-01-05, 07:44:11
Warum hat der 8 Core wieder so wenig Takt?
Ist er Thermisch problematischer als 2 CCD Modelle.
Rolsch
2023-01-05, 07:47:14
Warum hat der 8 Core wieder so wenig Takt?
Ist er Thermisch problematischer als 2 CCD Modelle.
Ich vermute nur das CCD ohne zusätlichen Cache hat den höheren Takt.
Voodoo6000
2023-01-05, 07:53:34
Die CPUs hören sich interessant an, ich bin gespannt wie sich die neuen Modelle in Tests schlagen.
das ist echt wenig wow. werden schwierige 2 Jahre für AMD, hoffentlich geht es bald wieder Berg auf
Naja, wenn der 7800x3D 15% schneller als der 5800x3d wird ist er so schnell wie ein 13900k. Bei den Notebooks hören sich Dragon Range und Phoenix auch sehr interessant an. Der nächsten vielversprechenden Desktop Prozessoren von Intel kommen erst mit Arrow Lake frühestens 2024.
Zossel
2023-01-05, 08:00:07
Lustig, dieser geteilte Aufbau wurde hier ja auch paar mal erwähnt aber das er wirklich kommt, damit hat keiner gerechnet.
Ja leider, und kein Modell wo auf beiden Chiplets noch weiterer Cache drauf ist.
Freestaler
2023-01-05, 08:04:13
Sehr spannend, jedoch warte ich gerne die Test ab. Bis dato liefen solche Schedulerspezialitäten nicht immer super aus dem Stand. Ist allenfalls vorarbeit für Zen5/Zen4c? Getarnter Betatest?
dildo4u
2023-01-05, 08:05:15
Ja leider, und kein Modell wo auf beiden Chiplets noch weiterer Cache drauf ist.
Dann würde das Ding nicht durch die Bank Intel schlagen, die 12 und 16 Core sind natürlich auch für Produktion gedacht und manche Programme wollen Takt und kein Cache.
Sardaukar.nsn
2023-01-05, 08:05:28
... Aber von einem 5800x3D wird man wegen 20% nicht wechseln wollen. Aber für neue Systeme würde ich das jetzt kaufen.
Sehe ich ganz ähnlich. In 4k wird von den 20% nicht viel übrig bleiben. Für einen 5800X3D Besitzer lohnt das Upgrade wahrscheinlich nicht. Natürlich kann man das messen. Aber welche Rolle spielt in dem Bereich noch 1080p ohne Framelimit bzw vrr? Bei den gezeigten Beispiele reden wir doch eh schon über mehrere hundert FPS.
dargo
2023-01-05, 08:05:33
daher zählt auch eher der SCHNITT, wenn es Lisa schon sagt, wirds auf keinen Fall besser sein.
Weil Lisa auch alle Spiele die es aktuell gibt testet. :facepalm: Manchmal hilft es den Kopf einzuschalten. Wenn AMD oder Lisa von 15% im Schnitt spricht bezieht sich das natürlich nur auf den eigenen Spieleparkour der im Test verwendet wurde. :rolleyes:
Ich vermute nur das CCD ohne zusätlichen Cache hat den höheren Takt.
Warum nur vermuten? Ist die einzig logische Erklärung. :)
Lehdro
2023-01-05, 08:17:33
Bin so gar nicht begeistert von den vielen X3Ds, die zwei Dicken sehen nach massiven Shedulingproblemen in Games aus. Was macht man wenn das Game auf Taktraten, Kernen und Takt skaliert? (Beispiel: TW: Troy)
Man sieht am 7800X3D vs 7700X, AMD muss erneut rund 10% vom Takt her herunter um den 3D Cache zu kompensieren, ob das nun durch Voltage oder Temperatur limitiert ist, wäre dann schon wurscht. Kann also sein das der 7950X3D dann mit 5.7 auf CCD1 (non X3D) rumeiert, während CCD0 (X3D) auf max. 5 GHz limitiert ist. Das ist prozentual ein größerer Unterschied als beim 5950X, bei dem die Differenz meist nur 2-300 MHz zwischen den Peaks auf den CCDs war. Und selbst da gab es schon Unterschiede mit Corepinning über den Taskmanager. Das wird hier deutlich krasser, da auch noch die Cachegröße massiv abweicht. Was passiert wenn der MS Sheduler wieder einmal meint Programme von CCD0 (X3D) auf CCD1 (non X3D) zu schaufeln, wir dann alles was nicht in den kleineren Cache passt einfach evicted? Schön dann schnarchnasig über den IF zugreifen, ob nun RAM oder non local L3? Stelle mir das sehr schwierig vor...
Ein Modell mit beiden CCDs als X3D wäre so simpel gewesen, gibt es mit Milan-X und Genoa-X doch auch. Verstehe das absolut nicht. Was ist der Vorteil außer beim Gaming potenziell Probleme zu provozieren und gegen Intel schlecht auszusehen? Im heavy MT hat man so oder so durch den reduzierten Takt und TDP das Nachsehen gegen einen 13900KS der sich einfach gönnen kann. Und wer sich einen 7950X3D leisten will, würde auch bei 2x X3D Cache zugreifen, da kann der Preis auch kein wirkliches Argument sein...
AMD hat es versemmelt bei den beiden Ryzen 9.
MLID, also fake. Sieht man eigentlich auch schon an den fps in CS:GO. Wenn der 7800X3D angeblich +23% schneller als der 5800X3D ist, wäre er laut Techspot/HWUB immer noch ein gutes Stück langsamer als selbst der 7700X. Letzterer ist dort schon ganze 45% schneller als der 5800X3D.
Und jetzt wissen wir die Folie war echt. Was nun?
aufkrawall
2023-01-05, 08:23:35
Bin so gar nicht begeistert von den vielen X3Ds, die zwei Dicken sehen nach massiven Shedulingproblemen in Games aus. Was macht man wenn das Game auf Taktraten, Kernen und Takt skaliert? (Beispiel: TW: Troy)
Die Spiele-Threads so auf die verschiedenen CCD schedulen, dass sie so schnell wie möglich laufen?
Klappt bei ADL/RPL ja offenbar auch.
Lehdro
2023-01-05, 08:26:09
Die Spiele-Threads so auf die verschiedenen CCD schedulen, dass sie so schnell wie möglich laufen?
Klappt bei ADL/RPL ja offenbar auch.
Und das hat beim 5950X teilweise schon nicht geklappt, da brachte Corepinning in einigen Games mal locker 20%+. Und der hat nicht einmal extra Cache.
Ich will einfach nur problemlos zocken, bleibt also nur der 7800X3D übrig.
MSABK
2023-01-05, 08:29:00
Mal abwarten was AMD und Microsoft da fabrizieren. Hoffentlich wird das kein Desaster wie N31.
Rolsch
2023-01-05, 08:39:22
Das mit dem Scheduling sehe ich nicht so problematisch. Generell ist das 3D Chiplet das Chiplet der Wahl. (so wie heutzutage das mit dem schnellsten Kern.) Bei modernen Spielen wird das 99% gut abdecken. Und für Anwendungen wo Takt wichtig ist wirds halt dann Blacklists geben.
Aber natürlich wäre ein monolithischer 16 Kerner mit Riesencache schön gewesen, aber den will keiner backen. Dabei hats die 4090 doch vorgemacht dass auch Privatleute höhere Preise zahlen würden.
horn 12
2023-01-05, 08:45:31
Wieder Baustelle für AMD - Da kommen sie mal wieder nicht alleine raus.
Hätten Sich auf RDNA 3 oder Zen 4 konzentrieren sollen,- nun sind beide Halbgar Releast worden und beide sind Baustellen Behaftet!
Bei Der Grafikkarte klemmt noch die VC und da muss nun AMD viel Geld in die Hand nehmen.
Dies wünscht man wirklich keinem aber ist schon ein Desaster,- und dies sagt ein AMD Fanboy
von Eh und Je.
MSABK
2023-01-05, 08:52:19
Wo ist Zen4 eine Baustelle? Abgesehen von den Mainboard Preisen sind die ok und der 3d wird da gut Stückzahlen verkaufen.
robbitop
2023-01-05, 08:55:39
Sie haben doch auch direkt den 7950X3D mit dem 13900K verglichen im Stream und der wurde relativ deutlich geschlagen. Ist doch ein gutes Ergebnis.
00-Schneider
2023-01-05, 08:55:40
Kommt zum Glück noch im Februar. Wurde ja zwischenzeitlich gerüchteweise erst April als Releasemonat genannt.
Sie haben doch auch direkt den 7950X3D mit dem 13900K verglichen im Stream und der wurde relativ deutlich geschlagen. Ist doch ein gutes Ergebnis.
Naja, was ein Hersteller auf seinen eigenen Folien proklamiert, und was dann später unabhängige Tests zeigen, wissen wir ja. Zieh da gerne einige Prozent ab.
amdfanuwe
2023-01-05, 09:04:55
Wenn beide Chiplets mit 3d-Cache ausgestattet wären, müsste man trotzdem das Game auf einen Chiplet pinnen. Wenn da ein Thread zwischen den Chiplets hin und her switcht und der Cache jedesmal neu geladen wird, dürfte keine Freude aufkommen.
robbitop
2023-01-05, 09:08:03
Naja, was ein Hersteller auf seinen eigenen Folien proklamiert, und was dann später unabhängige Tests zeigen, wissen wir ja. Zieh da gerne einige Prozent ab.
Bei den CPUs waren AMD's slides eigentlich die letzten Jahre eher konservativ.
-------------
Was mich wundert: zu Phoenix' IGP wurde praktisch gar nichts gesagt. Oder mal ein Benchmark gezeigt. Gibt es da noch eine separate Vorstellung. Es hat sich ja praktisch nur um die AI Engine und die CPU Core configuration gedreht.
Hängt wieder davon ab welche Spiele verwendet werden. Bei diesem Parkour hier ist es etwas mehr.
https://cdn.videocardz.com/1/2023/01/AMD-RYZEN-7800X3D-768x416.jpg
Du solltest meine Posts richtig lesen. Oder die Keynote anschauen. Die Folie war verlinkt, zusammen mit einer anderen. Es gibt auch Spiele da sind es nur 10%.
Wenn Lisa Su also von 15% im Schnitt spricht, wird das schon stimmen. Ausreißer gibt es immer.
Du solltest meine Posts richtig lesen. Oder die Keynote anschauen. Die Folie war verlinkt, zusammen mit einer anderen. Es gibt auch Spiele da sind es nur 10%.
Wenn Lisa Su also von 15% im Schnitt spricht, wird das schon stimmen. Ausreißer gibt es immer.
jupp, nach unten z.B.
hier noch ein bisschen https://adrenaline.com.br/noticias/v/81480/amd-ryzen-7-7800x3d-ate-30-mais-rapido-5800x3d-games
Linmoum
2023-01-05, 09:23:34
Ich frag mich eher, was diese Spieleauswahl bei solchen CPUs soll. Echtzeitstrategie/Aufbauspiele wie Anno, MMOs wie WoW, Simulationen wie ACC oder der MSFS. Selbst ein KCD reagiert heftig Cache.
In Spielen, wo ich teilweise schon deutlich dreistellige fps habe, noch mehr zu haben... Schön. Interessant sind aber die Spiele, wo es nicht so komfortabel aussieht und viele von denen profitieren massiv von mehr Cache.
dildo4u
2023-01-05, 09:29:21
Weil sie offenstich nach meist gespielten auswählen also DOTA,CS GO, Rainbow Six etc.
Games wie Anno sind für die Masse überhaupt nicht auf dem Radar.
Und andere wieder nicht. Siehe Cyberpunk. Die 15% mehr zum 5800X3D verlocken mich nicht zum Kauf. Schön eine Wahl zu haben.
Zumindest WoW läuft jetzt schon auf Anschlag, wenn man nicht gerade in Valdrakken hockt.
In der Keynote haben sie nur diese Folie zum 5800X3D gezeigt.
https://abload.de/thumb/img_20230105_042010a1fyb.jpg (https://abload.de/image.php?img=img_20230105_042010a1fyb.jpg)
dargo
2023-01-05, 09:32:51
Du solltest meine Posts richtig lesen. Oder die Keynote anschauen. Die Folie war verlinkt, zusammen mit einer anderen. Es gibt auch Spiele da sind es nur 10%.
Wie kommst du jetzt auf die Idee ich hätte deinen Post nicht richtig gelesen? Selbst in deinem geposteten Bildchen mit Lisa sind es im Schnitt der 4 Spiele 17,5%.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13205200&postcount=4800
Breaking News, es gibt Ausreißer nach oben sowie unten.^^
PS: ich kann es auch anders formulieren wenns zu kompliziert rüber kommt. ;) Der 7800X3D ist in Games bis zu 30% schneller als der 5800X3D. Zumindest laut den bisher bekannten Folien.
horn 12
2023-01-05, 09:34:22
Alles richtig gemacht viele viele Endkunden,- sowie ich selbst den 5800X3D geholt zu haben!
Da kann man locker bis Mitte/ Ende 2024 aussitzen.
robbitop
2023-01-05, 09:38:09
Ob AMD hier wieder einen Schreibfehler hat?
Anandtech Artikelhttps://www.anandtech.com/show/18718/amd-2023-ryzen-mobile-7000-cpus-unveiled-zen-4-phoenix-takes-point
Hier steht Phoenix (7040) mit 20 MiB total Cache:
Slide die ich meine: https://images.anandtech.com/doci/18718/AMD%20CES%202023%20-%20Client%20Processors%20Press%20Deck_05.png
Was bei 8x 1 MiB L2 nur noch 12 MiB L3 übrig lassen. Die Tabelle weiter unten listet aber fette 32 MiB L3. Mit L2 wären es dann insgesamt 40 MiB total Cache (was den L1 ausschließt).
32 MiB auf einer APU sind schon ziemlich fettig. Wahrscheinlich aber wieder kein Zugriff der IGP auf den L3 möglich, wenn sie nichts verändert haben. Das würde sicherlich Geschwindigkeit und Powerefficiency bringen (jeder lokale Speicherzugriff ist deutlich weniger energieintensiv als einer auf den RAM).
Breaking News, eine Firma selektiert Ergebnisse um besser da zu stehen. Warten wir unabhängige Tests ab, 15% sind für die Kosten der Plattform lächerlich. Aber wir werden ja auch bei GPUs gemolken, warum nicht auch hier.
Sardaukar.nsn
2023-01-05, 09:39:45
Wurde denn was gesagt ob jetzt Overclocking möglich ist? Beim 5800X3D hätte ich z.B. gerne 500mhz mehr Takt.
robbitop
2023-01-05, 09:41:39
Ich kann mir gut vorstellen, dass da mit normaler Kühlung nicht mehr so viel OC geht - der VCache scheint durch das Stapeln den Wärmeübergang etwas schlechter zu machen, da ja die Erhöhung des VCaches mit Material aufgefüllt werden muss. AMD betreibt ihre CPUs zuletzt eigentlich schon am oberen Ende so dass selten OC wirklich sinnvoll ist. (Zen3 X3D mal ausgenommen)
Das Einzige was sie zeigte war die Folie oben und fragte das Publikum, ob es von 15% denn begeistert sei. Da kamen dann ein paar Fanboy Klatscher und der Rest war eher so meh...
dargo
2023-01-05, 09:43:29
Wurde denn was gesagt ob jetzt Overclocking möglich ist? Beim 5800X3D hätte ich z.B. gerne 500mhz mehr Takt.
Vergiss es... der zusätzliche Cache läuft am Limit, ansonsten hätte der 7800X3D mehr Boostclock.
Linmoum
2023-01-05, 09:46:41
Breaking News, eine Firma selektiert Ergebnisse um besser da zu stehen. Warten wir unabhängige Tests ab, 15% sind für die Kosten der Plattform lächerlich. Aber wir werden ja auch bei GPUs gemolken, warum nicht auch hier.Wenn AMD besser dastehen wollen würde, hätten sie eine ganz andere Spieleauswahl genommen.
Mir soll's egal sein, ich weiß, in welchen Spielen der Cache viel bringen wird. Muss ich halt auf PCGH oder purepc warten, da der Rest dann wieder nur den 0815-Standardkram testet, der bei solchen CPUs uninteressant ist.
TheGood
2023-01-05, 09:48:32
Ich finde viel spannender dass AMD das ganze AI gedönse jetzt in die CPU packen will. Darüber wollen sie wohl auch ihr FSR weiter betreiben. Das ist wohl das offensichtliche Ziel. Intel macht das ja auch. Bin mal gespannt wie das am Ende ausgeht und ob es Zukunft hat vor allem ob das überhaupt performant ist für spieler.
robbitop
2023-01-05, 09:48:50
Idle Leistungsaufnahme scheint ja auch nochmal besser geworden sein mit Phoenix point. Zumindest sollen bis zu 30h Videoplayback möglich sein und Lisa hat ja gerade diesen Punkt stark betont.
Mal schauen, was in der Praxis bei Phoenix vs Rembrandt herumkommt. Immerhin 4 nm vs 6 nm und eine Iteration weiter bei CPU und GPU IP.
Ich könnte mir zumindest vorstellen, dass bei niedrigen TDPs das schon durchschlagen wird. Aber die 15 W Modelle haben sie ja noch nicht vorgestellt.
robbitop
2023-01-05, 09:50:37
Ich finde viel spannender dass AMD das ganze AI gedönse jetzt in die CPU packen will. Darüber wollen sie wohl auch ihr FSR weiter betreiben. Das ist wohl das offensichtliche Ziel. Intel macht das ja auch. Bin mal gespannt wie das am Ende ausgeht und ob es Zukunft hat vor allem ob das überhaupt performant ist für spieler.
Für FSR (sofern dafür der AI Teil genutzt werden soll) muss das in die GPU aus Latenzgründen.
dargo
2023-01-05, 09:51:12
Eine Sache irritiert mich etwas... alle drei CPUs haben eine TDP von 120W was ca. 162W PPT bedeutet. Wie kann das sein? Das riecht für mich beim 7800X3D nach dem absoluten Abfall der Fertigung mit deutlich schlechterer Spannungskurve. Oder übersehe ich hier was?
btw.
Der 7800X3D wird bei Volllast wieder ganz schön heiß bzw. läuft dann noch etwas schneller ins thermische Limit dank höherer PPT. :crazy2:
r3ptil3
2023-01-05, 09:58:57
Interessante CPUs: Die 15% betreffen auch Spiele die nichts mit dem 3D-Cache anfangen können, war beim 5800X3D gleich.
Nach den Reviews sieht das ganze dann nochmals anders aus, insbesondere wenn mit einer RTX 4090 getestet.
Für mich gilt aber nach wie vor das gleiche wie bei Zen4: Wenn der IDLE Verbrauch nicht optimiert wird und die CPUs weiterhin unkühlbar sind, dann sind die CPUs auch mit 3D Cache nicht interessant genug für einen Kauf.
w0mbat
2023-01-05, 10:02:09
Naja, wenn der 7800x3D 15% schneller als der 5800x3d wird ist er so schnell wie ein 13900k.
Schon der 7700X ist keine 5% hinter dem 13900K, da wird der 7800X3D ganz sicher 10%+ schneller sein.
https://youtu.be/P40gp_DJk5E?t=1040
robbitop
2023-01-05, 10:02:32
Ist ja bis auf den VCache die gleiche CPU/IOD Kombination. Sehr unwahrscheinlich, dass der Aspekt anders geworden ist, oder?
Wobei es mich wundert - immerhin kommt die gleiche Kombination (wie Raphael) als Dragon Range in Laptops und da ist der idle Verbrauch nicht irrelevant. Ggf. kann man über die Mikrofirmware doch ein paar Optimierungen machen. Ggf. wird der IF Takt auch nicht so hoch gezogen wie im Desktop? Bleibt auf jeden Fall spannend!
Linmoum
2023-01-05, 10:03:18
Also wer zockt - und dafür ist der Cache in erster Linie auf dem Desktop da - der braucht sich bei Zen4 über "unkühlbar" doch gar keine Gedanken machen?
Ich wette, dass man zudem sowieso wieder relativ einfach -30 auf allen Kernen hinbekommt.
Crazy_Chris
2023-01-05, 10:07:26
Damit dürfte der Verkauf der AM5 Plattform dann wohl endlich auch etwas an Fahrt aufnehmen wenn die Zahlen von AMD stimmen.
Alles richtig gemacht viele viele Endkunden,- sowie ich selbst den 5800X3D geholt zu haben!
Da kann man locker bis Mitte/ Ende 2024 aussitzen.
Dito. Hab ich auch so gemacht. Der Upgradepfad war auch einfach zu verlockend bei vorhandenem AM4 Mainboard + 32Gb RAM. Da war dann der hohe Einstandspreis des 5800X3D auch nicht mehr so schlimm.
dildo4u
2023-01-05, 10:10:10
CPU Performance war nicht das Problem sondern Mainboard Preise.
BlacKi
2023-01-05, 10:14:53
Lustig, dieser geteilte Aufbau wurde hier ja auch paar mal erwähnt aber das er wirklich kommt, damit hat keiner gerechnet.
doch ich. und wurde von den meisten naürlich ausgelacht.
aber wie gesagt. es macht auch keinen sinn 2x96mb draufzuklatschen.
der 7950x3d macht für gamer nur wegen dem boost sinn und die anderen kerne ohne extra cache sind für die gedacht, die heavy workload am gaming pc haben.
nicht umsonst hat amd gesagt, der 5950x ist keine gaming cpu und bekommt deshalb keinen 3dcache.
dasselbe gilt auch für den 12kerner. aus gaming sicht, ist es ein 6 kerner.
Warum hat der 8 Core wieder so wenig Takt?
Ist er Thermisch problematischer als 2 CCD Modelle.
ich würd ja lachen, wenn die 8 kerne des 16 kerners mit 3dvcache auch nur 5ghz boosten, und nur die 8 anderen ohne den cache 5,7ghz machen würden.
Crazy_Chris
2023-01-05, 10:17:22
CPU Performance war nicht das Problem sondern Mainboard Preise.
Man kann es aber auch so sehen das der Performancegewinn in Relation zu den Preisen (AM5 Ökosystem) einfach zu gering war.
robbitop
2023-01-05, 10:22:45
Lisa hat ja auch gesagt, dass sie günstigere Mainboards vorstellen werden. DDR5 RAM Preise sinken ja auch. Der Plattformpreisnachteil schwindet dann langsam.
(1) Die non X CPUs werden günstiger
(2) DDR5 RAM wird günstiger
(3) sobald die günstigen MBs verfügbar sind, ist auch der letzte Flaschenhals für die Plattform weg und man kann wieder relativ preisgünstige Systeme damit konfigurieren
CrazyIvan
2023-01-05, 10:25:46
ich würd ja lachen, wenn die 8 kerne des 16 kerners mit 3dvcache auch nur 5ghz boosten, und nur die 8 anderen ohne den cache 5,7ghz machen würden.
Und genau so - oder zumindest annähernd so - wird es sein.
robbitop
2023-01-05, 10:28:01
Ja das wurde ja auch schon so veröffentlicht.
Exxtreme
2023-01-05, 10:33:25
Naja, den hohen Takt schafft dann nur das CCD ohne 3D-Cache ;D
Also wenn das kein Fake ist, frage ich mich schon was diese Konstruktion soll. Spiele profitieren nicht von mehr als 8 Kernen, d.h. es "reicht" wenn ein CCD den Cache hat. Das andere CCD könnte entsprechend höhere Taktraten fahren, damit man in ST-limitierten Szenarien gegenüber den normalen Modellen keine Leistung verliert. Die Sache hat aber zwei Haken: 1. Wie wird das richtig gescheduled? Das ist ja quasi noch komplizierter als big.LITLLE. 2. Was mache ich, wenn ein Spiel viel Cache UND viel Takt will? :freak:
Ich glaube, da müsste der OS-Scheduler mitspielen und die Anwendungen auf die "richtigen" Kerne verteilen. Und wenn man bedenkt wie überfordert Micros~1 bereits mit den P- und E-Kernen von Intel ist. ;D ;D
Crazy_Chris
2023-01-05, 10:37:17
(3) sobald die günstigen MBs verfügbar sind, ist auch der letzte Flaschenhals für die Plattform weg und man kann wieder relativ preisgünstige Systeme damit konfigurieren
Ich glaube das ist zu optimistisch. Der Einstieg bei AM5 liegt im Moment bei genau 5 Mainboards die lieferbar etwas unter 200€ liegen. In welcher Welt will man da jemals wieder bei den 70-80€ für ein akzeptables AM4 landen. :confused:
Würde mich nicht wundern wenn AMD noch relativ lange AM4 weiter supported da man zwangsweise im Budgetbereich etwas braucht.
HTB|Bladerunner
2023-01-05, 10:39:17
Ich glaube, da müsste der OS-Scheduler mitspielen und die Anwendungen auf die "richtigen" Kerne verteilen. Und wenn man bedenkt wie überfordert Micros~1 bereits mit den P- und E-Kernen von Intel ist. ;D ;D
...Oder die Chipsatz-Treiber enthalten in Zukunft Spieleprofile, die darüber entscheiden, welcher CCD bei welchem Game verwendet wird.
BlacKi
2023-01-05, 10:42:52
Und genau so - oder zumindest annähernd so - wird es sein.
was ist mit der aussage, das es diesmal keine reduzierung von takt geben würde?
M4xw0lf
2023-01-05, 10:51:52
was ist mit der aussage, das es diesmal keine reduzierung von takt geben würde?
Waren nur Gerüchte. Eventuell hat jemand halt schon die 'up to' Werte gesehen aber ohne die Info über den Aufbau cache+Standard-chiplet zu kennen.
BlackBirdSR
2023-01-05, 10:55:41
Ich bin mir immer noch nicht sicher, ob hier wirklich signifikant höhere Kosten zu AM4 bestehen, oder man hier eine neue Plattform zur Steigerung der eigenen Margen nutzt.
Ich könnte mir vorstellen, das macht aktuell jeder der kann:
Vom Lebensmittel- zum Automobil- zum Chiphersteller.
In diesem Fall würden wir generell kein Absinken der Preise mehr sehen und das ist vorläufig die neue Norm.
Aber mir fehlen natürlich Belege und es kann ganz anders sein.
Ich glaube das ist zu optimistisch. Der Einstieg bei AM5 liegt im Moment bei genau 5 Mainboards die lieferbar etwas unter 200€ liegen. In welcher Welt will man da jemals wieder bei den 70-80€ für ein akzeptables AM4 landen. :confused:
Würde mich nicht wundern wenn AMD noch relativ lange AM4 weiter supported da man zwangsweise im Budgetbereich etwas braucht.
Lehdro
2023-01-05, 11:47:34
Eine Sache irritiert mich etwas... alle drei CPUs haben eine TDP von 120W was ca. 162W PPT bedeutet. Wie kann das sein? Das riecht für mich beim 7800X3D nach dem absoluten Abfall der Fertigung mit deutlich schlechterer Spannungskurve. Oder übersehe ich hier was?
btw.
Der 7800X3D wird bei Volllast wieder ganz schön heiß bzw. läuft dann noch etwas schneller ins thermische Limit dank höherer PPT. :crazy2:
Ist doch Quatsch was du schreibst. Der 5800X3D hat auch ein PPT von 142W. Da kommt der in fast keiner Anwendung dran, vielleicht Cinebench. In Prime wird auch vorher schon abgeregelt, weil andere Limits vorher greifen. Beim Gaming sieht das sowieso noch einmal komplett anders aus, schau mal wo da die non X3Ds von Zen 4 landen: Weit-weit unterhalb ihrer TDPs, geschweige denn PPTs. Es würde mich arg wundern wenn der 7800X3D auch nur in die Nähe des Verbrauchs des 7700X kommt - der wohlgemerkt selber nur minimal über dem 5800X3D liegt (https://www.computerbase.de/2022-09/ryzen-9-7950x-ryzen-7-7700x-gaming-benchmark-test/2/#abschnitt_die_leistungsaufnahme_in_spielen). Und dann schau mal was für ein Sparbrötchen der 5800X3D gegenüber dem 5800X ist - das wird sich beim 7800X3D einfach wiederholen. Da gibt es dann auch keine hohen Temperaturen (90°C) beim Gaming.
Der_Korken
2023-01-05, 11:47:43
Waren nur Gerüchte. Eventuell hat jemand halt schon die 'up to' Werte gesehen aber ohne die Info über den Aufbau cache+Standard-chiplet zu kennen.
Irgendwer meinte auch mal, dass die neuen 3D-Modelle 128MB L3-Cache haben sollen. Da haben einige vermutet, dass es ein neues Cache-Chiplet mit 96MB geben wird. Tatsächlich ist es aber das alte und die 128MB kommen durch zwei CCDs, von denen eines keinen 3D-Cache bekommt. Es wird ja immer auf die Leaker und ihre falschen Infos geschimpft, aber lustigerweise ist an vielen Leaks doch oft was Wahres dran. Es wird aber auf Basis von bisher bekanntem was dazugedichtet, was dann eben nicht mehr stimmt.
Irgendwie finde ich Zen 4 3D bisher eher durchwachsen. Dass der Cache-Takt noch stärker gegenüber dem Kern-Takt abfällt, hatte ich fast schon befürchtet, denn der 6nm-Cache war vorher schon bei 4,5Ghz ziemlich am Ende. Ich hätte dann aber eher erwartet, dass AMD den Cache in eine eigene Taktdomäne auslagert so wie Intel mit ihrem Ring-Takt. Die Lösung über den Scheduler klingt nach Bastelei und vielen Ausfällen in der Praxis. Wie es aussieht, kann ich diese Gen auch weiterhin entspannt auslassen.
w0mbat
2023-01-05, 11:59:53
Hat Phoenix wie immer nur den halben cache, oder dieses Mal den vollen, wie die desktop Zen 4 CPUs?
Und sind die Zen 4 X3D cache chiplets 6nm oder 5nm designs?
Exxtreme
2023-01-05, 12:36:23
...Oder die Chipsatz-Treiber enthalten in Zukunft Spieleprofile, die darüber entscheiden, welcher CCD bei welchem Game verwendet wird.
Die Frage ist, kann der Chipsatztreiber sowas? Denn dann, glaube ich, hätte Intel das längst gemacht.
00-Schneider
2023-01-05, 12:57:22
Verstehe ich das richtig, dass beim 7900X3D nur 6 von 12 Kernen auf den V-cache zugreifen können?
Crazy_Chris
2023-01-05, 12:59:37
Verstehe ich das richtig, dass beim 7900X3D nur 6 von 12 Kernen auf den V-cache zugreifen können?
ja sieht so aus. :eek:
dildo4u
2023-01-05, 13:00:09
Verstehe ich das richtig, dass beim 7900X3D nur 6 von 12 Kernen auf den V-cache zugreifen können?
Ja da ansonsten der Takt der ganzen CPU reduziert werden müsste was in Anwendungen gegen Intel weh tut.
Siehts du doch am 8 Core Boost Clock nur 5Ghz statt 5.7 Ghz bei 16 Core.
ZdO-5F86_xo
M4xw0lf
2023-01-05, 13:00:57
Verstehe ich das richtig, dass beim 7900X3D nur 6 von 12 Kernen auf den V-cache zugreifen können?
Ja. Auch beim 7950 X3D nur das eine CCD.
00-Schneider
2023-01-05, 13:03:28
Ja da ansonsten der Takt der ganzen CPU reduziert werden müsste was in Anwendungen gegen Intel weg tut.
Siehts du doch am 8 Core Boost Clock nur 5Ghz statt 5.7 Ghz bei 16 Core.
https://youtu.be/ZdO-5F86_xo
Ja. Auch beim 7950 X3D nur das eine CCD.
OK, dann bin ich mal auf die Performance-Unterschiede zwischen den drei Modellen in Spielen gespannt.
Woher weiß eine Anwendung eigentlich, was die (performance-technisch) sinnvollste Nutzung der Chiplets ist? Max clock speed oder V-cache? Soweit ich sehe, muss die jeweilige Anwendung sich ja zwischen mehreren Varianten entscheiden.
M4xw0lf
2023-01-05, 13:12:10
In dieser Generation versucht AMD eine Art eierlegende Wollmilchsau zu bringen. Wohl nahezu volle MT-Leistung des normalen 7950X (all-core liegt der Takt bei Standardmodell ja auch nahe an 5 GHz), und wahlweise der SC-Performance des normalen 7950X für single-thread Produktivlasten / nicht-cache-sensitive Spiele oder eben cache-magic für die Titel wo es was bringt.
Kann theoretisch funktionieren, aber man kann schon drauf warten dass es haufenweise Fälle geben wird, wo die Zuordnung zu cache- oder speed-CCD out of the box nicht sinnvoll ist und damit die Performance hinter dem zu erwartenden Maß zurückbleibt.
Der_Korken
2023-01-05, 13:16:33
Woher weiß eine Anwendung eigentlich, was die (performance-technisch) sinnvollste Nutzung der Chiplets ist? Max clock speed oder V-cache? Soweit ich sehe, muss die jeweilige Anwendung sich ja zwischen mehreren Varianten entscheiden.
Das weiß keiner so genau. Wenn man es vernünftig machen will, müsste man anhand von Performance-Countern für jeden Prozess einzeln entscheiden. Das heißt, einmal auf dem schnellen CCX und gucken wie die L3-Missrate ist. Danach testweise mal auf das Cache-CCD und gucken, ob der Prozess hier weniger stallt. Da finde ich die Entscheidung zwischen P- und E-Cores ja fast noch einfach gegen, da hier alleine die Last entscheidet. P-Cores sind immer schneller als E-Cores, man muss einzig abwägen ab welcher Last es sich lohnt einen P-Core zu nutzen. Bei AMDs Modell kann mal der, mal der andere Core besser sein.
Irgendwelche Anwendungslisten zu pflegen wäre blöd. Das bedeutet ein ewiger Zusatzaufwand um alle zukünftigen Anwendungen immer richtig einzusortieren, ganz zu schweigen davon, dass man es für Bestehende erstmal nachholen müsste. Indie-Games z.B. wären da sicher wieder außen vor.
aufkrawall
2023-01-05, 13:21:47
Kann theoretisch funktionieren, aber man kann schon drauf warten dass es haufenweise Fälle geben wird, wo die Zuordnung zu cache- oder speed-CCD out of the box nicht sinnvoll ist und damit die Performance hinter dem zu erwartenden Maß zurückbleibt.
Wird spannend, ob die Scheduler-Verbesserungen überhaupt im Februar in einer stabilen Windows-Version gelandet sein werden, oder, ob man eine Insider Preview-Verison installieren muss.
Mit RPL haben jedenfalls wohl fast gar keine Tester mit Win 11 22H2 getestet...
00-Schneider
2023-01-05, 13:25:22
Irgendwelche Anwendungslisten zu pflegen wäre blöd. Das bedeutet ein ewiger Zusatzaufwand um alle zukünftigen Anwendungen immer richtig einzusortieren, ganz zu schweigen davon, dass man es für Bestehende erstmal nachholen müsste. Indie-Games z.B. wären da sicher wieder außen vor.
Ich stimme dir zu, allerdings glaube ich nicht, dass man für 99% der Indies oder der alten Schinken da zwingend optimieren muss. Die dürften auch im "schlechtesten Fall" sehr gut mit den neuen X3Ds laufen.
MSABK
2023-01-05, 13:26:24
Gibt es eine Übersicht die mal anordnet wo die neuen CPUs gegen RTL stehen könnten anhand der Folien was gezeigt wurde?
Langlay
2023-01-05, 13:28:33
Der 5800X3D hat auch ein PPT von 142W. Da kommt der in fast keiner Anwendung dran, vielleicht Cinebench. In Prime wird auch vorher schon abgeregelt, weil andere Limits vorher greifen.
Cinebench zieht so maximal 110W bei mir, Prime95 macht allerdings tatsächlich das Powerlimit voll.
Lehdro
2023-01-05, 13:32:22
Ich stimme dir zu, allerdings glaube ich nicht, dass man für 99% der Indies oder der alten Schinken da zwingend optimieren muss. Die dürften auch im "schlechtesten Fall" sehr gut mit den neuen X3Ds laufen.
Unter "Indies" fallen halt auch fast alle Simulatoren, als auch teilweise die abartig skalierenden Fälle wie MMOs aller Coleur, Sachen wie Factorio, Dwarf Fortress etc
So einfach ist es halt nicht. Nur weil ein Game "indie" oder ein "alter Schinken" ist, heißt nicht dass die dir nicht jede CPU zerfetzen, was die Anforderungen angeht. Stellaris ist zum Beispiel aus 2016 und läuft mit DX9, frisst aber CPUs im Lategame zum Frühstück. Das hat sicherlich damit zu tun dass diese Games weniger optimiert sind und einfach mehr Brute Force brauchen oder gar nutzen müssen - aber genau für die Fälle erweist sich der X3D halt als Goldstück - da noch rumfrickeln zu müssen ist irgendwie kontraproduktiv, wenn die Lösung doch auf der Hand liegt: Alles mit V-Cache machen. AMD holt sich da mMn unnötig Probleme ins Haus.
MSABK
2023-01-05, 13:40:59
Assetto Corsa Competizione wird sicherlich abgehen. Da hat der 3d auch unter 4k einen ordentlichen Boost gebracht.
dargo
2023-01-05, 13:43:52
Ist doch Quatsch was du schreibst. Der 5800X3D hat auch ein PPT von 142W. Da kommt der in fast keiner Anwendung dran, vielleicht Cinebench.
Du weißt schon was Volllast heißt? Spiele sind nur Teillast. Um dein Cinebench-Beispiel auch mal aufzugreifen, dort sollte der 7800X3D auch mehr ziehen als der 5800X3D, ansonsten macht die Anhebung der TDP auf 120W wenig Sinn.
Crazy_Chris
2023-01-05, 13:46:17
Na immerhin können sie später noch einen 7950X3D3D bringen der dann V-Cache auf beide CCDs bringt. :wink:
Gibt es eine Übersicht die mal anordnet wo die neuen CPUs gegen RTL stehen könnten anhand der Folien was gezeigt wurde?
knapp darüber würd ich sagen. Beim 7950X3D, wenn der Scheduler mal funktioniert wie er soll, könnte im Durchschnitt mehr bei rumkommen. Ansonsten würd ich sagen der 7800X3D verhält sich zum 13900k wie der 5800X3D zum 12900k.
Lehdro
2023-01-05, 13:57:39
Du weißt schon was Volllast heißt? Spiele sind nur Teillast. Um dein Cinebench-Beispiel auch mal aufzugreifen, dort sollte der 7800X3D auch mehr ziehen als der 5800X3D, ansonsten macht die Anhebung der TDP auf 120W wenig Sinn.
Und wer sich einen 7800X3D kauft um Cinebench laufen zu lassen...naja. Mag für 7900X3D & 7950X3D noch gelten als Argument, aber sonst?
davidzo
2023-01-05, 13:58:40
Ich finde viel spannender dass AMD das ganze AI gedönse jetzt in die CPU packen will. Darüber wollen sie wohl auch ihr FSR weiter betreiben. Das ist wohl das offensichtliche Ziel. Intel macht das ja auch. Bin mal gespannt wie das am Ende ausgeht und ob es Zukunft hat vor allem ob das überhaupt performant ist für spieler.
Vorsicht, es ist noch gar nicht bekannt ob der AI Beschleuniger überhaupt für FSR verwendet werden soll. Das wäre reichlicher Software-Aufwand für letztendlich nur eine Nischenlösung, da lediglich Phoenix über XDNA verfügt, alle anderen Zen4 APUs nicht.
Meiner Wahrnehmung nach sind das zwei verschiedene Features. XDNA ist ein AI Beschleuniger, der z.B. für Spracherkennung oder Bilderkennung verwendet werden kann, was vor allem für mobile devices interessant ist. Im Desktop ist das nicht so wichtig, da kann man das auch mit mehr Kernen oder einer richtigen GPU brute forcen.
Ein völlig anderes Feature ist AMD Smartshift FSR. Das hat meiner Wahrnehmung nach nichts mit XDNA zutun, sondern ist lediglich eine Methode die brach liegenden CUs der APU zu auszulasten wenn auch eine diskrete GPU verbaut ist.
Das beschränkt sich also auf AMD Advantage Labtops welche auch eine diskrete RDNA3 GPU haben. Vermutlich läuft das nichtmal auf allen Zen4 mobile Prozessoren, sondern nur auf Phoenix, weil Dragon Rage einfach zu wenig Alus hat als das es Sinn macht.
Das spart sicherlich ein paar Prozente an Rechenleistung und Bandbreite, kostet aber auch Latenz. Für mobile ist Latenz aber nicht so kritisch, da zählt dagegen jeder FPS.
Echt Brutal dass AMD in einigen der eigenen Folien (alle zu AMD Advantage) das Antialiasing der Schriften vergessen hat. Neben den anderen zahlreichen Schnitzern in der Präsentation wirft das kein gutes Licht auf einen Grafikhersteller.
robbitop
2023-01-05, 14:11:26
Ich glaube das ist zu optimistisch. Der Einstieg bei AM5 liegt im Moment bei genau 5 Mainboards die lieferbar etwas unter 200€ liegen. In welcher Welt will man da jemals wieder bei den 70-80€ für ein akzeptables AM4 landen. :confused:
Würde mich nicht wundern wenn AMD noch relativ lange AM4 weiter supported da man zwangsweise im Budgetbereich etwas braucht.
Da wird man wohl nicht mehr mit B Chipsätzen hinkommen. Aber ggf. irgendwo dazwischen.
robbitop
2023-01-05, 14:12:31
Hat Phoenix wie immer nur den halben cache, oder dieses Mal den vollen, wie die desktop Zen 4 CPUs?
Und sind die Zen 4 X3D cache chiplets 6nm oder 5nm designs?
Anand schreibt 32 MiB L3.
MSABK
2023-01-05, 14:20:00
Anand schreibt 32 MiB L3.
Hmm. Laut Amd.com sind es 16MB L3 und 8MB L2.
Beim Ram tut sich auch endlich was. DDR5-5600 oder LPDDR5x-7500.
Voodoo6000
2023-01-05, 14:21:03
Alles mit V-Cache machen. AMD holt sich da mMn unnötig Probleme ins Haus.
Da muss man die Tests abwarten. Laut AMD (https://youtu.be/ZdO-5F86_xo?t=424) brachte dies in Tests kaum zusätzliche Gaming-Performance und erhöht die Kosten nur. Außerdem verringert es die Performance von Anwendung die nicht von V-Cache profitieren.
w0mbat
2023-01-05, 14:25:25
Anand schreibt 32 MiB L3.
Hmm. Laut Amd.com sind es 16MB L3 und 8MB L2.
Beim Ram tut sich auch endlich was. DDR5-5600 oder LPDDR5x-7500.
Ich frage, weil AMD in der Präsentation sowohl von 20MB als auch von 40MB gesprochen hat.
16+8 wäre noch eine Variante :ugly:
amdfanuwe
2023-01-05, 14:26:51
Hmm. Laut Amd.com sind es 16MB L3 und 8MB L2.
Auf den Folien und in der Presseinfo
https://www.amd.com/en/newsroom/press-releases/2023-1-4-amd-extends-its-leadership-with-the-introduction-o.html
sind es 40MB.
Ich gehe erst mal von Copy-Paste Fehler bei den Specs aus.
w0mbat
2023-01-05, 14:34:21
Hier sind es 20MB, auch von der offziellen Präsentation:
Der_Korken
2023-01-05, 14:37:33
20MB ergeben keinen Sinn, weil AMD weder den L2 wieder halbiert noch den L3 auf krumme 12MB geschrumpft haben dürfte.
dargo
2023-01-05, 14:43:49
Und wer sich einen 7800X3D kauft um Cinebench laufen zu lassen...naja. Mag für 7900X3D & 7950X3D noch gelten als Argument, aber sonst?
Es gibt viele unterschiedliche Anwenderprofile. Man muss nicht alles auf Cinebench runter reduzieren. Handbrake bsw. ist bei meinem UV-ten 5800X beim Encoden nur knapp unter Cinebench... 97W vs. 101W.
Linmoum
2023-01-05, 14:48:15
Unter "Indies" fallen halt auch fast alle Simulatoren, als auch teilweise die abartig skalierenden Fälle wie MMOs aller Coleur, Sachen wie Factorio, Dwarf Fortress etc
So einfach ist es halt nicht. Nur weil ein Game "indie" oder ein "alter Schinken" ist, heißt nicht dass die dir nicht jede CPU zerfetzen, was die Anforderungen angeht. Stellaris ist zum Beispiel aus 2016 und läuft mit DX9, frisst aber CPUs im Lategame zum Frühstück. Das hat sicherlich damit zu tun dass diese Games weniger optimiert sind und einfach mehr Brute Force brauchen oder gar nutzen müssen - aber genau für die Fälle erweist sich der X3D halt als Goldstück - da noch rumfrickeln zu müssen ist irgendwie kontraproduktiv, wenn die Lösung doch auf der Hand liegt: Alles mit V-Cache machen. AMD holt sich da mMn unnötig Probleme ins Haus."Alles mit V-Cache" bringt aber nichts. Dadurch steigt die Performance auch nicht an (der pro-Kern-Zugriff ist derselbe), wenn die Anwendung bzw. in dem Fall ja primär das Spiel, aus dem größeren Cache keinen Nutzen zieht. Dafür hätte man dann aber ein großes Taktdefitiz in den Spielen, die eben nicht auf Cache reagieren. Die Fälle gibt es ja genauso, dass ein 5800X sogar mal "schneller" als ein 5800X3D deswegen sein kann.
Bleibt eigentlich nur die Frage, wie gut das scheduling gehandhabt wird. Andererseits könnte das zumindest für diejenigen, die selbst optimieren wollen und keine Probleme damit haben, selbst Hand anzulegen, schon ziemlich verlockend sein. Man hat sowohl die Vorteile von hohem Takt als auch die des V-Caches und je nach Spiel legt man dann selbst fest, welches CCD bzw. Kerne aktiv sind.
Für MMOs oder Sims weiß ich ja beispielsweise vorher, dass ich massig Cache brauche. Genauso, wie mehr Kerne beispielsweise bei Total War.
Edit:
ZdO-5F86_xo
Kein klassisches OC bei den X3D (wie erwartet und auch schon beim 5800X3D der Fall), allerdings dieses Mal inkl. Support für CO (gut, ging ja inoffiziell schon bei Zen3) und auch PBO. Ggf. sind ja dann beim V-Cache-Die damit die bekannten +150MHz möglich.
dildo4u
2023-01-05, 15:18:38
Er erwartet weniger AMD only Laptops da die High-End GPUs fehlen.
Das berühmte Asus G14 nutzt z.b wieder Nvidia.
G14 kommt mit 3050 bis 4090.
https://rog.asus.com/laptops/rog-zephyrus/rog-zephyrus-g14-2023-series/spec/
dN4P27WLyfs
MSABK
2023-01-05, 15:34:03
Ich persönlich erwarte allgemein weniger AMD APUs bzw Zen4 Apus in neuen Geräten. Intel scheint da immer mehr Druck zu machen mit ihrer Evo Plattform und da wird sicherlich auch viel Geld fließen. Ich denke 2023 wird wie 2022 werden für amd, also wenige aktuelle Designs.
robbitop
2023-01-05, 15:35:32
Ich frage, weil AMD in der Präsentation sowohl von 20MB als auch von 40MB gesprochen hat.
16+8 wäre noch eine Variante :ugly:
AMD schreibt 40 MiB
https://ir.amd.com/news-events/press-releases/detail/1111/amdextends-its-leadership-with-the-introduction-of-its
Mortalvision
2023-01-05, 15:47:53
Hmm… ob das so viel mehr bringt als beim 5800X? Irgendwie hätte ich 128 oder besser 258MB L3# Cache erwartet. Ist weniger besser wegen Strom und Zugriffszeiten?
Locuza
2023-01-05, 15:51:01
AMD seems to have sorted out part of their Ryzen specs snafu this morning. The press info decks have all been updated to consistently indicate that Phoenix (Ryzen Mobile 7040) has 16MB of L3 cache, not 32MB. So no L3 cache increase for mobile this gen, sorry
https://twitter.com/RyanSmithAT/status/1610974871575744514
Es sollten 16 MB L3$ + 8 MB L2$ sein (24 MB total).
robbitop
2023-01-05, 15:55:13
Ah ok - 32 MiB wären auch fett gewesen für eine APU.
Der_Korken
2023-01-05, 16:01:58
Hmm… ob das so viel mehr bringt als beim 5800X? Irgendwie hätte ich 128 oder besser 258MB L3# Cache erwartet. Ist weniger besser wegen Strom und Zugriffszeiten?
Technisch scheinen nicht mehr als 5Ghz mit 3D-Cache zu gehen. Warum ist nicht klar, entweder weil der Cache nicht mehr schafft (wird ja vermutlich noch der alte 6nm-Die sein) und/oder weil dessen Spannung weiterhin auf 1,35V limitiert ist und AMD deswegen die Cores ebenfalls nicht >5Ghz takten will. Würde man den 7800X3D einfach verdoppeln, würde die MT-Performance vermutlich weiterhin OK sein, weil bei 16 Kernen sowieso nicht mehr als 5Ghz drin sind. Bei Teillast, die nicht vom Cache profitiert, hätte man aber Nachteile gegenüber der gemischten Variante, weil die auch >5Ghz schafft. Für Spiele braucht man keine zwei gestackten CCDs, wenn man mal ehrlich ist. Und Anwendungen, die von zwei Stacks profitieren sind vermutlich so nischig, dass man im Schnitt mit der gemischten Variante besser fährt. Da zwei Stacks mehr kosten als einer, ist die Entscheidung für AMD wohl einfach. Prinzipiell ist das auch nicht doof, aber es steht und fällt alles mit dem Scheduling in der Praxis. Da bin ich eher vorsichtig pessimistisch.
96MB statt 64MB im Cache-Die wären natürlich immer besser gewesen, ist am Ende eine Kosten-Nutzen-Abwägung von AMD. Latenzen könnten natürlich auch eine Rolle spielen, denn die sind bei 96MB deswegen so gut, weil der Cache nicht in der Fläche wächst. Mit 128MB (32+96) natürlich schon. Eventuell ist der Ertrag dann so gering, dass die Entscheidung zwischen Kosten und Nutzen hier sehr einfach war.
davidzo
2023-01-05, 16:47:53
https://twitter.com/RyanSmithAT/status/1610974871575744514
Es sollten 16 MB L3$ + 8 MB L2$ sein (24 MB total).
Enttäuschend dass man mobile wieder nur Sparkost bekommt, aber auch was für ein Fail so offensichtlich fehlerhafte Tabellen zu kommunizieren. Die Folien sind diesmal so schlecht zusammengeklatscht, da fragt man sich wirklich was da intern gerade abgeht.
Last Minute die Vergleichsfolien herausgenommen die man der Presse noch gezeigt hatte, katastrophal falsche Daten zur FP32 Leistung der neuen RDNA3 GPUs, fehlende Footnotes für die Benchmark claims, kein Antialiasing bei den Präsentationsfonts, etc. - Amateure :rolleyes:
Gott1337
2023-01-05, 17:12:07
AMD macht immer fehlerhafte Folien, ich hab ja gesagt die Präsentation verzögert sich deswegen xD war die letzten 3 male so
MSABK
2023-01-05, 17:35:43
Immerhin ist doch der L2 gewachsen in der APU oder?
HTB|Bladerunner
2023-01-05, 18:03:08
Die Frage ist, kann der Chipsatztreiber sowas? Denn dann, glaube ich, hätte Intel das längst gemacht.
Soviel ich weiß werden über den Chipsatztreiber die besten Kerne identifiziert und für Teillast-Anwendungen priorisiert (Single-Core-Boost). Das kann AMD sicher auch um eine CCD-Auswahl erweitern.
Ohne Microsoft geht es dann aber scheinbar auch nicht. :D
In dem Interview zwischen AMD und PC World wurde ja gesagt, dass nicht nur AMD und Microsoft an einer Lösung arbeiten, sondern auch Spiele-Entwickler daran beteiligt sind/waren. Ich hoffe nicht, dass die Spiele-Entwickler Patches nachschieben müssen um das Umschalten zwischen den CCDs zu unterstützen.
ChaosTM
2023-01-05, 18:10:09
AMD macht immer fehlerhafte Folien, ich hab ja gesagt die Präsentation verzögert sich deswegen xD war die letzten 3 male so
AMD hat einmal daneben gehauen, und das war bei RDNA3. Sonst hat das unter Lisas Führung immer gestimmt.
Ich hoffe die 3D`s werden nicht zu schnell, sonst muss ich den 5900er zu früh pensionieren. ;)
(First Worls Problem)
Thunder99
2023-01-05, 18:35:33
+30% laut AMD gegenüber dem 5800X3D ist nicht die Welt :wink:, gegenüber dem 5900X schon mehr :D.
Diesmal ist ja auf dem Chiplet die Reduzierung des Taktes ja grösser, zumindest beim 7800X3D (-400MHz) gegenüber dem 5800X3D.
G14 ohne AMD GPU ist nicht so gut. Nur wenn CPU und GPU zusammen sind gibt es die besten Möglichkeiten und hat das grösste Potential. Schade um die besseren Video Funktionen aber ansonsten alles richtig gemacht mit meinem G14 (6800HS, 6700s)
MSABK
2023-01-05, 18:44:35
+30% laut AMD gegenüber dem 5800X3D ist nicht die Welt :wink:, gegenüber dem 5900X schon mehr :D.
Diesmal ist ja auf dem Chiplet die Reduzierung des Taktes ja grösser, zumindest beim 7800X3D (-400MHz) gegenüber dem 5800X3D.
G14 ohne AMD GPU ist nicht so gut. Nur wenn CPU und GPU zusammen sind gibt es die besten Möglichkeiten und hat das grösste Potential. Schade um die besseren Video Funktionen aber ansonsten alles richtig gemacht mit meinem G14 (6800HS, 6700s)
DLSS gleicht das im Laptop aber aus.
Wenn Zen4 3d 30% schneller als Zen3 3d ist, dann bleibt am am Ende ca +10% gegenüber Zen4 oder?
Rolsch
2023-01-05, 18:46:11
Soviel ich weiß werden über den Chipsatztreiber die besten Kerne identifiziert und für Teillast-Anwendungen priorisiert (Single-Core-Boost). Das kann AMD sicher auch um eine CCD-Auswahl erweitern.
Ohne Microsoft geht es dann aber scheinbar auch nicht. :D
Geht um die UEFI CPPC2 Funktion und ja man braucht Chipsatz Treiber und Microsoft, siehe hier im aktuellen Fall:
Issue 2: UEFI CPPC2 (“preferred core”) may not preferentially schedule threads on a processor’s fastest core.
Applications sensitive to the performance of one or a few CPU threads may exhibit reduced performance.
Performance impact may be more detectable in >8-core processors above 65W TDP.*
An AMD Chipset Driver package is now available to address this issue under version 3.10.08.506.
Systems with this update applied will report AMD Chipset Software 3.10.08.506 (or newer) within the Apps & Features interface of Windows 11.
In addition:
For AMD processors with the “Zen 3” architecture: Systems configured with AMD Chipset Driver 3.10.08.506 (or newer) should report version 7.0.3.5 (or newer) for the AMD.Power.Processor.Settings entry in the Windows 11 Provisioning Packages interface.
For AMD processors with the “Zen+” or “Zen 2” architectures: Systems configured with AMD Chipset Driver 3.10.08.506 (or newer) should have the AMD Ryzen™ Balanced power plan selected and active in the Control Panel > Power Options interface.
https://www.amd.com/en/support/kb/faq/pa-400
Langlay
2023-01-05, 18:50:50
Wenn Zen4 3d 30% schneller als Zen3 3d ist, dann bleibt am am Ende ca +10% gegenüber Zen4 oder?
Zen3 3D und Zen4 ist bei Gaming ungefähr gleich. Also der 5800X3D und der 7600X sind ungefähr gleichschnell over all.
Nightspider
2023-01-05, 19:15:18
Sehe ich das jetzt richtig, das es keine 3D CPUs im BGA Format für Laptops geben wird?
Wenn ja, warum?
Gerade dort würde man durch den zusätzlichen Cache die Konkurrenz zerstören, vor allem was die Effizienz betrifft.
dildo4u
2023-01-05, 19:17:12
Intel kann keine 300 Watt im Notebook nutzen die Abstände werden groß genug sein.
Zossel
2023-01-05, 19:20:44
Geht um die UEFI CPPC2 Funktion und ja man braucht Chipsatz Treiber und Microsoft, siehe hier im aktuellen Fall:
https://www.amd.com/en/support/kb/faq/pa-400
Und was ist der "schnellere" Core?
- Der mit mehr Takt?
- Der mit mehr Cache?
Und selbst wenn man das wissen würde, Lohnt es sich diese Task ggf. von dem anderen Chiplet runterzuholen und dabei die Auswirkungen ggf. andere Tasks zu vernachlässigen ?
Die Antwort ist: (Genauso wie man nicht vorher weiß ob die nächste Task mehr Cache oder mehr Takt braucht)
https://pbs.twimg.com/media/EdJXFFhXYAEVNJL?format=jpg&name=900x900
Rolsch
2023-01-05, 19:27:25
Immer der mit mehr Cache. Das was man wegen dem bissl Takt verliert ist nicht der Rede wert. Oder hat jemand sein 5800x3D wieder gegen einen 5800x zurück gebaut.
Nightspider
2023-01-05, 19:32:50
Intel kann keine 300 Watt im Notebook nutzen die Abstände werden groß genug sein.
Ist doch egal, immer schön draufhauen. :freak: #Premium
Die Bauteile hat AMD ja alle schon fertig. Sie müssten nur das CCD von Dragon Range austauschen, fertig.
Zossel
2023-01-05, 19:33:18
Immer der mit mehr Cache. Das was man wegen dem bissl Takt verliert ist nicht der Rede wert. Oder hat jemand sein 5800x3D wieder gegen einen 5800x zurück gebaut.
Und das ist immer besser?
Und man soll auch immer Tasks von einem Chiplet migrieren?
Und wenn es mehr ready to run Tasks gibt als auf das Chiplet mit mehr Cache passen?
Linmoum
2023-01-05, 19:33:25
Es kann ja trotzdem vorkommen, dass der 5800X3D auf das Niveau des 5800X fällt. Spricht halt nicht jedes Spiel auf Cache an. Und dann sind 5GHz vs. 5.6/5.7GHz halt noch mal ein ordentliches Taktplus. Wenn das Scheduling funktioniert, ist das für viele sicherlich nicht uninteressant. Wer selbst je nach Spiel lieber Takt oder Cache hat, bekommt mit den beiden Topmodellen aber auch so schönes Spielzeug. ;)
mboeller
2023-01-05, 20:25:37
mal ne dumme Frage/Idee:
wird AMD die XDNA Einheit in der Phoenix-APU für RSR benutzen?
https://www.computerbase.de/2023-01/radeon-rx-7000-mobile-amd-navi-33-feiert-als-rx-7600m-s-xt-und-7700s-premiere/
Im 1. Halbjahr 2023 soll sich SmartShift RSR hinzugesellen, das Upscaling vom Typ AMD RSR „von der GPU lösen“ soll, indem die Rechenlast auf die APU (bzw. deren iGPU) verschoben wird
Nightspider
2023-01-05, 21:13:43
mal ne dumme Frage/Idee:
wird AMD die XDNA Einheit in der Phoenix-APU für RSR benutzen?
https://www.computerbase.de/2023-01/radeon-rx-7000-mobile-amd-navi-33-feiert-als-rx-7600m-s-xt-und-7700s-premiere/
Siehe ~2-3 Seiten vorher
y33H@
2023-01-05, 21:41:29
Ich bin so hibbelig ... direkt einen 7700 non-X oder auf den 7800X3D warten ^^
M4xw0lf
2023-01-05, 21:50:24
Ich bin so hibbelig ... direkt einen 7700 non-X oder auf den 7800X3D warten ^^
Ich wiederhole mich: Ohne cäsch kein cäsch! :freak:
Linmoum
2023-01-05, 22:56:34
Ob der niedriger taktende 8-Kern-CCD mit dem 3D V-Cache bei den Ryzen 9 wie beim Ryzen 7 mit 5,0 GHz taktet, wollte AMD auf Nachfrage heute nicht beantworten. Diese Details sollen später geteilt werden, heißt es.https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/#update-2023-01-05T22:26
Ggf. doch eine gewisse künstliche Segmentierung beim 7800X3D? Dass das Cache-CCD bei den größeren Modellen niedriger taktet als beim 8C, ergibt keinen Sinn. Dann hätte es AMD auch einfach bei 8C belassen können und gut ist.
Der_Korken
2023-01-05, 23:05:13
Dass das Cache-CCD bei den größeren Modellen niedriger taktet als beim 8C, ergibt keinen Sinn. Dann hätte es AMD auch einfach bei 8C belassen können und gut ist.
Das lese ich da nicht unbedingt raus. Es könnte auch sein, dass das Cache-CCD beim 16C mit 5,1Ghz oder so taktet.
Linmoum
2023-01-05, 23:09:19
Was ja höher wäre und bedeutet, dass beim 7800X3D eigentlich mehr gehen würde. ;) Ok, bei lausigen 100MHz wäre das natürlich Haarspalterei, aber wenn die Specs für das Cache-CCD bei allen CPUs identisch sind, könnte man das auch einfach jetzt schon bestätigen. AMD war ja sonst auch relativ gesprächsfreudig bei dem Thema und den CPUs.
MSABK
2023-01-05, 23:18:30
Habe die Hoffnung die größeren takten mit min 5,4Ghz. Wobei die halt auch 120W haben.
y33H@
2023-01-06, 00:11:41
Wenn AMD nix sagen will, tippe ich auf 5 GHz ^^
y33H@
2023-01-06, 00:12:17
Ich wiederhole mich: Ohne cäsch kein cäsch! :freak:
Eher Ungeduld als $ ^^
Thunder99
2023-01-06, 06:36:12
Wird dennoch interessant und spannend wie sie das lösen wollen mit Windows und auch Linux wenn A von Cache profitiert aber B vom Takt. Uns wie es bei Multi Last läuft. Ist ja bisschen wie BigLittle bei Intel mit den P und E Cores:D
CrazyIvan
2023-01-06, 07:09:31
Ist IMHO schwieriger als BIG.little. Was man so liest, wollen sie es mit Block-/Allowedlists im Treiber lösen. Das blöde ist nur, dass sowas ständiger Pflege bedarf. Zumal ein und dieselbe Applikation durchaus beide Extreme an unterschiedlichen Stellen besitzen kann.
Zossel
2023-01-06, 07:57:32
Ist IMHO schwieriger als BIG.little. Was man so liest, wollen sie es mit Block-/Allowedlists im Treiber lösen. Das blöde ist nur, dass sowas ständiger Pflege bedarf. Zumal ein und dieselbe Applikation durchaus beide Extreme an unterschiedlichen Stellen besitzen kann.
Weswegen das ziemlicher Kokolores ist, AMD sollte noch eine CPU mit extra Cache auf beiden Chiplets nach schieben.
mksn7
2023-01-06, 08:53:00
Ich würde nicht behaupten dass das schwieriger ist als BIG.little.
Eine sehr simple Heuristik könnte einfach nach Auslastung gehen. Single thread geht auf den CCD ohne cache, um den maximalen takt mitzunehmen. Die dem einzelnen Thread zu Verfügung stehende Menge an cache pro Kern und Speicherbandbreite ist hoch, da ist der 3D cache nicht ganz so wichtig. Sobald es in Richtung 3+ threads geht, und der single core Takt sowieso sinkt, wird erstmal präferiert das cache die gefüllt.
Wenn man zusätzlich performance counter mit einbezieht, kann man schon etwa abschätzen ob ein Programm von mehr Takt (execution units sind voll) oder von mehr cache (viele L3 cache misses/hohe Speicherbandbreite) profitieren würde.
Man wird sich schon überlegt haben, beide dies mit cache zu versehen. Entweder ist es im Schnitt schneller, wegen Szenarien die keinen cache aber viel Takt benötigen, oder die Mehrperformance ist den Aufwand nicht wert. Und mit heterogenem scheduling muss man sich früher oder später sowieso auseinandersetzen ...
MSABK
2023-01-06, 09:16:31
Die iGPU taktet ja 3000Mhz, das ist auch eine Hausnummer. RDNA3 scheint da echt Potential zu haben. Gepaart mit dem schnelleren Ram sollte da bissi mehr spielbar sein als mit der letzten Gen.
Linmoum
2023-01-06, 09:25:26
Weswegen das ziemlicher Kokolores ist, AMD sollte noch eine CPU mit extra Cache auf beiden Chiplets nach schieben.Bringt aus Kosten-/Nutzensicht schlicht nichts. Das hatte AMD damals schon angedeutet, als man erst einen 5900X3D-Prototypen zeigte, am Ende aber nur einen 5800X3D brachte.
Und wenn es mit einem Cache-Die nicht funktionieren würde, kann man sich den ganzen Aufwand auch gleich sparen und einfach nur den 7800X3D bringen.
Redneck
2023-01-06, 09:37:16
Bringt aus Kosten-/Nutzensicht schlicht nichts. Das hatte AMD damals schon angedeutet, als man erst einen 5900X3D-Prototypen zeigte, am Ende aber nur einen 5800X3D brachte.
Und wenn es mit einem Cache-Die nicht funktionieren würde, kann man sich den ganzen Aufwand auch gleich sparen und einfach nur den 7800X3D bringen.
AMD bedient aber auch Nutzer, die abseits des Gamings auch produktiv unterwegs sind und die eben nicht nur 1st class gaming performance wollen sondern beides.
Denke das ist ein guter Kompromiss Anwendungen zuerst auf den hoch taktenden non cache cores zu präferieren anstatt alle cores niedriger getaktet laufen zu lassen und damit die Anwender Benchmarks nach unten zu ziehen.
Linmoum
2023-01-06, 09:43:21
AMD bewirbt diese drei CPUs explizit als Gaming-CPUs. Das hat schon seinen Sinn, warum das so ist.
Zossel
2023-01-06, 09:44:27
AMD bedient aber auch Nutzer, die abseits des Gamings auch produktiv unterwegs sind und die eben nicht nur 1st class gaming performance wollen sondern beides.
Denke das ist ein guter Kompromiss Anwendungen zuerst auf den hoch taktenden non cache cores zu präferieren anstatt alle cores niedriger getaktet laufen zu lassen und damit die Anwender Benchmarks nach unten zu ziehen.
Jetzt sind also die Cores mit mehr Takt die besseren, vor ein paar Posts waren das noch die Cores mit mehr Cache.
Und wenn die Cores mit mehr Takt die besseren sind, warum verbaut man dann überhaupt mehr Cache?
robbitop
2023-01-06, 09:54:14
Die iGPU taktet ja 3000Mhz, das ist auch eine Hausnummer. RDNA3 scheint da echt Potential zu haben. Gepaart mit dem schnelleren Ram sollte da bissi mehr spielbar sein als mit der letzten Gen.
AMD sagte ja selbst beyond 3 GHz. Wahrscheinlich ist die IGP aber für anliegende 3 GHz zu sehr TDP limited. Und bandbreitenlimitierung ist ja leider auch ein Übel der IGPs. Dort würde ein IF$ richtig helfen. Wäre auch gut für Energieeffizienz.
Linmoum
2023-01-06, 09:54:53
Sie sind dann die besseren, wenn es Spiele gibt, die eben nicht auf den Cache anspringen und wo dann mehr Takt auch mehr bringt. Das kommt eben auch vor.
dargo
2023-01-06, 10:06:08
Was ja höher wäre und bedeutet, dass beim 7800X3D eigentlich mehr gehen würde. ;)
Bleibt immer noch die Möglichkeit einer leicht schlechteren Spannungskurve beim 7800X3D um dann wirklich so gut wie alles verwerten zu können. Ich hatte mich schon bei 5800X3D gefragt was AMD mit dem "Abfall" macht? Kommt so ein Teil dann in den Müll oder als 5700X mit deaktivierten 3D Cache?
Rolsch
2023-01-06, 10:07:09
Sie sind dann die besseren, wenn es Spiele gibt, die eben nicht auf den Cache anspringen und wo dann mehr Takt auch mehr bringt. Das kommt eben auch vor.
Großteil der Nutzer wird den 7950x3D für Allcore Anwendunhgen benötigen, da ist der Maximaltakt dann auch schnuppe. Die wo wegen CPU-Z Bench und CS GO kaufen können ja auch selber Hand anlegen falls der Scheduler versagt.
Ist der 7900x3D ein 6+6 oder ein 8+4 Core? Weil 6+6 wäre ja die Resterampe schlechthin.
00-Schneider
2023-01-06, 10:10:42
Ist der 7900x3D ein 6+6 oder ein 8+4 Core? Weil 6+6 wäre ja die Resterampe schlechthin.
6+6.
Bei 8+4 würde ja niemand mehr den 7950X3D(8+8) kaufen.
w0mbat
2023-01-06, 12:24:56
6+6.
Bei 8+4 würde ja niemand mehr den 7950X3D(8+8) kaufen.
Wissen wir das 100%? Ich denke auch, dass es stimmt, AMD wird nicht anfangen 4C-CCDs zu binnen. Aber gibt es dazu ne Quelle?
Nen cache chiplet auf einem 6C-CCD finde ich auch sehr interessant, mega viel cache per core!
vad4r
2023-01-06, 12:52:21
Man kann nur abwarten. Die Hersteller mit ihren superduper frisierten Benchmarks und alle die anderen mit ihren Glaskugeln. Hardware kann man heute ja nur noch gut abgehangen - und gut unabhängig getestet - kaufen.
mboeller
2023-01-06, 14:58:31
Phönix GPU.
Laut anandtech geht die iGPU bis 3GHz. Ich hab das zumindest noch nirgends gesehen bzw. bisher übersehen.
https://www.anandtech.com/show/18718/amd-2023-ryzen-mobile-7000-cpus-unveiled-zen-4-phoenix-takes-point
Bei ~25% mehr Leistung pro CU (n33) + 3/2,4GHz wären das ca. die 1,55fache Rechenleistung. Mal sehen was sie davon auf die Straßen bringen können.
dildo4u
2023-01-06, 15:10:30
Hat nicht selbst die RX6400 Cache gebraucht schätze mal die IGP ist deutlich langsamer.
Fusion_Power
2023-01-06, 15:12:17
Phönix GPU.
Laut anandtech geht die iGPU bis 3GHz. Ich hab das zumindest noch nirgends gesehen bzw. bisher übersehen.
https://www.anandtech.com/show/18718/amd-2023-ryzen-mobile-7000-cpus-unveiled-zen-4-phoenix-takes-point
Bei ~25% mehr Leistung pro CU (n33) + 3/2,4GHz wären das ca. die 1,55fache Rechenleistung. Mal sehen was sie davon auf die Straßen bringen können.
iGPU bleibt weiter spannend. :)
xCnqzNnTFVs
Würde mir zum gelegentlichen Zocken vollkommen reichen.
robbitop
2023-01-06, 16:43:43
Für die 25% Mehrleistung pro CU ist aber noch ordentlich Arbeit am Shadercompiler nötig. Siehe CB 7900 Artikel wo sie rohleistungsnormiert rdna 2 mit 3 verglichen haben. Im Schnitt sind es nur +9% im Rasterizing im Index - aber im Bestfall knapp 25%.
RT im Schnitt 18% und im Bestfall 32%.
https://www.computerbase.de/2022-12/amd-radeon-rx-7900-xtx-xt-review-test/6/
robbitop
2023-01-06, 16:45:05
iGPU bleibt weiter spannend. :)
https://youtu.be/xCnqzNnTFVs
Würde mir zum gelegentlichen Zocken vollkommen reichen.
IF$ wäre mal ein richtiger Akzent den sie setzen könnten. Kostet aber leider auch ordentlich die space. Mal schauen ob und wann das mal kommt. Das würde gerade IGPs richtig was bringen.
Lehdro
2023-01-06, 16:46:09
AMD sagte ja selbst beyond 3 GHz. Wahrscheinlich ist die IGP aber für anliegende 3 GHz zu sehr TDP limited. Und bandbreitenlimitierung ist ja leider auch ein Übel der IGPs. Dort würde ein IF$ richtig helfen. Wäre auch gut für Energieeffizienz.
AMD muss es endlich mal hinkriegen dass die iGPUs den L3 mitnutzen können, das würde so viele Probleme mit einem Schlag lösen.
Der_Korken
2023-01-06, 17:06:32
AMD muss es endlich mal hinkriegen dass die iGPUs den L3 mitnutzen können, das würde so viele Probleme mit einem Schlag lösen.
Ich glaube, dass sowas erst mit Zen 5 kommen wird. Es gab Gerüchte, dass Zen 5 den L2 statt des L3 über ein CCX sharen wird und dass es einen System-Level-Cache geben soll. Letzteres könnte ein Cache im IOD sein (bzw. bei APUs dann einfach außerhalb des CPU-Blocks), der sowohl CPU als auch GPU bedient und optional stackbar sein könnte, um weniger Platz im Base-Die mit Cache zu "verschwenden". Wie gesagt, Spekulation.
MSABK
2023-01-06, 17:19:23
Es mangel wie immer an Bandbreite.
robbitop
2023-01-06, 18:40:28
AMD muss es endlich mal hinkriegen dass die iGPUs den L3 mitnutzen können, das würde so viele Probleme mit einem Schlag lösen.
Wobei sie dann den Cache auch aufkohlen müssten IMO. Dann sind 16 MiB für beides etwas dünn. 32 MiB sollten es damm schon sein.
davidzo
2023-01-06, 22:21:56
AMD muss es endlich mal hinkriegen dass die iGPUs den L3 mitnutzen können, das würde so viele Probleme mit einem Schlag lösen.
Pass auf was du dir wünscht. Intel hat den shared L3 seit Haswell und das Resultat ist ein langsamer L3, mit hoher Latenz der immer noch zu viel idle Power verbraucht. Der L3 und Ringbus laufen nicht mit der Core-Taktdomäne, dadurch die höheren Latenzen. Die zusätzlichen Ringbus-Stops für die E-Cores helfen sicher auch nicht, da hat AMD mit nur 8Core CCXs einen großen Vorteil. Und für Mobile ist es auch kacke, da der Ringbus bei leichter GPUload schon mit voller Power laufen muss selbst wenn die CPU keine Last hat.
Ein privater 16MB L3 für die GPU kosten sicherlich mehr Diefläche, aber aus der Latenz- und Power Perspektive wäre das sicher besser als ein unified cache.
Aber dafür ist AMD ja auch zu geizig :rolleyes:
y33H@
2023-01-06, 22:23:42
Intels iGPUs haben einen eigenen L3, konkret 16M bei XeLP ... ältere uArch wie Gen11 hatten 3M.
Locuza
2023-01-06, 22:34:46
16 MiB GPU L3 Cache gibt es bisher bei keiner Intel iGPU ;)
Nur die Xe LP dGPU DG1 (96 EUs) hat 16 MB verbaut.
GT1 (32 EUs) Xe LP bei Tiger Lake und Alder Lake verwendet 1.875 MB, GT2 (96 EUs) 3.75 MB.
Lehdro
2023-01-06, 22:58:16
Pass auf was du dir wünscht. Intel hat den shared L3 seit Haswell und das Resultat ist ein langsamer L3, mit hoher Latenz der immer noch zu viel idle Power verbraucht. Der L3 und Ringbus laufen nicht mit der Core-Taktdomäne, dadurch die höheren Latenzen. Die zusätzlichen Ringbus-Stops für die E-Cores helfen sicher auch nicht, da hat AMD mit nur 8Core CCXs einen großen Vorteil. Und für Mobile ist es auch kacke, da der Ringbus bei leichter GPUload schon mit voller Power laufen muss selbst wenn die CPU keine Last hat.
Ich würde das gerne mal in der Praxis sehen, wie das bei AMD genau aussehen würde. Vorallem beim Fokus auf Gaming, also für so Sachen wie Steamdeck + die großen APUs mit dicker GPU Power. Kann gut sein dass man bei sorgefältiger Auslegung mehr Leistung rausholt, als man bei der Power opfern müsste.
Wieviel Cache haben denn die RDNA3 iGPUs eigentlich für sich?
y33H@
2023-01-06, 23:33:27
16 MiB GPU L3 Cache gibt es bisher bei keiner Intel iGPU ;)
Bisher, hihi ^^
mczak
2023-01-07, 00:31:50
Wieviel Cache haben denn die RDNA3 iGPUs eigentlich für sich?
Rembrandt soll 2MB L2 haben, Phoenix Point angeblich auch (?). Keine Ahnung wie's bei den 2 CU Versionen aussieht, spielt auch nicht wirklich eine Rolle.
Interessant dabei ist dass Rembrandt folglich die doppelte Menge L2 hat als N24, aber natürlich der Infinity Cache fehlt. (Vergleicht man die RX 6400 gegen einen Ryzen 6900HS mit LPDDR5-6400 haben die beide dieselbe Anzahl CUs, und auch die reine Speicherbandbreite ist gar nicht so weit auseinander (128 GB/s gegenüber 102 GB/s), nur eben die Cache-Konfiguration ist 2+0MB statt 1+16MB.)
Ist jedenfalls schon auffällig wie wenig Cache da am Ende die AMD iGPU im Vergleich zu intel hat (Xe-LP mit 1MB (?) L2 + 3.8MB L3 und dazu bis zu 36MB LLC, möglicherweise verbietet die Cache-Policy dass die GPU alles davon nutzt). Und dies obwohl ja Xe-LP schon gegenüber der RX680M der Rembrandt-APUs kein Land sieht.
Da wäre vielleicht schon mal ein zusätzlicher Cache hilfreich - ob jetzt exklusiv für die GPU oder als SLC ist für die Performance der GPU zweitrangig. 16MB würden wohl in 5nm so um die 10mm² belegen, das ist definitiv nicht unerheblich (auch wenn man da den L2 wieder halbieren könnte), aber wenn die iGPU Performance wirklich wichtig ist erscheint das durchaus vertretbar.
Lehdro
2023-01-07, 01:01:33
[...]aber wenn die iGPU Performance wirklich wichtig ist erscheint das durchaus vertretbar.
Nicht nur die Performance, sondern auch Perf/W. Ich denke da so an das Steamdeck, wenn das IF$ hätte, würde sich da sicher das ein oder andere Watt sparen lassen. Das würde der Laufzeit sehr zugute kommen.
mczak
2023-01-07, 01:59:22
Nicht nur die Performance, sondern auch Perf/W. Ich denke da so an das Steamdeck, wenn das IF$ hätte, würde sich da sicher das ein oder andere Watt sparen lassen. Das würde der Laufzeit sehr zugute kommen.
Das Steamdeck so wie es ist würde hinsichtlich Performance wohl nur wenig von IF profitieren - das Teil hat zwar nur 1MB L2, aber fast dieselbe Bandbreite wie Rembrandt (128bit LPDDR5-5500), bei insgesamt bloss etwa halber GPU Rechenleistung (8 CUs und tieferer Takt). Aber klar wenn die Perf/W mit IF steigt würde das bei dem Formfaktor auch in höherer Geschwindigkeit resultieren, ich denke aber die Unterschiede wären relativ gering. Man kann sich natürlich auch fragen ob nicht sogar ein 64bit SI ausreichend gewesen wäre wenn man stattdessen 16MB IF hätte (der Cache sollte ja wegen der tiefen Auflösung besonders effektiv sein), aber offensichtlich entschied sich AMD bei dem Chip gegen IF-Experimente.
The_Invisible
2023-01-07, 09:27:53
Boah, warum macht man da bei den großen X3D CPUs wieder so einen Frankenstein draus, jetzt muss man softwareseitig nicht nur auf CCDs achten sondern auch auf Cache oder Takt :freak:
Wenn ich da wieder eigene Software lese stellts mir bisschen die Haare auf, verwende auch massiv Linux und dort darf man sich sowas sicher wieder selber basteln. Und wenn in Zukunft vielleicht neue CPUs kommen mit Standard X3d-Cache wird der Support wohl auch unter Windows bald eingestellt.
Ansonsten wäre der 16 Kerner wohl meine nächste CPU, beste MT + Gaming Performance wäre wohl mein Traum, da beiße ich auch gerne in den sauren AM5 Apfel...
Bin ja echt gespannt was da kommt...
dildo4u
2023-01-07, 09:32:20
Nutzt du denn das MT?Der 8 Core wird wieder besser in Games performen und die Hälfte kosten.
MSABK
2023-01-07, 09:37:57
Es wurde ja auch erwähnt, dass günstigere Boards kommen. Bin mal gespannt wie die werden. Weil die aktuellen „günstigen“ Boards für 180€ sehen eher aus wie 80€ Boards. Was ist dann günstig aus AMDs Sicht? Nur noch 2 USB an der I/O Blende?
Bzgl der iGPU, das ist sch alles komisch. In diversen Tests kommt bei der Bandbreite nur ein Wert um die 50GB/s wo es doch theoretisch 70Gb/S sein sollten. Bei den Intel Geräten wird da auch die theoretisch mögliche Bandbreite erreicht. Notebookcheck hat da ja immer die Aida Werte.
davidzo
2023-01-07, 14:43:59
Intels iGPUs haben einen eigenen L3, konkret 16M bei XeLP ... ältere uArch wie Gen11 hatten 3M.
Ja, das ändert aber nichts daran dass sie auch auf den L3 der CPU zugreifen. Aus GPU-Sicht ist das dann wohl ein L4. Bleiben wir einfach bei LLC, dann ist es einfacher.
Ich würde das gerne mal in der Praxis sehen, wie das bei AMD genau aussehen würde. Vorallem beim Fokus auf Gaming, also für so Sachen wie Steamdeck + die großen APUs mit dicker GPU Power. Kann gut sein dass man bei sorgefältiger Auslegung mehr Leistung rausholt, als man bei der Power opfern müsste.
Wieviel Cache haben denn die RDNA3 iGPUs eigentlich für sich?
Wenn man nur auf einen Workload optimieren muss, also z.B. auf mobile gaming, lohnt sich das sicher!
Die CPU-Leistung wird zwar drunter leiden, da die Latenzen hoch gehen, aber das ist bei Konsolen insbesondere mobil nicht schlimm. In Games wäre es eh sinnvoller den Cache priorisiert der GPU zuzuteilen als der CPU. Dann kann man auch argumentieren den L3 der CPU ganz weg zu lassen und stattdessen in einen private IF$ für die GPU zu investieren.
Aber eine echte Ultramobile CPU muss auch in vielen anderen workloads gut aussehen.
Nehmen wir mal an dass man statt den 16MB L3 für die CPU nun 32MB shared L3 verbaut.
Damit der Cache etwas nützt müsste man nicht nur die Größe, sondern auch dessen Bandbreite erhöhen. Die Größe ist ja nicht der einzige Unterschied zwischen AMDs Desktop und mobile Strategie.
Aktuelle mobil-CPUs haben einen power-optimierten Cache der bei etwas geringerer Bandbreite aber auch weniger Power pro transferred bit kostet als der Desktop cache. Das spürt man selten, da AVX-Last keine typischer mobile workload ist. 200GB/s ist immer noch eine Menge für 8 Kerne, aber Vermeer hat fast 400 und Navi24 hat hier immerhin 232gb/s privat bei nur 16mb.
Ich gehe also davon aus dass ein shared 32mb L3 ca. 400gb/s braucht um effektiv zu sein. Also die doppelte Bandbreite wie bisher, was auch das doppelte an Power pro transferiertem Bit kostet und eine doppelt so hohe static power hat.
Nun müssen wir abschätzen wie stark die Latenz hochgeht durch den zusätzlichen GPU Stop.
Zen3 hat für 32mb an 8 Kernen nur 47cycles latency was je nach Takt auf etwa 10ns hinaus läuft, im Mobile (CZN) sind es zum Beispiel 12ns für 8Kerne, bei Zen4 mobile Taktraten würde ich 10ns erwarten (8-9 desktop).
Alderlake hat 67cycles für 30MB, allerdings auch neben 8 Kernen und der GPU zwei zusätzliche Stops für die E-Core Cluster. Allerdings taktet der 12900K eben auch bis zu 5,2Ghz und erreicht damit noch gerade so passable 14ns. Der 11800H ist beim Ringbus vergleichbar wie phoenix mit shared cache wäre und kommt ebenfalls auf ca. 14ns bei 4,6Ghz.
Ich würde für einen 32MB shared L3 mit 400gb/s, 16way, 8 Kernen + GPU access von 55-60 cycles ausgehen. Mit Zen4 mobile taktraten also ca. 13-14ns
Die CPU cache Latency geht dadurch also klar hoch, denn die ersten 16MB schneller L3 sind effektiv 20-30% langsamer. Die CPU-Leistung würde also in vielen workloads drunter leiden.
Aber es ist vor allem die Effizienz welche unter einem Cache mit doppeltem power Draw massiv leiden würde. Vor allem der so bedeutende Idle Energieverbrauch. Unter Last würde der Cache eventuell sogar noch etwas sparen weil weniger DRAM Accesses nötig sind, aber ist das für eine mobile CPU die richtige Priorität?
Aus Power-Sicht wäre wohl ein exklusiver high-bandwidth, high latency LLC für die GPU effektiver als ein shared LLC.
Nicht zuletzt kosten 32mb shared L3 nicht nur CPU-Performance und Energie im Idle, sondern auch Diefläche. Damit wird es schwer für AMD wie bisher die mobile CPUs auch als günstige Desktop APUs abzugeben.
Ich denke daher ist es ein vertretbarer Kompromiss dass AMD bisher keinen größeren und shared L3 in mobile CPUs integriert hat.
Lehdro
2023-01-07, 15:40:24
Unter Last würde der Cache eventuell sogar noch etwas sparen weil weniger DRAM Accesses nötig sind, aber ist das für eine mobile CPU die richtige Priorität?
Für so etwas wie das Steamdeck wäre es wohl der richtige Kompromiss. Durch den Fokus auf kleine Auflösungen lässt sich hier auch am ehesten die Cachegröße drücken - eigentlich optimal. CPU Performance hat man durch die Begrenzung auf 60fps auch zur Genüge, selbst mit Zen 2. Hier ein auf Perf/W orientiertes Followup mit ähnlicher Leistung im CPU Sektor, aber erheblich mehr Schlagkraft im GPU Bereich, bei gleichzeitig leicht gesunkenem Verbrauch und damit auch Kühlbedarf würde wohl eine optimale Kombination darstellen.
Aus Power-Sicht wäre wohl ein exklusiver high-bandwidth, high latency LLC für die GPU effektiver als ein shared LLC.
Nicht zuletzt kosten 32mb shared L3 nicht nur CPU-Performance und Energie im Idle, sondern auch Diefläche. Damit wird es schwer für AMD wie bisher die mobile CPUs auch als günstige Desktop APUs abzugeben.
Das sehe ich da auch als eigentliches Problem: Die-Size. AMD geht weiter den weg im Mobile die Größen möglichst gering zu halten, Phoenix kommt da ja erneut kleiner raus als der Vorgänger.
reaperrr
2023-01-07, 20:18:22
Man darf auch nicht vergessen, RDNA3 hat größere L0/L1-Caches sowie bessere DCC, und Phoenix wird DDR5 (AM5, wenn er mal im Desktop erscheint)/LPDDR5(X) only, also auch mehr Speicherbandbreite haben, als noch bei Rembrandt.
Und Intels Performance-Fortschritte bei den IGPs stagnieren zuletzt auch etwas, da wird sich mMn vor Meteor nichts Gravierendes tun (und dann wahrsch. auch nur wieder ca. Gleichstand herstellen oder bei höherer Performance ordentlich Aufpreis kosten).
Da wären die ganzen hier diskutierten L3/IF$-Konstrukte wahrscheinlich nicht mehr als ein Kostentreiber, der auf die Verkaufszahlen/-preise dann trotzdem wenig Einfluss hat, genau wie früher die (nüchtern betrachtet) regelmäßig zu hohe SIMD/CU-Zahl von Llano bis einschl. RR/Picasso.
mczak
2023-01-08, 06:23:27
Man darf auch nicht vergessen, RDNA3 hat größere L0/L1-Caches sowie bessere DCC, und Phoenix wird DDR5 (AM5, wenn er mal im Desktop erscheint)/LPDDR5(X) only, also auch mehr Speicherbandbreite haben, als noch bei Rembrandt.
Rembrandt war auch schon exklusiv DDR5, allerdings unterstützt Phoenix Point höhere Frequenzen (DDR5-5600 / LPPDR5-7500 statt DDR5-4800 / LPDDR5-6400), also rund 15% mehr (interessanterweise steht auf den Folien zu Rembrandt noch DDR5-5200, aber in den offiziellen Spezifikationen nur noch DDR5-4800). Meine Vermutung wäre aber leider dass die OEMs genau den gleichen Speicher verbauen bei Phoenix Point wie bei Rembrandt (die sollten ja ansonsten wohl sowieso dieselben Notebook-Designs verwenden). Phoenix Point müsste dann aber wohl trotzdem eher stärker bandbreitenlimitiert sein, weil die Rechenleistung eben durch die dual-issue ALUs höher ist, ich glaube nicht dass die grösseren L0/L1 Caches das wettmachen. (Sicher dass RDNA3 bessere DCC hat? Kann mich nicht erinnern dass das irgendwo erwähnt wurde.)
Da wären die ganzen hier diskutierten L3/IF$-Konstrukte wahrscheinlich nicht mehr als ein Kostentreiber, der auf die Verkaufszahlen/-preise dann trotzdem wenig Einfluss hat, genau wie früher die (nüchtern betrachtet) regelmäßig zu hohe SIMD/CU-Zahl von Llano bis einschl. RR/Picasso.
Wobei gerade bei RR/Picasso das Problem nicht nur war dass man "zu viel" CUs für den angepeilten Markt hatte, sondern dass die effektiv fast nichts gebracht haben - der Unterschied zwischen der Vega 8 und Vega 11 war da vielleicht so 5% bei den Mobilchips, bloss auf dem Desktop machte das einen grösseren Unterschied (weil nicht durch TDP limitiert). Das wäre bei einem zusätzlichen IF bei Rembrandt / Phoenix Point kaum der Fall.
Ist aber natürlich schon so dass man intel eh abhängt, und dann zudem die Chips noch in Notebooks landen die zu 80% eine diskrete GPU haben (AMD hat sich ja noch nicht mal die Mühe gemacht Phoenix Point U vorzustellen, und Rembrandt Notebooks ohne diskrete GPU sind auch kaum zu finden), da wäre das natürlich tatsächlich verschwendete Chipfläche (wobei für die Notebooks mit dGPU hätte man den Grafikteil in der APU locker auf einen Viertel abspecken können...).
dargo
2023-01-08, 08:17:20
Ich verstehe nach wie vor nicht was das soll den 7800X3D so zu prügeln, dass der in eine 120W TDP-Klasse rutscht. Insbesondere wenn ich den neuen 7700 betrachte. Das ist einfach nur bescheuert. Und der SC (wer wert darauf legt) ist beim 7700 immer noch 300Mhz höher.
https://www.hardwareluxx.de/images/cdn02/uploads/2023/Jan/bright_wifi_kx/amd-ces2023-keynote-deck-01_680px.jpg
Das ist gegenüber dieser CPU ein um 84% höherer Verbrauch. :crazy2:
7700 = 88W PPT
7800X3D = 162W PPT
Die 7900X3D und 7950X3D gefallen mir da schon wesentlich besser. Immerhin von 170W auf 120W TDP runter gegangen.
PS: weiß eigentlich auch einer warum AMD den Basistakt beim 7800X3D nicht offen kommuniziert?
dildo4u
2023-01-08, 08:31:54
Hauptsächlich Marketing 5GHz ist eine Runde Zahl und so und der Takt wurde schon stärker reduziert als beim 5800X3D zum 5800X.
7800X3D 5Ghz 7700X 5.4Ghz
5800X3D 4.5 5800X 4.7Ghz
dargo
2023-01-08, 08:37:55
Die 4,7Ghz SC beim 5800X kannst du knicken, es sind 4,85Ghz. Die offizielle Angabe ist da einfach Grütze.
dildo4u
2023-01-08, 08:47:12
Kann sein das die Angaben für extrem hohe Temperaturen sind, natürlich gehen sie besser mit 60 vs 80°.
Bei sowas geht AMD vermutlich jetzt Konservativ ran seit dem Zen 2 Launch mit teilweise nicht erreichten Frequenzen.
https://community.amd.com/t5/gaming/ryzen-community-update-bios-updates-for-boost-and-idle-plus-a/ba-p/418193
dargo
2023-01-08, 09:00:28
Hä? Wenn ein 5800X im SC auf 4,85Ghz boostet dann gibts da keine hohen Temperaturen. Wovon redest du da schon wieder? Dass ein X3D niedriger taktet als non X3D liegt an thermischen Limits vom 3DCache. Gibt je mehr Hitzeentwicklung, dem kann man nur durch weniger Takt und somit Spannung entgegenwirken. Wobei ich da eher auf Voltagelimits tippen würde. Sprich... der 3DCache verträgt am oberen Limit etwas weniger Voltage als der Core auf Dauer.
Edit:
Im Cinebench SC bleibt der 5800X hier mit 4,85Ghz unter 60°C. Kein Wunder bei 45-50W.
horn 12
2023-01-08, 09:01:16
Bereits erhältlich und der Preis:
https://www.market2go.it/it/processori/1036721-amd-ryzen-9-7900-box.html
M4xw0lf
2023-01-08, 09:30:23
Ich verstehe nach wie vor nicht was das soll den 7800X3D so zu prügeln, dass der in eine 120W TDP-Klasse rutscht. Insbesondere wenn ich den neuen 7700 betrachte. Das ist einfach nur bescheuert. Und der SC (wer wert darauf legt) ist beim 7700 immer noch 300Mhz höher.
https://www.hardwareluxx.de/images/cdn02/uploads/2023/Jan/bright_wifi_kx/amd-ces2023-keynote-deck-01_680px.jpg
Das ist gegenüber dieser CPU ein um 84% höherer Verbrauch. :crazy2:
7700 = 88W PPT
7800X3D = 162W PPT
Die 7900X3D und 7950X3D gefallen mir da schon wesentlich besser. Immerhin von 170W auf 120W TDP runter gegangen.
Das ist doch erstmal alles Schall und Rauch. Die Zen 4 X3Ds haben ja offenbar eine niedrigere maximale Betriebstemperatur (5-6 Grad weniger, 89 oder 90°C meine ich gelesen zu haben). Es ist davon auszugehen, dass die eher im Temperatur- als im Powerlimit operieren werden.
Thunder99
2023-01-08, 10:47:18
Sie müssen halt soweit mit der Spannung runter, damit jede CPU mit Cache den Takt sicher schafft. TDP ist da nebensächlich und ergibt sich entsprechend bzw kann man tiefer einordnen.
Passt soweit aber nicht beim 7800X3D. Eventuell dort aber nötig, um sich genügend vom 7700er abzusetzen.
Crazy_Chris
2023-01-08, 11:11:55
Insgesamt aber kein gutes Zeichen für die Zukunft. Beim 5800X3D hat man das ja noch als ersten Versuch abgetan. Jetzt aber wieder geringerer Takt und abgesenkte TDP. Dabei war ja die Hoffnung das AMD das in den Griff bekommt. :confused:
Thunder99
2023-01-08, 11:17:23
Insgesamt aber kein gutes Zeichen für die Zukunft. Beim 5800X3D hat man das ja noch als ersten Versuch abgetan. Jetzt aber wieder geringerer Takt und abgesenkte TDP. Dabei war ja die Hoffnung das AMD das in den Griff bekommt. :confused:
Physik kann man nicht so einfach umgehen ;)
Daher geht ja AMD mit dem 79xxxX3D eine Mittelweg :up:
Nebenbei tippe ich auf 8+4, nicht auf 6+6
vinacis_vivids
2023-01-08, 16:59:56
Zen4c 128C/256T - 3,1Ghz - 360W?
https://www.hardwaretimes.com/128-core-amd-epyc-bergamo-process-spotted-3-1ghz-boost-clock-and-a-tdp-of-360w/
Fett 😜
amdfanuwe
2023-01-08, 18:42:05
~2,8W pro Core.
Was leistet ein 22W 8Core Zen4?
dargo
2023-01-08, 21:31:16
Insgesamt aber kein gutes Zeichen für die Zukunft. Beim 5800X3D hat man das ja noch als ersten Versuch abgetan. Jetzt aber wieder geringerer Takt und abgesenkte TDP. Dabei war ja die Hoffnung das AMD das in den Griff bekommt. :confused:
Die TDP bei 7800X3D wurde erhöht, nicht abgesenkt. Nur bei den beiden drüber wurde sie gesenkt.
y33H@
2023-01-08, 22:32:37
5800X und 5800X3D haben beide 105W TDP bzw 142W PPT, beim 7800X3D sind es 120W TDP statt 105W TDP - über die reale Leistungsaufnahme, vor allem beim Gaming, sagt das aber wenig aus ... zumal wir nicht wissen, wie sich der 3DVC bei einem 5 nm + 6 nm Design verhält.
HTB|Bladerunner
2023-01-08, 22:34:46
Das ist doch erstmal alles Schall und Rauch. Die Zen 4 X3Ds haben ja offenbar eine niedrigere maximale Betriebstemperatur (5-6 Grad weniger, 89 oder 90°C meine ich gelesen zu haben). Es ist davon auszugehen, dass die eher im Temperatur- als im Powerlimit operieren werden.
Die TDP bei 7800X3D wurde erhöht, nicht abgesenkt. Nur bei den beiden drüber wurde sie gesenkt.
Der Verweis auf die unterschiedliche Zieltemperatur kann durchaus der Grund für die Neuausrichtung der TDP sein. Für 89°C muss ich mehr Kühlaufwand betreiben als für 95°C. Ergo -> höhere TDP.
Ich frage mich, wie das beim 7900x3D und 7950x3D geregelt wird. Gelten die 89°C auch für das "Hochtakt-CCD" ohne Cache oder dürfen es hier wieder 95°C sein? :D
Nightspider
2023-01-08, 22:40:57
Insgesamt aber kein gutes Zeichen für die Zukunft. Beim 5800X3D hat man das ja noch als ersten Versuch abgetan. Jetzt aber wieder geringerer Takt und abgesenkte TDP. Dabei war ja die Hoffnung das AMD das in den Griff bekommt. :confused:
Da der Aufbau bei Zen4D gleich zu sein scheint, ist das quasi noch immer die 1. Generation von V-Cache.
Irgendwann, eventuell mit Zen5 oder Zen6, wird der Cache unter die CPU Kerne wandern, so das die Taktraten nicht mehr abgesenkt werden müssen.
CDNA3 alias MI300 macht es ja schon vor.
Der_Korken
2023-01-08, 22:48:26
Der Grund für den geringeren Takt beim 5800X3D war die maximale Spannung von 1,35V. Vermutlich verträgt das Cache-Chiplet nicht mehr. Afaik wurde das von einem AMD-Techniker in einem Interview mal erwähnt. Bei Zen 4 wird das ähnlich sein, wobei hier das zusätzliche Problem besteht, dass die Cores durch 5nm alle höher takten können, aber der Cache noch in 6nm ist. Vor dem Hintergrund ist ein größerer Taktverlust erstmal plausibel. Eventuell hätte man mit Abstrichen bei der Packdichte auch den 6nm-Cache auf Zen-4-Taktraten hochbekommen, aber entweder wollte AMD nichts neues entwickeln oder es ging in 6nm eben doch nicht besser, wer weiß.
davidzo
2023-01-09, 12:18:42
~2,8W pro Core.
Was leistet ein 22W 8Core Zen4?
Ein 16Kerner leistet bei 35Watt, also 2,2Watt pro Core immerhin noch 49% von dem was er mit 230W leistet. Da der Allcore Takt eines 7950x üblicherweise um die 5Ghz sind, läuft der wohl im Schnitt noch mit 2,5Ghz: https://www.anandtech.com/show/17641/lighter-touch-cpu-power-scaling-13900k-7950x
Da Zen4C aber 4nm ist, was nochmal besser skalieren soll halte ich 3Ghz allcore Turbo für 128C nicht für so unrealistisch. Der Baseclock von 2250mhz macht aber auch Sinn, denn die TDP darf auch in vektor loads nicht gerissen werden und dabei wird Bergamo vermutlich mehr verbrauchen durch den fehlenden L3 cache.
Hardwaretimes bestätigt damit vorläufig auch die Spekulation das bergamo eine abgespeckte multiycycle FPU bekommt. Das können wir uns also analog zur PS5 APU vorstellen, wo die Zen2 FPU ebenfalls abgespeckt wurde um ein paar mm2 zu sparen, aber vermutlich hauptsächlich um Hotspots und großer current density auf dem DIE aus dem Weg zu gehen.
Für eine Cloud native CPU macht das Sinn, denn da will man deterministische performance, Turbo ist da eigentlich nicht gefragt. Wenn jetzt ein hotspot an der FPU oder die current density auf dem DIE das Taktverhalten maßgeblich beeinflusst, dann wäre eine in diesem workload niedrigere performance vorzuziehen wenn dadurch die performance allgemein gleichmäßig ist.
Was wenn ein Kunde einer 1-Core Virtual machine nur FPU Workloads laufen lässt und dadurch die performance der anderen VMs auf dem CCX leidet? Da würde ich mir als normaler Kunde zurecht verarscht vorkommen, zumal wie teilt man die Kosten für den Power draw auf? Da muss man schon sehr genaue workload analysen fahren. Einfacher ist es daher die Hardware so anzupassen dass die Fluktuation geringer wird.
Zossel
2023-01-09, 12:36:49
Hardwaretimes bestätigt damit vorläufig auch die Spekulation das bergamo eine abgespeckte multiycycle FPU bekommt. Das können wir uns also analog zur PS5 APU vorstellen, wo die Zen2 FPU ebenfalls abgespeckt wurde um ein paar mm2 zu sparen, aber vermutlich hauptsächlich um Hotspots und großer current density auf dem DIE aus dem Weg zu gehen.
Reines Fließkomma braucht es bei den meistens Serversachen sowieso nur wenig.
Zossel
2023-01-11, 14:39:17
Was für ein Bullshit:
Gegenüber Paul Acorn von Tom's Hardware soll AMD wiederum bestätigt haben, dass die Entscheidung, welcher der beiden CCDs der Ryzen 9 die Spiele-Threads bekommt, auf Basis einer (manuell gepflegten) Whitelist getroffen werden soll: Nur von AMD definierte Titel würden demzufolge auf den CCD mit L3-Cache, aber niedrigerem Takt wandern.
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/#update-2023-01-11T14:27
Lehdro
2023-01-11, 14:44:45
Was für ein Bullshit:
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/#update-2023-01-11T14:27
Tjo, lieber 7800X3D kaufen. Die ganzen Nischentitel die wirklich von X3D profitieren landen sicherlich nie auf der AMD Whitelist - testet ja kein Techtuber/Hardwarejournalist außerhalb der üblichen Gamebubble - also irrelevant.
Exxtreme
2023-01-11, 14:47:37
Was für ein Bullshit:
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/#update-2023-01-11T14:27
WTF? Damit sind die >8-Kerner quasi tot. Wenn man das noch selbst bequem regeln könnte dann wäre das ja noch OK.
Linmoum
2023-01-11, 15:10:54
Warum sollte man das nicht manuell regeln können? Ich bezweifle, dass AMD das aktiv irgendwie unterbindet. Ansonsten geht und ging das schon immer.
Der_Korken
2023-01-11, 15:22:00
Da macht AMD es sich relativ einfach. Ich hätte eher noch gedacht, dass da wenigstens irgendeine Heuristik läuft, die das für unbekannte Anwendungen tut und eine white/blacklist dann dazu da ist, bekannte Fälle korrekt zuzuordnen. Eine reine Softwarelösung wird wie schon gesagt wurde viele kleine Spieletitel übergehen und womöglich werden diese Listen nicht lange über die Lebensspanne von Zen 4 hinaus gepflegt. Auch Linux-Support ist fraglich. Für mich sieht Zen 4 3D dadurch sehr unsexy aus, wobei ich ehrlicherweise eh erst ab Zen 5 bzw. Metero Lake wieder aufrüsten würde.
Exxtreme
2023-01-11, 15:25:24
Warum sollte man das nicht manuell regeln können? Ich bezweifle, dass AMD das aktiv irgendwie unterbindet. Ansonsten geht und ging das schon immer.
Manuell ist aber ätzend. Das könnte man in Ryzen Master oder so intergrieren mit Spielerkennung und dann automatisches zuweisen der Kerne.
Zossel
2023-01-11, 15:49:10
Da macht AMD es sich relativ einfach. Ich hätte eher noch gedacht, dass da wenigstens irgendeine Heuristik läuft, die das für unbekannte Anwendungen tut und eine white/blacklist dann dazu da ist, bekannte Fälle korrekt zuzuordnen.
Erklär doch mal wie so eine Heuristik arbeiten soll.
aufkrawall
2023-01-11, 16:11:07
Was für ein Bullshit:
https://www.computerbase.de/2023-01/amd-ryzen-7000x3d-7950x3d-7900x3d-und-7800x3d-mit-hohem-takt-im-februar/#update-2023-01-11T14:27
Wow, dagegen wirkt Thread Director 2.0 wie komplette Raketentechnik. Epic Fail.
Hakim
2023-01-11, 16:22:30
Kann man das nicht manuell beeinflussen?
Zossel
2023-01-11, 16:40:07
Wow, dagegen wirkt Thread Director 2.0 wie komplette Raketentechnik. Epic Fail.
Der Thread Director muss ja lediglich Dumpfbacken-CPUs von sophisticated CPUs unterscheiden und nicht sophisticated CPU von a little less sophisticated CPU.
Der Thread Director kann weil die Dumpfbacken-CPUs total schlecht sind wesentlich grobschlächtiger vorgehen.
Exxtreme
2023-01-11, 16:45:24
Kann man das nicht manuell beeinflussen?
Über den Taskmanager kann man ein Programm an bestimmte Kerne binden. Kannst auch mit start /affinity machen. Aber das ist halt alles Gefrickel hoch drei. Und start /affinity funktioniert nicht bei Spielen, die mit einem Launcher gestartet werden müssen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.