PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 3+ (Desktop: Warhol, gestrichen; APU: Rembrandt, 6nm, Q1/2022)


Seiten : 1 2 3 [4] 5

MSABK
2022-01-04, 11:51:23
Wird heute nur die Apu gezeigt oder auch die Ryzens mit 3d cache?

Edit: Geil, AV1 uvm.

Ich freue mich auf die neuen Geräte. Habe selber aktuell ein Lenovo S540-13 api mit 16:10 high res Display und R3550H. Mega Gerät. Mein nächstes sollte Rembrandt und 14 Zoll mit min 90Hz und 16:10 haben. Denke Lenovo wird wieder was haben.

Soweit ich aber verstehe kann man mit USB4 keine eGPUs betreiben. Das geht nur mit TB. Jedenfalls ist das bei Apple so.

basix
2022-01-04, 11:58:55
[immy;12887986']Also von der Performance her, sollten die Vega CUs nicht wirklich so viel schlechter sein. GCN hatte eher ein Problem mit der Skalierung nach oben. Bei wenigen Einheiten war GCN eigentlich noch relativ effizient nutzbar, ohne das da all zu viel Leistung liegen blieb.
Letztlich dürfte das neuere Design allerdings durch mehr Feature-Unterstützung die bessere Alternative sein. Auch was die Taktbarkeit angeht sollte RDNA2 hier besser abschneiden (bei ähnlicher Energieaufnahme).
Was in dem integrierten Bereich deutlich mehr die Performance nach unten zieht ist die Speicheranbindung. Wäre schön, wenn hier bei Zen3+ der integrierten GPU auch etwas Cache zur Verfügung gestellt werden könnte, oder wenn diese quasi den L3 mitbenutzen könnte. Intel hat ja schon mal vor einigen Generationen gezeigt, das ein extra Speicher auf dem Soc für die GPU die Performance deutlich steigern konnte. Sollte auch bei AMD iGPUs funktionieren.

Nichtsdestotrotz sollte die 6CU RDNA2 Variante die 8 CU Vega Variante schlagen können oder zumindest gleichauf liegen. Die IPC ist höher und bei modernen Spielen hängt Vega immer mal wieder hinterher. Und RDNA2 skaliert vom Takt her auch sehr gut, deswegen könnte der durchschnittliche Takt deutlich näher am Boost-Takt liegen.

Und wie du sagst, kommt DDR5 obendrauf. Da benötigt man noch keinen Infinity-Cache, auch nicht bei 12 CU. Bei noch stärkeren iGPUs könnte es dann langsam interessant werden. Aber auch hier tippe ich bis und mit RDNA3 darauf, dass noch kein Infinity Cache dazu kommt. Bei RDNA4+ eher.

Tangletingle
2022-01-04, 12:24:55
Wird heute nur die Apu gezeigt oder auch die Ryzens mit 3d cache?

Edit: Geil, AV1 uvm.

Ich freue mich auf die neuen Geräte. Habe selber aktuell ein Lenovo S540-13 api mit 16:10 high res Display und R3550H. Mega Gerät. Mein nächstes sollte Rembrandt und 14 Zoll mit min 90Hz und 16:10 haben. Denke Lenovo wird wieder was haben.

Soweit ich aber verstehe kann man mit USB4 keine eGPUs betreiben. Das geht nur mit TB. Jedenfalls ist das bei Apple so.
Ich hab aktuell ein ThinkPad mit 4500u. Super geiles Gerät aber mehr als 720p ist nicht wirklich drin. Selbst Fallout 4 ist da am Limit. Ich erhoffe mir auch mehr gaming Leistungen 1080p medium würde mir schon bei 2-3 Jahre alten Titeln völlig ausreichen. Wenn ich mir überlege, dass das aktuelle Gerät Grad Mal 592€ gekostet hat und mir die aktuellen Preise so ansehe schwant mir aber böses ;)

Thunder99
2022-01-04, 12:43:32
Der Infinity Cache würde aber das Bandbreiten-Problem elegant umschiffen :wink:. Wäre mega geil ;D

Nightspider
2022-01-04, 12:52:20
https://cdn.videocardz.com/1/2022/01/AMD-Ryzen-6000HX-HS-Rembrandt-Zen3Plus-1200x653.jpg

basix
2022-01-04, 13:07:26
Der Infinity Cache würde aber das Bandbreiten-Problem elegant umschiffen :wink:. Wäre mega geil ;D

Wird früher oder später kommen, keine Sorge ;)

Bei iGPUs erwarte ich es einfach noch nicht vor RDNA4. Wenn wir Glück haben ist das Anfang 2024.

mironicus
2022-01-04, 13:25:13
USB 4.0 bei Rembrandt heißt aber nicht automatisch das man dann externe GPUs via Thunderbolt 3 anschließen kann, oder?

MSABK
2022-01-04, 13:41:25
USB 4.0 bei Rembrandt heißt aber nicht automatisch das man dann externe GPUs via Thunderbolt 3 anschließen kann, oder?

So wie ich das verstehe gehen eGPUs nur mit Thunderbolt. Bei Apple kann man bei USB4 auch keine eGPUs betreiben. Mit den Intel Chips ging das.

Ich denke diese Funktion wird Intel auch nicht weitergeben, sonst verlieren sie ja ein wichtiges Feature.

basix
2022-01-04, 13:47:29
Soweit ich verstanden habe, kann USB 4.0 optional Thunderbolt 3 umfassen (Tunderbolt 3 = Maximalausbau von USB 4.0). Dann klappt eGPU. Ist die Frage, ob AMD das bei Rembrandt umgesetzt hat. Gewisse News tendieren zu: Ja
https://mspoweruser.com/usb-4-with-egpu-support-appears-confirmed-for-next-years-amd-ryzen-6000-processors/

Wieso ich das AMD eh anraten würde: Viele Business Notebooks setzen auf Thunderbolt. Rembrandt ohne Thunderbolt nativ im SoC wäre deswegen eher dumm.

MSABK
2022-01-04, 14:40:19
Wo kann man sich das Event anschauen?

dildo4u
2022-01-04, 14:44:40
Wo kann man sich das Event anschauen?

_jX-hKvUQDU

y33H@
2022-01-04, 14:47:23
https://www.youtube.com/watch?v=_jX-hKvUQDU

davidzo
2022-01-04, 14:52:32
[immy;12887986']Also von der Performance her, sollten die Vega CUs nicht wirklich so viel schlechter sein. GCN hatte eher ein Problem mit der Skalierung nach oben. Bei wenigen Einheiten war GCN eigentlich noch relativ effizient nutzbar, ohne das da all zu viel Leistung liegen blieb.


Umgekehrt, Vega ist als APU deutlich bandbreitenlimitiert und konnte nie die volle Rohleistung ausspielen.
Die IPC ist +28% (gleiche rohleistung, gleiche bandbreite). Das hatte CB zum Launch der 5700xt mal ausgemessen, das heißt das lässt sich auch auf GPUs ohne IFcache übertragen: https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_amd_navi_vs_amd_vega

Es gibt aber auch einen IPCvergleich mit RDNA2 von CB der zeigt dass sich beide bei gleichem Takt nichts nehmen. Leider ist das eben kein Vergleich bei gleicher bandbreite: https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/


Was in dem integrierten Bereich deutlich mehr die Performance nach unten zieht ist die Speicheranbindung. Wäre schön, wenn hier bei Zen3+ der integrierten GPU auch etwas Cache zur Verfügung gestellt werden könnte, oder wenn diese quasi den L3 mitbenutzen könnte. Intel hat ja schon mal vor einigen Generationen gezeigt, das ein extra Speicher auf dem Soc für die GPU die Performance deutlich steigern konnte. Sollte auch bei AMD iGPUs funktionieren.
Für 12CU sollte LPDDR6-6400 aber schon ausreichen.

Natürlich wären insgesamt größer angesetzte APUs erstrebenswert, gerade nachdem was Apple so gezeigt hat. Aber Rembrandt ist bereits gute 200mm2 groß und bei rohleistung/bandbreite ziemlich balanced.

mboeller
2022-01-04, 14:52:48
Das stimmt. Bei den -H Modellen ist es aber ähnlich. X-Modelle mit 12 CU und dann plötzlich runter auf 6CU. Ist einfach etwas irritierend.


Das liegt vielleicht an der neuen Aufteilung der CU's. Außerdem sind es ja keine CU's sondern WGP, also pro Shader Array sind es nur 3 WGP. Deshalb gibt es jetzt vielleicht nur noch die Möglichkeit 1 Shader Array komplett wegzuschalten.

Siehe hier bei Locuza:
Rembrandt: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/1
Cezanne: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/2

davidzo
2022-01-04, 15:09:40
Das liegt vielleicht an der neuen Aufteilung der CU's. Außerdem sind es ja keine CU's sondern WGP, also pro Shader Array sind es nur 3 WGP. Deshalb gibt es jetzt vielleicht nur noch die Möglichkeit 1 Shader Array komplett wegzuschalten.

Siehe hier bei Locuza:
Rembrandt: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/1
Cezanne: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/2

Hatte ich auch erst überlegt, aber Navi23 hat auch nur 4x Shader Arrays mit je 4WGPs und lässt sich trotzdem auf 1792 beschneiden, nicht nur auf 1536/2048.

Berniyh
2022-01-04, 15:46:44
USB 4.0 bei Rembrandt heißt aber nicht automatisch das man dann externe GPUs via Thunderbolt 3 anschließen kann, oder?
So wie ich Locuza verstanden habe ist USB4 bei Rembrandt in der Bandbreite eingeschränkt.
Also würde ich nicht erwarten, dass es die maximale Ausbaustufe (und damit eGPUs) unterstützt (ca. Minute 22:00):
https://www.youtube.com/watch?v=UdkYz5Jp-kw

Locuza
2022-01-04, 16:02:54
Okay, das macht Sinn.

Aber warum will AMD einen Video-Standard ausklammern, für den es die nötige Hardware gibt? AV1 wird von Youtube und Netflix gepusht und gerade bei mobilen Endgeräten ist Hardwarebeschleunigung enorm wichtig. :confused:
Ich kann mir die Antwort wohl selbst geben: 99,9% der Käufer wird das nicht interessieren.
@Nightspider

Ich habe auch große Stücke auf den Standard gehalten, als er angekündigt wurde. Nach nun fast 6 Jahren nachdem erste Referenz-Codec veröffentlicht wurde (zwei Jahre später Version 1.0) stellt sich langsam die Frage quo vadis AV1? :uponder:

Das verläuft alles so extrem schleppend, man fragt sich langsam ob das Absicht ist und die Industrie gar nicht so richtig Bock hat auf einen royalty-free Standard. :uponder:
Soweit ich AMD's Treiber verfolgt habe, ist es das erste mal das die Treibereinträge hauptsächlich dazu gedacht waren, in die Irre zu leiten.
Versionsnummer und angegebene Funktionalität stimmt nicht.
Rembrandt verwendet anscheinend VCN4.x und kommt mit AV1 decoding.

Abseits von, zugegeben großen, Unternehmen geht das mit AV1 eigentlich ganz gut voran.
Desktop-Hersteller haben relativ zügig AV1 decoding angeboten, Nvidia bietet auch AV1 Encoding in einem neuen SoC, Intel wird es mit DG2 anbieten und ein paar mobile SoCs haben auch hardwarebschleunigstes AV1 decoding.
Qualcomm sollte dann schon irgendwann auch auftauchen.


Das liegt vielleicht an der neuen Aufteilung der CU's. Außerdem sind es ja keine CU's sondern WGP, also pro Shader Array sind es nur 3 WGP. Deshalb gibt es jetzt vielleicht nur noch die Möglichkeit 1 Shader Array komplett wegzuschalten.

Siehe hier bei Locuza:
Rembrandt: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/1
Cezanne: https://mobile.twitter.com/Locuza_/status/1477020963460026381/photo/2
AMD kann WPGs einzeln ausschalten und selbst asymmetrische Shader-Arrays haben.
Z.B. die 5700 hat Shader-Arrays mit 5 und 4 WGPs, die Xbox Series X mit 7 und 6.
Bei Rembrandt hätte AMD auch 5 WGPs bzw. 10 CUs schalten können, 3 WGPs auf einem SA, 2 auf dem anderem.
Wegen der Lastverteilung und dem Zusammenspiel mit dem Rasterizer, wird es dann nicht ganz so schön, bei Pixel-Shadern unter RDNA2 verwendet AMD nicht alle CUs.
Dennoch hätte man das so machen können oder eben sauber 2 WPGs, 4 WGPs oder 6 WGPs schalten (4, 8 oder 12 CUs).

So wie ich Locuza verstanden habe ist USB4 bei Rembrandt in der Bandbreite eingeschränkt.
Also würde ich nicht erwarten, dass es die maximale Ausbaustufe (und damit eGPUs) unterstützt (ca. Minute 22:00):
https://www.youtube.com/watch?v=UdkYz5Jp-kw
Volle Bandbreite pro Port 5GB/s bzw. 40Gbit/s.
Aber ich habe nicht nachgeschaut, ob eGPUs unterstützt werden (können).

Daredevil
2022-01-04, 16:07:44
Die iGPU ist mal eben doppelt so schnell. :D

fondness
2022-01-04, 16:09:16
Und war vorher schon ungeschlagen.

ChaosTM
2022-01-04, 16:11:33
Muss ich jetzt mein 5900HX Notebook verschrotten? Nicht ganz.. :)

Nightspider
2022-01-04, 16:12:46
11% mehr SC Leistung ist nice.

Wake
2022-01-04, 16:13:10
Den Boden hätte man bei der PK ruhig mal auf RTX Off schalten können ;D

Berniyh
2022-01-04, 16:13:58
Soweit ich AMD's Treiber verfolgt habe, ist es das erste mal das die Treibereinträge hauptsächlich dazu gedacht waren, in die Irre zu leiten.
Versionsnummer und angegebene Funktionalität stimmt nicht.
Rembrandt verwendet anscheinend VCN4.x und kommt mit AV1 decoding.
Was ich auch noch überlegt hatte:
könnte es sein, dass man da irgendwie die CVML Einheit verwenden oder mitverwenden kann um Codecs wie AV1 zu prozessieren?

Lyka
2022-01-04, 16:14:09
ich brauche keinen Laptop, aber wo ich das Video schaue ... :|

fondness
2022-01-04, 16:15:33
11% mehr SC Leistung ist nice.

Bei 15W, denke nicht, dass das mehr IPC bedeutet, sondern "nur" mehr Perf/Watt.

ChaosTM
2022-01-04, 16:16:34
FSR würde ich jetzt nicht so explizit herausstellen. Außer es hat sich deutlich verbessert. ;)
Ist aber nett, dass man mit Integrierter Grafik halbwegs spielen kann.

mboeller
2022-01-04, 16:16:42
Bei 15W, denke nicht, dass das mehr IPC bedeutet, sondern "nur" mehr Perf/Watt.

es sind +11% bei Cinebench 23 1T

MSABK
2022-01-04, 16:16:45
Bei 15W, denke nicht, dass das mehr IPC bedeutet, sondern "nur" mehr Perf/Watt.
Und schnellerer Ram.

Voodoo6000
2022-01-04, 16:18:01
Endlich USB 4, hört sich doch interessanter an als ich erwartet hatte.

AffenJack
2022-01-04, 16:18:52
es sind +11% bei Cinebench 23 1T

Wegen mehr takt, nicht IPC. Man hat auf Power optimiert und konnte den Takt steigern.

aceCrasher
2022-01-04, 16:27:47
Wegen mehr takt, nicht IPC. Man hat auf Power optimiert und konnte den Takt steigern.

Da sind aber keine 11% single core boost hinzugekommen und schnellerer RAM bringt im Cinebench ST bekanntlich quasi nichts. Da ist definitiv eine IPC Steigerung vorhanden.

mboeller
2022-01-04, 16:28:16
Wegen mehr takt, nicht IPC. Man hat auf Power optimiert und konnte den Takt steigern.

nicht ganz 4,7GHz <-> 4,4GHz sind "nur" 6,8%. Die IPC steigt um 4%, nicht viel aber doch ein klein wenig

fondness
2022-01-04, 16:39:48
Weniger Takt als vorher? 5800X3D mit max 4,5Ghz boost, aber trotzdem 15% schneller als ein 5900X.

Gipsel
2022-01-04, 16:40:33
Weniger Takt als vorher? 5800X3D mit max 4,5Ghz boost, aber trotzdem 15% schneller.Und Base nur 3,4 GHz statt 3,8GHz.

ChaosTM
2022-01-04, 16:41:51
Ob uns Lisa gerade eine CPU aus Holz gezeigt hat? We will never know.. :)

sChRaNzA
2022-01-04, 16:42:00
Und Base nur 3,4 GHz statt 3,8GHz.

Ist der Takt so entscheidend für die Performance?

Ja, ich weiß wie komisch das klingt, aber ernst gemeinte Frage. Laut AMD-Folie ja dennoch schneller als der 12900K. (Zumindest in den ausgewählten Titeln)

Daredevil
2022-01-04, 16:45:04
Wenn durch den Cache die CPU besser ausgelastet werden kann, kann der Takt doch auch sinken bzw. muss er sogar, um die 105w halten zu können, richtig?
Auf jeden Fall nett für jeden mit einer AM4 Plattform, das man mit dem 3DCache nochmal "Next Gen" bekommt und somit ein paar Jahre überbrücken kann.
Könnte auch was für mich sein, bevor man komplett zu Alder Lake oder whatever umsattelt und Mainboard und RAM neu dazu kaufen muss.

Gipsel
2022-01-04, 16:45:44
Ist der Takt so entscheidend für die Performance?Es zeigt vermutlich, daß der Stromverbrauch durch den großen Cache wohl doch etwas hochgeht (und sei es nur, weil die CPU tatsächlich mehr tut). Man spart off-chip Zugriffe und die Effizienz sollte trotzdem hochgehen.

AffenJack
2022-01-04, 16:47:58
nicht ganz 4,7GHz <-> 4,4GHz sind "nur" 6,8%. Die IPC steigt um 4%, nicht viel aber doch ein klein wenig

Du gehst von den Papiertaktraten aus, das sagt nix darüber aus, wielange die anliegen. Schafft ein 5800U bei 15W einen Cinebenchrun mit 4,4 Ghz? So kurz ist ein Cinebenchrun schließlich mit 1 Core nicht.

fondness
2022-01-04, 16:49:10
Es zeigt vermutlich, daß der Stromverbrauch durch den großen Cache wohl doch etwas hochgeht (und sei es nur, weil die CPU tatsächlich mehr tut). Man spart off-chip Zugriffe und die Effizienz sollte trotzdem hochgehen.

Vermutlich ist die Kühlung auch problematischer durch das zusätzliche Die oben drauf.

sChRaNzA
2022-01-04, 16:50:00
Wenn durch den Cache die CPU besser ausgelastet werden kann, kann der Takt doch auch sinken bzw. muss er sogar, um die 105w halten zu können, richtig?
Auf jeden Fall nett für jeden mit einer AM4 Plattform, das man mit dem 3DCache nochmal "Next Gen" bekommt und somit ein paar Jahre überbrücken kann.
Könnte auch was für mich sein, bevor man komplett zu Alder Lake oder whatever umsattelt und Mainboard und RAM neu dazu kaufen muss.

Das tatsächlich meine Idee. Einen Ryzen 2600X und einen Ryzen 3800XT hier durch jeweils einen Ryzen 5800X3D ersetzen. Natürlich erst mal unabhängige Tests abwarten, aber langsam dürfte der wohl nicht werden.

(je nach (eventuell) benötigtem BIOS-Update)

AffenJack
2022-01-04, 16:51:28
Weniger Takt als vorher? 5800X3D mit max 4,5Ghz boost, aber trotzdem 15% schneller als ein 5900X.

Bin mal gespannt, wie sich das generell auswirkt. Wie oft kommts vor, dass man außerhalb von Games wohl langsamer wird wegen weniger Takt?

MSABK
2022-01-04, 16:51:38
Mega coole Produkte. Ich freue mich auf die neuen Notebooks und diesmal hoffentlich mit mehr dGPUs von Amd.

HOT
2022-01-04, 16:51:52
Hui, kein Wort eines 2 CCD-Vcache Prozessores. Scheint sich ja echt auf den 5800X3D zu beschränken und so bald scheint auch der nicht zu erscheinen. Sieht für mich danach aus, als hätte AMD das X3D-Projekt übelst zusammengestrichen. Vielleicht war da mal ne ganze Generation geplant (Warhol?), denn Zen4 ist ja jetzt offiziell Ryzen 7k. Aber davon ist offenbar nur dieser eine Prozessor übriggeblieben. Der 5800X3D ist jetzt AMDs Broadwell :freak:.

Cool ist, dass das Zen4-Sample mit 5GHz auf allen Kernen lief, es scheint also erheblich mehr Takt zu geben bei Zen4.

Unicous
2022-01-04, 17:06:17
Nur Volker Rißka kann Schlagzeilen wie diese produzieren:

AMD Ryzen 7 5800X3D: Dank 100 MB Cache schneller als Core i9-12900K im Gaminghttps://www.computerbase.de/2022-01/amd-ryzen-7-5800x3d-dank-100-mb-cache-schneller-als-core-i9-12900k-im-gaming/
:rolleyes:

TwoBeers
2022-01-04, 17:16:45
Ja, komisch, dass jetzt nur der 5800X3D kommt, irgendwie sehr kleines Portfolio. Und außerdem dauert es ja noch mindestens 3 Monate bis man den kaufen kann, leider.

Aber das wird wohl das nächste Upgrade, damit kann man dann wahrscheinlich Zen4 auslassen und hoffen, dass sich bis dahin die DDR5 Preise normalisiert haben.

][immy
2022-01-04, 17:36:50
Ja, komisch, dass jetzt nur der 5800X3D kommt, irgendwie sehr kleines Portfolio. Und außerdem dauert es ja noch mindestens 3 Monate bis man den kaufen kann, leider.

Aber das wird wohl das nächste Upgrade, damit kann man dann wahrscheinlich Zen4 auslassen und hoffen, dass sich bis dahin die DDR5 Preise normalisiert haben.
Ich wäre mal so frech und würde behaupten, das man in aktuellen Spielen kaum Mehrwerte aus 12 oder gar 16 Kernen bekommt. So das man hier nur einen Performancegleichstand zeigen könnte, was bei einem Launch relativ schlecht zu vermarkten ist, wozu man überhaupt die größeren Modelle bräuchte ;)

Man testet ja selbst schon gegen den 5900x.

Der weitere Support der B450/X470 Boards ist allerdings klasse. Rüste ich meinen 3700x vielleicht ja doch noch mal auf, wo ich doch grad (vor gut 6 Monaten) eh auf 32gb aufgerüstet hab.

Es zeigt vermutlich, daß der Stromverbrauch durch den großen Cache wohl doch etwas hochgeht (und sei es nur, weil die CPU tatsächlich mehr tut). Man spart off-chip Zugriffe und die Effizienz sollte trotzdem hochgehen.
Insgesamt sollte die CPU durch kürzere "wartezeiten" tatsächlich wärmer werden falls die GPU nicht limitiert.

Und Base nur 3,4 GHz statt 3,8GHz.
Base-Takt sagt ja letztlich wenig aus. Viel getan an der CPU selbst hat man wohl nicht, wenn man bedenkt das CSGO nicht mal reagiert. Aber wenn auch der Boost-Takt geringer ausfällt, wäre das ja trotzdem ein Schritt Richtung mehr Effizienz. Der wahre Test das Single-Thread-Monsterspiel-"Anno 1800" fehlt dabei aber noch ;)


Btw, ich weiß es ist nur Cache, aber bei den Größen sollte es doch langsam mal möglich sein ohne RAM zumindest mal bis ins Bios zu kommen. Klar wäre das nicht schön, aber man könnte endlich mal nicht funktionierenden RAM von anderen problemen unterscheiden, wenn das Mainboard mal wieder nicht die richtigen Töne raus gibt. Ich weiß Edge-Case aber wäre trotzdem mal schön.

Tangletingle
2022-01-04, 17:40:26
Rambrand triggert meinen Kauffinger hart. Als Upgrade von 4500u mit 16gb und 512gb nvme dürfte das ziemlich geil sein.

Berniyh
2022-01-04, 17:49:05
Soweit ich AMD's Treiber verfolgt habe, ist es das erste mal das die Treibereinträge hauptsächlich dazu gedacht waren, in die Irre zu leiten.
Versionsnummer und angegebene Funktionalität stimmt nicht.
Rembrandt verwendet anscheinend VCN4.x und kommt mit AV1 decoding.
Hab mir jetzt mal den Code angeschaut.
Meine Interpretation wäre hier etwas anders.
Soweit ich das sehen kann gibt es (aktuell) keinen öffentlichen vcn4.x Code.
Vermutlich hat der noch nicht die internen Reviews/Freigaben/etc. abschließend durchlaufen, darf also noch nicht veröffentlicht werden, was aber hoffentlich bald nachgeholt wird.
Falls du da was hast wäre ich um einen Link dankbar.

evtl. ist es aber so, dass Rembrandts vcn4.x teilweise abwärtskompatibel mit vcn3.x ist und man das damit – vorerst – so umgesetzt hat wie du es auch in deinem Video protokolliert hast.
Diese Vermutung meinerseits kommt schlicht daher, dass der aktuelle Code es zeitnah in eine zu veröffentlichende Version des Linux Kernels schaffen wird, nämlich Version 5.16 (die vermutlich nächste oder übernächste Woche finalisiert wird).
AMD kann es sich hier nicht erlauben falschen oder ggf. verbugten Code in den Linux Kernel zu schleusen, dafür würden sie – wenn das raus kommt – einen massiven Shit Storm kassieren.
Nicht von unserer Seite (also von Leuten die einfach nur an der Technologie interessiert sind), sondern von Kernel Seite.

Für AMD wäre hingegen ein teilweiser Support des VCN in einer frühen Kernel Version von Vorteil, da Distributionen häufig eine bestimmte Kernel Version branchen und in einem Distro Release ausschließlich verwenden.
Somit wären auch Distributionen schon gut unterstützt die "nur" Kernel 5.16 verwenden und nicht erst ab 5.17, 5.18 o.ä.

Gleiches könnte ggf. auch für Beige Goby (N24) der Fall sein.

bananenmann
2022-01-04, 17:52:12
Ich finde es wäre totaler Mist, wenn NUR der 8-Kerner mit 3D Cache käme/kommt. Ich habe von vornherein, als ich von Intel auf die AM4 Plattform gewechselt bin, darauf spekuliert, dass ich mir nach meinem Ryzen 3900X dann einen verbesserten 12- oder 16-Kerner zum Aufrüsten hole. Zuerst war ja die Rede von einem Zen 3+ (davon wollte ich dann einen 16 Kerner kaufen), später dann die Versionen mit 3D Cache (da hatte ich überlegt ob nicht vielleicht sogar 12 Kerne reichen).

Deswegen habe ich zu Beginn extra viel Geld in ein sehr gutes Board (Gigabyte X570 Aorus Master) und viel DDR4 Speicher (4 x 16 GB) gesteckt, um dann auf Jahre versorgt zu sein. Und nun? Was soll ich mit nem läppischem 8-Kerner? Selbst wenn der jetzt ein wenig mehr Leistung bringt lohnt sich das nicht und ist längst nicht das Leistungsplus, was ich mir erhofft habe.

Ich muss dazu sagen, dass ich kaum zocke und eher Videos bearbeite. Deswegen brauche ich soviele Kerne. (Threadripper etc kommen aber nicht in Frage). Aber so ist das jetzt total kacke. Dann werde ich mir vielleicht doch NUR einen 5950x mit 16 Kernen holen, aber das wird dann auch extrem teuer und bringt auch nicht die erhoffte krasse Leistungssteigerung... heiß isser außerdem ... alles Käse.

In 2-3 Jahre hat Intel eh wieder die Nase vorn, wenn sie auf TSMCs 3 Nanometer umsteigen. Alderlake ist ja jetzt schon besser, nur dass er zuviel Strom verbraucht und zu heiß wird. Aber das Problem wird nach der Schrumpfung beseitigt sein, während AMD seine ZEN Architektur weiterprügelt, wie es Intel vorher mit der Core Architektur gemacht hat...

mironicus
2022-01-04, 17:55:50
Kann AMD in 6 nm eigentlich mehr liefern? Welcher große Hersteller setzt denn sonst noch auf diese Fertigungstechnologie?

Nightspider
2022-01-04, 17:59:24
In Games wird der 5800X3D jedenfalls immer schneller sein als der 5950X.

dildo4u
2022-01-04, 18:02:51
Kann AMD in 6 nm eigentlich mehr liefern? Welcher große Hersteller setzt denn sonst noch auf diese Fertigungstechnologie?
Intel bringt seine dicken GPUs in 6nm TSMC.

Berniyh
2022-01-04, 18:03:33
Ich muss dazu sagen, dass ich kaum zocke und eher Videos bearbeite. Deswegen brauche ich soviele Kerne. (Threadripper etc kommen aber nicht in Frage). Aber so ist das jetzt total kacke. Dann werde ich mir vielleicht doch NUR einen 5950x mit 16 Kernen holen, aber das wird dann auch extrem teuer und bringt auch nicht die erhoffte krasse Leistungssteigerung... heiß isser außerdem ... alles Käse.
Also bei mir verträgt sich der 5950X wunderbar mit einem D12 und wird auch nicht so extrem warm, selbst beim Encoding oder Kompilieren.
Kann ich sehr empfehlen.
Aber auch ein 5900X ist doch eine tolle Option für dein Profil?

Gipsel
2022-01-04, 18:07:19
Nur Volker Rißka kann Schlagzeilen wie diese produzieren:
https://www.computerbase.de/2022-01/amd-ryzen-7-5800x3d-dank-100-mb-cache-schneller-als-core-i9-12900k-im-gaming/
:rolleyes:Was stört dich denn an der Überschrift? Stimmt doch!

y33H@
2022-01-04, 18:13:56
Ja, finde die sogar ziemlich clever - ist nicht so generisch, sondern hat was.

Thunder99
2022-01-04, 18:55:01
Rambrand triggert meinen Kauffinger hart. Als Upgrade von 4500u mit 16gb und 512gb nvme dürfte das ziemlich geil sein.
Erst recht bei einem A4-1350 und HDD Laptop... :wink:

AMD wird schon den R9 5900X3D/5950X3D bringen denke ich, aber erstmal Intel kontern lassen mit dem 1200KS und dann auch kontern ;). Ist cleverer (wenn es so kommt)

Temperatur könnte echt noch ein Problem werden beim R7 5800X3D :frown:, sodass man den Takt senken musste (= Spannung) um die Grenze nicht zu sprengen :confused::frown:

Nightspider
2022-01-04, 18:59:37
Bleibt mehr für Wakü Besitzer zu holen. ^^

Locuza
2022-01-04, 19:09:02
Was ich auch noch überlegt hatte:
könnte es sein, dass man da irgendwie die CVML Einheit verwenden oder mitverwenden kann um Codecs wie AV1 zu prozessieren?
Rein vom Bauchgefühl würde ich annehmen, das man damit nicht wirklich was nützliches in Zusammenhang mit AV1 basteln könnte.

Und war vorher schon ungeschlagen.
Naja, es gibt schon mehrere Fälle, wo Xe 96 EU Vega8 schlagen kann und das nicht zu knapp:
https://www.anandtech.com/show/16654/the-microsoft-surface-laptop-4-review-refreshing-ryzen/4

Hier, beide mit 3200 Dual-Rank DDR4 und ähnlicher Leistungsaufnahme:
https://www.youtube.com/watch?v=xdQJ3qdv5Gs

Also selbst im letzteren Fall ist Intel schon nah dran, was die Vega8-Performance angeht, wenn die Treiber nicht zicken.
Rembrandts iGPU-Upgrade war nötig, um Intel deutlich auf die Plätze zu verweisen.

Hui, kein Wort eines 2 CCD-Vcache Prozessores. Scheint sich ja echt auf den 5800X3D zu beschränken und so bald scheint auch der nicht zu erscheinen. Sieht für mich danach aus, als hätte AMD das X3D-Projekt übelst zusammengestrichen. Vielleicht war da mal ne ganze Generation geplant (Warhol?), denn Zen4 ist ja jetzt offiziell Ryzen 7k. Aber davon ist offenbar nur dieser eine Prozessor übriggeblieben. Der 5800X3D ist jetzt AMDs Broadwell :freak:.

Mit Spring 2022 war es anscheinend für AMD etwas zu spät, um ein breites Portfolio aufzuspannen, wenn Zen4 in H2 2022 kommt.
Allerdings wird Zen4 unter 5nm laufen, ich denke 7nm Produkte für AM4-Kunden hätten sich angeboten, mit mehr als einer SKU.

Hab mir jetzt mal den Code angeschaut.
Meine Interpretation wäre hier etwas anders.
Soweit ich das sehen kann gibt es (aktuell) keinen öffentlichen vcn4.x Code.
Vermutlich hat der noch nicht die internen Reviews/Freigaben/etc. abschließend durchlaufen, darf also noch nicht veröffentlicht werden, was aber hoffentlich bald nachgeholt wird.
Falls du da was hast wäre ich um einen Link dankbar.

evtl. ist es aber so, dass Rembrandts vcn4.x teilweise abwärtskompatibel mit vcn3.x ist und man das damit – vorerst – so umgesetzt hat wie du es auch in deinem Video protokolliert hast.
Diese Vermutung meinerseits kommt schlicht daher, dass der aktuelle Code es zeitnah in eine zu veröffentlichende Version des Linux Kernels schaffen wird, nämlich Version 5.16 (die vermutlich nächste oder übernächste Woche finalisiert wird).
AMD kann es sich hier nicht erlauben falschen oder ggf. verbugten Code in den Linux Kernel zu schleusen, dafür würden sie – wenn das raus kommt – einen massiven Shit Storm kassieren.
Nicht von unserer Seite (also von Leuten die einfach nur an der Technologie interessiert sind), sondern von Kernel Seite.

Für AMD wäre hingegen ein teilweiser Support des VCN in einer frühen Kernel Version von Vorteil, da Distributionen häufig eine bestimmte Kernel Version branchen und in einem Distro Release ausschließlich verwenden.
Somit wären auch Distributionen schon gut unterstützt die "nur" Kernel 5.16 verwenden und nicht erst ab 5.17, 5.18 o.ä.

Gleiches könnte ggf. auch für Beige Goby (N24) der Fall sein.
Es gibt keinen VCN4.x Code, aber das scheint laut Reddit-Kommentaren die Versionsnummer zu sein (uzzi ist scheinbar im cool kidz club, mit confidential informations.)
https://www.reddit.com/r/hardware/comments/rvpcwz/videocardz_amd_announces_ryzen_6000_mobile_cpus/hr6zt4w/?utm_source=reddit&utm_medium=web2x&context=3

Für Yellow Carp (Rembrandt) hat AMD die VCN-Version mit 3.1.1 angegeben und kein Support für AV1 decoding und ältere Videoformate.
Zumindest fehlendes AV1 decoding ist eindeutig falsch.

Man kann erwarten, dass AMD bald neuen Treibercode liefert, der die Version auf 4.x ändert und AV1 decoding einpflegt.
Das ist ziemlich komisch, denn schon VCN3.0 brachte AV1 decoding und man hätte das echt erwarten können.
Wieso AMD hier so vorgegangen ist, ist mir nicht ganz klar.

Möglich das auch für N24 nicht alle Einträge die echten Limits der Hardware darstellen, ich bin da nicht optimistisch, aber mal sehen was noch kommt.

nicht ganz 4,7GHz <-> 4,4GHz sind "nur" 6,8%. Die IPC steigt um 4%, nicht viel aber doch ein klein wenig
Du gehst von den Papiertaktraten aus, das sagt nix darüber aus, wielange die anliegen. Schafft ein 5800U bei 15W einen Cinebenchrun mit 4,4 Ghz? So kurz ist ein Cinebenchrun schließlich mit 1 Core nicht.
Laut Fußnoten war es 15W 5800U vs. 28W 6800U, also man kann sich da sehr sicher sein, dass die 11% nur von höheren Taktraten kommen:
https://twitter.com/TheAtlasRises/status/1478394655779794953

MSABK
2022-01-04, 19:22:11
Erst recht bei einem A4-1350 und HDD Laptop... :wink:

AMD wird schon den R9 5900X3D/5950X3D bringen denke ich, aber erstmal Intel kontern lassen mit dem 1200KS und dann auch kontern ;). Ist cleverer (wenn es so kommt)

Temperatur könnte echt noch ein Problem werden beim R7 5800X3D :frown:, sodass man den Takt senken musste (= Spannung) um die Grenze nicht zu sprengen :confused::frown:

Evtl. sammelt >AMD gute Chips um die 5900X3D höher takten zu können als Konter.

AffenJack
2022-01-04, 20:03:55
Laut Fußnoten war es 15W 5800U vs. 28W 6800U, also man kann sich da sehr sicher sein, dass die 11% nur von höheren Taktraten kommen:
https://twitter.com/TheAtlasRises/status/1478394655779794953

Was ein Beschiss, da kann man sich den Multicorewert erst Recht sparen. +11% Singlethread und +28% Multithread bei 86% mehr TDP. Grandios. Vergleichbarkeit ist mal 0 gegeben.

robbitop
2022-01-04, 20:10:10
AMD hat ja bereits in der Keynote gesagt die höhere CPU Performance kommt von höheren Boost clocks und höheren gehaltenen taktraten („clock residency“). Da in dem Zusammenhang nichts von IPC gesagt wurde, würde ich davon ausgehen, dass Zen3+ taktnormiert Zen 3 ist. Aber halt optimiert in Bezug auf Takt und Verbrauch.

MSABK
2022-01-04, 20:56:37
Sind die CUs der GPU genau die gleichen wie bei den Desktop Karten?

HOT
2022-01-04, 21:03:30
Ich glaub nicht an einen 59xxX3D. Es ergibt einfach wenig Sinn, eine bessere Spiele-CPU wird das auch nicht und Lisa hätte sicherlich das Top-Produkt vorgestellt und nicht das kleinste, wenn es einen 5950X3D geben würde. Ich würde mal ganz stark davon ausgehen, dass es beim 5800X3D bleiben wird. Und verschoben ist er offensichtlich obendrein auf frühstens April.
Dass es bei Zen4 auch VCache-Varianten geben wird halte ich für obligatorisch. Damit ist mal im Gaming einfach uneinholbar vorne.

MSABK
2022-01-04, 21:12:31
Ich glaub nicht an einen 59xxX3D. Es ergibt einfach wenig Sinn, eine bessere Spiele-CPU wird das auch nicht und Lisa hätte sicherlich das Top-Produkt vorgestellt und nicht das kleinste, wenn es einen 5950X3D geben würde. Ich würde mal ganz stark davon ausgehen, dass es beim 5800X3D bleiben wird. Und verschoben ist er offensichtlich obendrein auf frühstens April.
Dass es bei Zen4 auch VCache-Varianten geben wird halte ich für obligatorisch. Damit ist mal im Gaming einfach uneinholbar vorne.

Was könnte es bedeuten, dass Amd nur den 5800X3D bringt, ist Zen4 schneller als erwartet und man könnte Intel damit länger in Schach halten?

Rebell
2022-01-04, 21:13:46
Nur ein 5800x3d enttäuscht richtig..

Extra zum 5600x ein relativ teures Board geholt für einen 16er 3dcache und nun ist schon bei 8 Schluss.. also bleibt mir ein 5950x oder 5800x3d übrig auf lange Sicht.

aufkrawall
2022-01-04, 21:14:06
8C passt schon. Dürfte in Anno 1800 mit getweaktem RAM aber trotzdem langsamer als ein 12500 sein. Das Ding kommt viel zu spät und dürfte viel zu teuer sein. Kaum mehr als ein Papier-Werbeprodukt, was nach der langen Vorankündigung echt enttäuschend ist.

Der_Korken
2022-01-04, 21:19:47
Gut dass ich nicht auf den V-Cache gewartet habe. Bis der rauskommt, habe ich meinen 5900X fast ein Jahr genutzt und für Anwendungen wird das womöglich nicht so der Bringer sein, wenn der Takt geringer als ohne V-Cache ausfällt.

Dass bei den APUs 15W vs 28W verglichen wurde, ist imho schon fast ein Skandal. Die 11% ST-Performance hätte ich ja noch geglaubt, weil der Boost-Takt um 300Mhz gestiegen ist und man durch einen Respin und kleinere Bugfixes sicherlich 5% IPC hätte rausholen können, wenn man gewollt hätte. Aber die 28% MT fand ich schon zu gut, um wahr zu sein. Bei knapp verdoppeltem Budget muss man eher sagen, dass da maximal 10% echte Effizienzsteigerung übrig bleiben, wenn überhaupt.

Auch bei der iGPU-Performance muss man hier aufpassen. Immer wenn ich hier Vergleiche lese, wird der Verbrauch komplett ausgeblendet. Vega -> RNDA = +25%, 8 -> 12 CUs = +50%, 2Ghz -> 2,4Ghz = +20%, macht zusammen +125%, dazu noch DDR5 mit knapp verdoppelter Bandbreite, macht zusammen eine Leistungsverdopplung. Aber seit wann verbrauchen 12 RDNA2-CUs mit 2,4Ghz genau so wenig Strom wie 8 Vega-CUs mit 2Ghz? Die alte APU lief doch bei 15W schon längst ins Powerlimit, da müsste der Takt dramatisch sinken statt steigen, um die dickeren und mehr CUs aufzufangen. Wenn man 28W vs 15W vergleicht, dann kann das natürlich schon sein mit der Leistungsverdopplung, aber der Vergleich ist dann relativ sinnlos.

Berniyh
2022-01-04, 21:26:56
Es gibt keinen VCN4.x Code, aber das scheint laut Reddit-Kommentaren die Versionsnummer zu sein (uzzi ist scheinbar im cool kidz club, mit confidential informations.)
https://www.reddit.com/r/hardware/comments/rvpcwz/videocardz_amd_announces_ryzen_6000_mobile_cpus/hr6zt4w/?utm_source=reddit&utm_medium=web2x&context=3

Für Yellow Carp (Rembrandt) hat AMD die VCN-Version mit 3.1.1 angegeben und kein Support für AV1 decoding und ältere Videoformate.
Zumindest fehlendes AV1 decoding ist eindeutig falsch.

Man kann erwarten, dass AMD bald neuen Treibercode liefert, der die Version auf 4.x ändert und AV1 decoding einpflegt.
Das ist ziemlich komisch, denn schon VCN3.0 brachte AV1 decoding und man hätte das echt erwarten können.
Wieso AMD hier so vorgegangen ist, ist mir nicht ganz klar.
Ja, komisch ist es auf jeden Fall.

Wenn aber irgendwas im Hardwaredesign geändert wurde, dann könnte es halt sein, dass an den Stellen an denen etwas geändert wurde (also z.B. AV1 betreffend) der Treibercode von VCN 3.x nicht funktioniert und Bugs hervorrufen würde.
Ganz weit hergeholt könnte ja Rembrandt z.B. auch AV1 encoding unterstützen und dafür dann zwingend anderen Code benötigen der den VCN korrekt anspricht und in den encoding/decoding Modus schaltet.
Wahrscheinlich sind es aber andere Dinge, evtl. konnte man den VCN etwas optimieren, damit AV1 effizienter decodiert wird und das braucht dann eben auch neuen Code, irgendwie sowas halt.
Viel wichtiger ist eben, dass das Vorgehen von AMD eben Sinn macht, wenn der neue Code noch intern festhängt und erst in einem halben Jahr (ca. 3 Kernelversionen) integriert wird.
Möglich das auch für N24 nicht alle Einträge die echten Limits der Hardware darstellen, ich bin da nicht optimistisch, aber mal sehen was noch kommt.
Ich mach mir da jetzt auch keine Hoffnungen.
Die Aussage kam eigentlich nur daher, da es eben einige Parallelen gibt und ja auch der Veröffentlichungszeitraum von beiden Chips gleich ist (d.h. das Tapeout dürfte auch ungefähr gleichzeitig passiert sein). Sind ja auch beide in 6nm.
Zudem hat AMD auch früher schon das IP der nachfolgenden Chips immer wieder aktualisiert, siehe z.B. Navi 14 und 12.
Letztendlich werden wir es aber erst wissen, wenn der Chip draußen ist und mindestens mal die Windows Treiber aktualisiert wurden.

Thunder99
2022-01-04, 21:32:33
8C passt schon. Dürfte in Anno 1800 mit getweaktem RAM aber trotzdem langsamer als ein 12500 sein. Das Ding kommt viel zu spät und dürfte viel zu teuer sein. Kaum mehr als ein Papier-Werbeprodukt, was nach der langen Vorankündigung echt enttäuschend ist.
Eine Rosine bei Intel, aber muss sich erst zeigen in realen Tests :wink:

Angenommen es kommt wirklich nur der 5800X3D, dann könnte dies durchaus ein Hinweis sein, dass Zen4 sehr gut läuft und dieser wirklich Herbst 2022 kommt. Da macht es wohl weniger Sinn viele CPUs auf "Halde" zu produzieren wenn es nur noch 6 Monate mehr sind. :confused:

aufkrawall
2022-01-04, 21:38:32
Eine Rosine bei Intel, aber muss sich erst zeigen in realen Tests :wink:

Ja, eine Rosine. Auch nicht wirklich für Intel allgemein, sondern wirklich nur für Alder Lake (siehe Bench-Werte im Anno-Thread). Es besteht aber die reale Chance, dass das auch in (zukünftigen) anderen Titeln passieren kann. Wenn der Cache bei Gammel wie CS:GO oder Valorant mit 999fps viel bringt, hab ich davon nichts.

Neosix
2022-01-04, 21:50:21
Gut dass ich nicht auf den V-Cache gewartet habe.

Kann ich zwar verstehen, bei mir wird er meinen 5600x ersetzen. Ein 5800/900x war eigentlich bei mir von anfang an, vorgeplannt, aber zum Zeitpunkt wo ich den PC zusammengebaut hatte, praktisch nicht lieferbar. Der 600x war ne "notlösung". So hab ich nochmal einen ordnenlichen upgrade wo ich mein AM4 Platform/RAM weiter nutzen kann. Also ich feiere die CPU, hoffe der Preis wird nicht exorbitant hoch sein.

fondness
2022-01-04, 22:05:58
Gab es eigentlich ein Datum wann der 5800X3D jetzt kommt?

Unicous
2022-01-04, 22:06:43
Ja, zu spät.:freak:

maximAL
2022-01-04, 22:14:27
Hat auch direkt irgendein Hersteller Notebooks mit Rembrandt gekündigt oder wird das jetzt noch Wochen-Monate dauern?

bananenmann
2022-01-04, 22:16:21
In Games wird der 5800X3D jedenfalls immer schneller sein als der 5950X.
Wie ich schon sagte: Es ist nicht jeder ein Gamer. Bei mir beträgt das Verhältnis Zocken zu Videoencoden = 15 : 85

Also bei mir verträgt sich der 5950X wunderbar mit einem D12 und wird auch nicht so extrem warm, selbst beim Encoding oder Kompilieren.
Kann ich sehr empfehlen.
Aber auch ein 5900X ist doch eine tolle Option für dein Profil?
Das stimmt schon. Nur wäre ein 5900X3D oder gar ein 5950X3D die weitaus bessere Option :) ... Heiß werden sie eh alle. Ich habe jetzt schon Probleme mit meiner Corsair H115i den 3900X gebändigt zu bekommen. Hätte dann sowieso eine noch potentere Wakü dazugekauft, weil meine auch schon alt ist und ich einen defekt vermute (wird einfach trotzdem zu heiß)

Bleibt mehr für Wakü Besitzer zu holen. ^^
Ich habe eine ...


Angenommen es kommt wirklich nur der 5800X3D, dann könnte dies durchaus ein Hinweis sein, dass Zen4 sehr gut läuft ...
Es könnte aber evtl. auch genau das Gegenteil bedeuten: Zen 4 ist doch nicht so stark wie erhofft und brächte man jetzt einen 12-16 Kerner auf Zen 3 Basis inkl. 3D Cache, wäre das Leistungsplus zu Zen 4 vielleicht dann zu gering als dass der sehr hohe Aufpreis sich für viele lohnen würde. Man muss ja dann auf jeden Fall mindestens noch ein Mobo kaufen. Ob DDR4 dann noch supported wird weiß ich jetzt nicht, aber ihr bestimmt oder? Oder ist das noch nicht raus? Wenn nicht, kommt noch der Kauf von DDR5 Ram dazu.

Wird ein teurer Spaß, gerade zur heutigen Zeit. Ein 590X3D bzw. 5950X3D wäre dann die günstigere Alternative (wie von mir geplant, um die Kinderkrankheiten von Zen 4, DDR5 und PCI-E 5.0 zu überbrücken). Diese CPUs würden aber ZEN 4 kannibalisieren, zumal der ja relativ schnell danach kommt. Ich denke AMD bringt BEWUSST deswegen nur einen Zen 3 mit 8 Kernen und 3D Cache, um gar nicht erst in Erklärungsnot zu gelangen und einen offensichtlich großen Leistungssprung - zumindest zu den Zen 4 CPUs mit 12 und 16 Kernen zu haben, welche ja auch noch einen 3D Cache spendiert bekommen...

HOT
2022-01-04, 22:20:16
Ja, eine Rosine. Auch nicht wirklich für Intel allgemein, sondern wirklich nur für Alder Lake (siehe Bench-Werte im Anno-Thread). Es besteht aber die reale Chance, dass das auch in (zukünftigen) anderen Titeln passieren kann. Wenn der Cache bei Gammel wie CS:GO oder Valorant mit 999fps viel bringt, hab ich davon nichts.
Lt AMD tuts das ja nicht. CS:GO war ja auf AMDs eigener Präsentation sogar minimal langsamer als ein 12900k. Watchdogs soll aber 36% schneller sein als ein 5900X und Farcry6 24% schneller, immerhin 6% schneller als ein 12900k. Der KS dürfte das auch wieder halbwegs einfangen, aber zu welchem Preis ;)? Mal unabhängige Tests abwarten, aber ich halte die CPU für ne gute Aufrüster-CPU, Zen4 ist mMn einfach nicht weit genug weg, um den als Neusystem anzuschaffen.

mboeller
2022-01-04, 22:21:42
wie hoch taktet eine Zen3 CPU, wie 5800x und 5950x eigentlich "all-core"?

Daredevil
2022-01-04, 22:21:55
Wie ich schon sagte: Es ist nicht jeder ein Gamer. Bei mir beträgt das Verhältnis Zocken zu Videoencoden = 15 : 85

3DCache bedeutet aber nicht, dass jede Applikation um 25% steigt, es kommt auch auf die Anwendung an. Und meist hat AMD das ganze mit Gaming genannt.
Ob der Cache wirklich für "Workloads" interessant ist, ist überhaupt nicht bekannt, soweit ich weiß.

Zudem hat AMD nicht die Workloadkrone verloren, sondern die Gamingkrone.
AMD hat den 5950x und Threadripper, da hat Intel nichts gegen auszusetzen.
Beim Gaming... halt schon, sonst hätte AMD nicht auch aggressiv den 12900k im Vergleich gezeigt.

bananenmann
2022-01-04, 22:30:49
3DCache bedeutet aber nicht, dass jede Applikation um 25% steigt, es kommt auch auf die Anwendung an. Und meist hat AMD das ganze mit Gaming genannt.
Ob der Cache wirklich für "Workloads" interessant ist, ist überhaupt nicht bekannt, soweit ich weiß.

Zudem hat AMD nicht die Workloadkrone verloren, sondern die Gamingkrone.
AMD hat den 5950x und Threadripper, da hat Intel nichts gegen auszusetzen.
Beim Gaming... halt schon, sonst hätte AMD nicht auch aggressiv den 12900k im Vergleich gezeigt.
Das stimmt schon, aber ich mache ja wie gesagt beides und nehme jedes kleinste Plus gerne mit, bevor ich in ein paar Jahren mal wieder komplett neu aufrüste. Außerdem wurde doch (glaube ich) bei der erstmaligen Präsentation des 3D Caches an sich ebenfalls mitgeteilt, dass es Applikationen auch zugute kommt - auch wenn es da nicht 25% sind. Sonst hätte man sich das bei Milan ja auch sparen können...

https://www.golem.de/news/milan-x-mit-3d-v-cache-amds-epycs-werden-50-prozent-schneller-2111-160913.html

Nightspider
2022-01-04, 22:33:01
Das mit den 15 vs 28W ist natürlich mies.

Das verschiebt mein positives Bild von Rembrandt doch arg.

Berniyh
2022-01-04, 22:35:06
Das stimmt schon. Nur wäre ein 5900X3D oder gar ein 5950X3D die weitaus bessere Option :) ... Heiß werden sie eh alle. Ich habe jetzt schon Probleme mit meiner Corsair H115i den 3900X gebändigt zu bekommen. Hätte dann sowieso eine noch potentere Wakü dazugekauft, weil meine auch schon alt ist und ich einen defekt vermute (wird einfach trotzdem zu heiß)
Klar, mehr Performance ist nie schlecht, aber der 5950X haut auch so schon echt was weg, da kann man das verschmerzen.
Zumal ein 5950X3D auch nicht gerade günstiger sein würde.

MSABK
2022-01-04, 22:35:22
Das mit den 15 vs 28W ist natürlich mies.

Das verschiebt mein positives Bild von Rembrandt doch arg.

Warum? Wenn die Kühlung gut ist umd somit auch relativ leise dann passt es ja. Abseits von Spielen ist das Gerät eh nahe am Id,e und somit sollte es dort sogar besser sein als der Vorgänger.

Daredevil
2022-01-04, 22:40:27
Das stimmt schon, aber ich mache ja wie gesagt beides und nehme jedes kleinste Plus gerne mit, bevor ich in ein paar Jahren mal wieder komplett neu aufrüste. Außerdem wurde doch (glaube ich) bei der erstmaligen Präsentation des 3D Caches an sich ebenfalls mitgeteilt, dass es Applikationen auch zugute kommt - auch wenn es da nicht 25% sind. Sonst hätte man sich das bei Milan ja auch sparen können...

https://www.golem.de/news/milan-x-mit-3d-v-cache-amds-epycs-werden-50-prozent-schneller-2111-160913.html
Es ist in der Tat natürlich ärgerlich, wenn du von einem 12 Kerner auf einen 8 Kerner wechselst, da stimme ich dir zu. ^^
Bei mir wäre das von einem 5600x auf ein 5800x ein Big Win, in jeder Kategorie.

Du hast am Ende ja immer noch die Option, einen 5950x zu nehmen, wenn der günstiger wird. Den Cache wird sich AMD sicher vergolden lassen, vermutlich auch zurecht. Und keine Ahnung, was Server Prozessoren an Hardware bzw. Leistungen benötigen.

teetasse
2022-01-04, 22:43:31
Die 40 % längere Laufzeit beim Netflix gucken sind auch eine Ansage! Rembrandt ist definitiv sparsamer.

Windi
2022-01-04, 22:44:37
Wenn die 3D-Cache Varianten erst im Frühling erscheinen, dann macht es natürlich Sinn mit der Ankündigung der Top-Modelle etwas zu warten.
So weiß man wie Intels Konter aussieht und kann dann noch etwas drauf legen. Außerdem macht es natürlich auch Sinn, kurz vor dem Start noch einmal positive Nachrichten zu erzeugen.

Benutzername
2022-01-04, 22:45:26
3DCache bedeutet aber nicht, dass jede Applikation um 25% steigt, es kommt auch auf die Anwendung an. Und meist hat AMD das ganze mit Gaming genannt.
Ob der Cache wirklich für "Workloads" interessant ist, ist überhaupt nicht bekannt, soweit ich weiß.

Der direkte Vergleich wäre ja der i7-5775C, der ja auch einen fetten Cache hatte. Wie sah es da aus in Anwendungen? In Spielen ist der ja sehr gut gealtert. Sollte dann ja ähnlihc sich auswirken für den Ryzen 3D.


Zudem hat AMD nicht die Workloadkrone verloren, sondern die Gamingkrone.
AMD hat den 5950x und Threadripper, da hat Intel nichts gegen auszusetzen.
Beim Gaming... halt schon, sonst hätte AMD nicht auch aggressiv den 12900k im Vergleich gezeigt.

Threadripper Pro. ;) Der mitohne Pro ist ja leider gestrichen worden. Obwohl ja das Upgrade Zen2 zu zen3 fast nur der Austuasch der hciplets ist. aber als Epyc verdient AMD mehr mit den Chiplets. Tja, mal sehen was bei den Workstation Xeons von Intel kommt und ob die da Vielleicht in die Lücke bei AMd drängen können, die der kleine Threadripper gelassen hat.


Naja Gamingkrone verloren. Soweit dahinter ist man mit einem Ryzen auch nicht und man ist in den meisten Fällen sowieso im Graka Limit, was die CPU weniger wichtig macht. *Schulterzuck*



-------------------------------------------------------

Wenn die 3D-Cache Varianten erst im Frühling erscheinen, dann macht es natürlich Sinn mit der Ankündigung der Top-Modelle etwas zu warten.
So weiß man wie Intels Konter aussieht und kann dann noch etwas drauf legen. Außerdem macht es natürlich auch Sinn, kurz vor dem Start noch einmal positive Nachrichten zu erzeugen.


Naja, ein 5900X3D oder 5950X3D verbraucht halt zwei Chiplets anstatt einem und AMD ist halt Chiplet limitiert im Moment. Also die 5800X3D an die Gamer verticken und dann später ein paar mit zwei chiplets an Workstationaufrüster und Enthusiasten verkaufen.

basix
2022-01-04, 22:50:34
wie hoch taktet eine Zen3 CPU, wie 5800x und 5950x eigentlich "all-core"?

Schau dir TPU Tests an:
https://www.techpowerup.com/review/amd-ryzen-7-5800x/21.html
https://www.techpowerup.com/review/amd-ryzen-9-5950x/21.html

basix
2022-01-04, 23:10:35
Was könnte es bedeuten, dass Amd nur den 5800X3D bringt, ist Zen4 schneller als erwartet und man könnte Intel damit länger in Schach halten?

Ob der 5800X3D alleine kommt oder nicht, würde ich als noch nicht abschliessend beantwortet ansehen.

Der 5800X3D macht als "Gaming-CPU" eigentlich am meisten Sinn. Für Games sind >8C nicht matchentscheidend. Zudem sehe ich zwei weitere Gründe:

Begrenzte 7nm Kapazitäten und Produktpolitik. Dies muss man eher in CPU-Stückzahlen sehen als in $/7nm (ein 5950X3D hätte vermutlich eine höhere Marge). Mit nur einem Chiplet/CPU wird man entsprechend mehr Leute erreichen. Ein 5800X3D hat einfach eine breitere Zielgruppe und ein zufriedener AMD-Käufer wird zukünftig AMD ebenfalls in Betracht ziehen. Und ein letztes AM4 Upgrade vor Wechsel auf Zen 4/DDR5 wird sicher auch einigen gefallen, wo ein >=5900X eher nicht gekauft würde, da zu teuer oder als unnötig empfunden.
Alderlake als Konkurrenz. 5900X3D / 5950X3D würden preislich vermutlich überhalb von Alderlake rangieren. Mit dem 5800X3D kann man etwas in den ~500$ Markt werfen. So kann man dem 12900K und 12700K etwas Wind aus den Segeln nehmen. Mit einem 5950X3D könnte man das nicht.


59x0X3D CPUs kommen evtl. immer noch. Das würde ich so noch nicht ausschliessen. Ein 5800X3D macht aus marktpolitischen Gründen momentan aber mehr Sinn.

bbott
2022-01-04, 23:34:22
Was ein Beschiss, da kann man sich den Multicorewert erst Recht sparen. +11% Singlethread und +28% Multithread bei 86% mehr TDP. Grandios. Vergleichbarkeit ist mal 0 gegeben.

Die 15W wurden doch eh ständig überschritten und waren meist 25W+, die 15W Lüge ist doch das Problem der Drossel-Notebooks. Wenn man 25W mit 15W Kühlungen betreibt :freak:

amdfanuwe
2022-01-04, 23:42:27
5800X3D ist einfach nur ein Stinkefinger an Intel. Wird Preislich wohl zwischen 3800X und 3900X rangieren, ich schätze da um die 400€, so auf 12700K Niveau.
Da bietet AMD dann fürs gleiche Geld mehr Gaming Leistung.

Hott3X
2022-01-05, 08:40:09
Ich werde mir den 5800X3D für meinen 3700X auf mein Board packen. Ist in 5Min erledigt und mein Board und RAM können noch ein paar Jahre überbrücken. Ist halt nochmal ein gute Abschluss für die AM4 Generation.

Tarkin
2022-01-05, 09:10:24
Das mit den 15 vs 28W ist natürlich mies.

Das verschiebt mein positives Bild von Rembrandt doch arg.

Die Optik ist nicht ideal, stimmt. Aber zur Verteidigung von AMD... es gibt eine Slide wo der Vergleich mit 15W gemacht wir.... da sinds 17%.

https://forums.anandtech.com/attachments/1641329009706-png.55457/

Wichtig ist aber auch vor allem diese Slide:

https://forums.anandtech.com/attachments/power_consumption-jpg.55478/

Nightspider
2022-01-05, 09:31:57
Bei deinen Links muss man sich erst anmelden

pilzsammler2002
2022-01-05, 09:32:44
https://forums.anandtech.com/attachments/1641329009706-png.55457/


https://forums.anandtech.com/attachments/power_consumption-jpg.55478/

Gibt es die Bilder ohne Login? :D

davidzo
2022-01-05, 10:52:03
Die 40 % längere Laufzeit beim Netflix gucken sind auch eine Ansage! Rembrandt ist definitiv sparsamer.

Das ist aber auch kein CPU-Test.
Das zeigt eher wie veraltet VCN2 in Renoir und Cezanne ist, denn da läuft alles in Software. Das ist ein Test des AV1 Hardware Codecs, nicht der CPU oder GPU.

40% finde ich eher noch einen sehr geringen Zugewinn in Anbetracht dessen dass der Hardwarecodec die CPU eigentlich komplett offloaden sollte. Immerhin braucht 4K AV1 in Software 25-50% Load auf einer 8kern CPU, das sind also sicher 5-10Watt die da wegfallen. Da muss der Grundverbrauch des Notebooks schon sehr hoch sein wenn da nur 40% lower power herauskommen, gute Ultramobiles idlen bei 3Watt.
Möglicherweise ist der Hardwarecodec von AMD auch nicht so effizient wie der von Intel. Wobei ich das nicht erwarte, denn das ist in der Regel sowieso dazugekaufte IP, also identisch mit den codecs in risc-settopboxen etc. und die wissen eigentlich was sie tun.

Intel sind so ziemlich die einzigen die sich eine eigene Ip Abteilung für Videocodecs leisten, woanders in der Industrie wäre das einfach nicht profitabel.
Nicht zu vergessen hat Intel bereits seit September 2020 AV1 support in mobile CPUs, also quasi schon die minus 40% Power in netflix geboten die Rembrandt jetzt hier aufbietet.



Für Yellow Carp (Rembrandt) hat AMD die VCN-Version mit 3.1.1 angegeben und kein Support für AV1 decoding und ältere Videoformate.
Zumindest fehlendes AV1 decoding ist eindeutig falsch.

Man kann erwarten, dass AMD bald neuen Treibercode liefert, der die Version auf 4.x ändert und AV1 decoding einpflegt.
Das ist ziemlich komisch, denn schon VCN3.0 brachte AV1 decoding und man hätte das echt erwarten können.
Wieso AMD hier so vorgegangen ist, ist mir nicht ganz klar.


Das kann einen ganz einfachen Grund haben. Zum Beispiel dass man die IP für den Hardwarecodec gewechselt hat. VCN ist ja kein reines Eigengebräu sondern ein Marketingname für IP von einem halben dutzend anderer designIP-companies. Vielleicht war man mit der Leistung oder Effizienz des bisherigen HW-codecs von VCN3.0 nicht zufrieden, der neue Codec verbraucht weniger Diefläche oder man hat einen besseren Deal mit geringeren Lizenzkosten abschließen können.

Vielleicht ist der AV-1 part für VCN3.1.1 deshalb einfach nicht nicht mit in den Treiber gekommen, es kann auch lizenz-Einschränkungen geben wenn die IP von einem neuen Entwickler stammt als bisher. Wollen wir mal hoffen dass die Developer nur langsam beim porten oder ausliefern des Codes sind und nicht dass aus Lizenzrechtlichen Gründen nur die Windowstreiber AV1 support bekommen.

Nightspider
2022-01-05, 10:55:08
Bezogen sich die 40% denn auf AV1?

unl34shed
2022-01-05, 11:11:54
Bezogen sich die 40% denn auf AV1?

vermutlich ja, allerdings auch auf die System Power, auch wenn das System wohl sehr sparsam sein sollte mit gerade mal 150nits Display.

Based on testing by AMD as of 12/14/2021 using AMD internal power sampling and logging methodologies to capture total system power (TSP) and overall battery life in Microsoft Teams 3x3 teleconferencing, Google Chrome web browsing, and Netflix streaming video playback. System configuration: AMD reference motherboard(s), Ryzen™ 7 5800U @ 15W and 2x8GB LPDDR4, Ryzen™ 7 6800U @ 28W and 2x8GB LPDDR5, 1080p eDP PSR display with Varibright at 150 nits, Samsung 980 Pro 1TB SSD, WLAN enabled and disconnected, Windows 11 22000.282, BIOS 103BRC1 (5800U) and 090RC6INT (6800U). - RMB-17
https://ir.amd.com/news-events/press-releases/detail/1039/amdunveils-new-ryzen-mobile-processors-uniting-zen

y33H@
2022-01-05, 11:27:58
Netflix unter Windows nutzt AV1? Das wäre mir neu ...

davidzo
2022-01-05, 11:41:13
Netflix unter Windows nutzt AV1? Das wäre mir neu ...

Kann ich nicht überprüfen, aber für den benchmarkcase klingt es logisch.

Aber ja, der korrekte Vergleich wäre zwischen Rembrandt mit AV1 und Cezanne+Renoir mit HEVC. Denn die würden ja von Netflix kein AV1 ausgeliefert bekommen wenn sie das nicht in HW unterstützen.
Und ich bezweifle dass es da unterschiede im Bereich von 40% total power gibt wenn beide ihre hardwarecodecs benutzen.
Klar, das Netzwerk wird mehr genutzt durch die größere Filesize bei HEVC, aber das ist doch arg an den Haaren herbeigezogen. WTF soll eigentlich "WLAN enabled and disconnected" heißen wenn ich gerade videoconferencing oder netflix mache? WTF AMD?
Die haben da doch nicht Kabellan verwendet welches das Notebook out-of the-box gar nicht hat (USB Adapter)?
Wir wissen einfach nicht was genau AMD gemessen hat, da sie keine Angaben zu dem Netfix stream machen außer dass er "4K UHD" ist.

Savay
2022-01-05, 11:51:53
Kann ich nicht überprüfen, aber für den benchmarkcase klingt es logisch.


Tut es nicht...
AV1 gibt es aktuell max. auf TVs...und in der Android App per SW Decoder!
(und afair aktuell generell auch nur für SDR)

https://netflixtechblog.com/bringing-av1-streaming-to-netflix-members-tvs-b7fc88e42320?gi=8ed189a6a7fa

https://netflixtechblog.com/netflix-now-streaming-av1-on-android-d5264a515202

Wir wissen einfach nicht was genau AMD gemessen hat, da sie keine Angaben zu dem Netfix stream machen außer dass er "4K UHD" ist.

Da das Gerät wegen x86 mit Windows oder Linux lief, bleiben nicht viele Optionen über!
VP9 oder H264/H265, ist meine ich das einzige was man per Browser oder App ausgeliefert bekommen kann von Netflix.

In der App ist es via Mozilla sogar ausschließlich H264 für SDR und H265 für HDR! (SHIFT+STRG+ALT+D zeigt es an)

Und das ist beschleunigt mit VCN2.0, wenn es nicht grade nen intermediate Subsampling genutzt wird, was man als CDN für Enduser aber eigentlich nicht macht.
(4:2:2 und 4:4:4 ist afair generell ein Problem für fast alle Decoder bis auf Quicksync ab Gen 11!)

Aber wie ich weiter vorne schon geschrieben habe, kann es sein das der VCN2.0 einfach nicht der effizienteste ist.
6W APU STAPM für 4K/60 von den 2,5-3W Idle aus halte ich jetzt nicht für ne absolute Sternstunde für so nen ASIC, auch wenn die restliche System Last gering ist.

nordic_pegasus
2022-01-05, 12:49:23
59x0X3D CPUs kommen evtl. immer noch. Das würde ich so noch nicht ausschliessen. Ein 5800X3D macht aus marktpolitischen Gründen momentan aber mehr Sinn.

der Grund, warum ich bei Zen2 und Zen3 jeweils zum 16-Kerner gegriffen hatte, ist das beste Binning bei den verbauten Chiplets. Ein 5950x hat mit 2 vollständigen Chiplets die gleiche TDP wie der 5800x bei nur einem Chiplet und dennoch hat der 5950x nominal den höchsten Boost mit 4.9 GHz. Dank guter Wakü boostet meiner auch verlässlich auf maximal 5.05 GHz.

Wenn jetzt AMD den 5800X3D wirklich als besten Gaming-Prozessor für AM4 launcht und aufgrund des Stromverbrauchs des Cache den Boost-Takt senken auf 4.5 GHz muss, wäre das in Ordnung. Wenn da aber noch ein 5950X3D nachgeschoben wird UND dieser auch noch einen höhere Boost erhält aufgrund mutmaßlich besser gebinnter Chiplets, dann käme ich mir veräppelt vor.

Es wird ja wohl noch einen weiteren Event mit der konkreten Ankündigung von Preis und VÖ-Datum geben. Wenn dann direkt ein 12/16-Kerner nachgeschoben wird, dann topp. Ansonsten käme ich mir als potentieller 5800X3D Kunde veräppelt vor, wenn kurz danach doch noch ein 5950X3D käme.

Insgesamt erscheint mir Zen 3D aufgrund der kurzen Lebensdauer und minimalen Produktpalette als AMDs Neuinterpretation des i7-5775c.

davidzo
2022-01-05, 12:55:34
Tut es nicht...
AV1 gibt es aktuell max. auf TVs...und in den Android Apps per SW Decoder!
(und afair aktuell generell auch nur für SDR)

https://netflixtechblog.com/bringing-av1-streaming-to-netflix-members-tvs-b7fc88e42320?gi=8ed189a6a7fa

https://netflixtechblog.com/netflix-now-streaming-av1-on-android-d5264a515202



Das ist für den Benchmarkcase relativ egal ob es breit verfügbar ist. Es reicht wenn man das im Labor nachstellen kann, die Treiber die man da verwendet hat sind ja auch noch nicht released. Hinter der Kulisse testen sicherlich seit Monaten schon AMD Ingenieure und Netflix Developer. Irgendwie wird der 4K AV1 support für die PS5 ja auch zustande gekommen sein.
Dass AMD Features ankündigt die noch nicht in freier Wildbahn funktionieren hat bei VCN sogar eher Tradition. Man erinnere sich an UVD1.0, das präsentiert wurde und sogar auf den Verpackungen aufgedruckt, letztendlich aber in R600 kaputt war und erst mit RV610 und so weiter funktionsfähig gemacht wurde. Oder Vegas immer noch deaktivierter / nicht funktionsfähiger Draw stream binning rasterizer den man bei der Vorstellung der Karten in 10 Spieletiteln gezeigt hat und dort angeblich bis zu zweistellige performancezuwächse erziehlte.
Netflix mit AV1 zu zeigen obwohl das noch nicht für PC releast wurde wäre da absolut nichts besonderes. Das ist ungefähr so als wenn man Netflix mit deaktiviertem Wifi zeigt und stattdessen ein ähnlich codiertes Video abspielt. - Ach das hat man ja wirklich gemacht :freak:;D


Aber wie ich weiter vorne schon geschrieben habe, kann es sein das der VCN2.0 einfach nicht der effizienteste ist.
6W APU STAPM für 4K/60 von den 2,5-3W Idle aus halte ich jetzt nicht für ne absolute Sternstunde für so nen ASIC, auch wenn die restliche System Last gering ist.
Da hast du wohl recht. Nicht nur Hardwarecodecs, sondern auch die Qualität dieser sind entscheidend. Leider gibt es kaum vernünftige Analysen dazu von professionellen Testseiten, abseits von Userberichten und hörensagen. Der PCwelt Test des Tigerlake AV1 codecs besteht genau aus 4 screenshots vom Taskmanager, das taugt vielleicht als teaser, ist aber nicht das was ich unter Test verstehe.

Berniyh
2022-01-05, 13:30:43
Wenn da aber noch ein 5950X3D nachgeschoben wird UND dieser auch noch einen höhere Boost erhält aufgrund mutmaßlich besser gebinnter Chiplets, dann käme ich mir veräppelt vor.
Wieso, hast du eine Garantie mitbekommen, dass du die am besten gebinnte Zen3 CPU ever erhalten hast?

Abgesehen davon ist es schon etwas absurd einen 16 Kerner nur deshalb zu kaufen, obwohl man keine 16 Kerne braucht.

Savay
2022-01-05, 13:52:59
Das ist ungefähr so als wenn man Netflix mit deaktiviertem Wifi zeigt und stattdessen ein ähnlich codiertes Video abspielt. - Ach das hat man ja wirklich gemacht :freak:;D

Netflix ohne WLAN funktioniert schon länger...auch mit der Windows App. :wink:

Hat zumindest den Vorteil, dass man so bei nem Vergleich erstmal den 3rd Party PCIe Adapter aus der Rechnung draußen hat.
Ist fürs SoC ja grundsätzlich egal...zudem gibt es sonst baugleiche Geräte oft mit anderen Adaptern.

Ist ja nicht so wie bei den Handheld SoCs wo die Connectivity entweder Teil des SoC ist oder das Modem als Bundle ausgeliefert wird.

nordic_pegasus
2022-01-05, 13:58:31
Wieso, hast du eine Garantie mitbekommen, dass du die am besten gebinnte Zen3 CPU ever erhalten hast?


der 5950x hat unter den Zen3 Desktop CPUs den höchsten offiziellen Boost von 4,9GHz. Damit hat man eine Garantie, dass man die besten Chiplets erhält.

Der 5800x boostet laut Computerbase Review auf maximal 4.85 GHz, der 5950x auf 5.05 GHz. Und das bei gleicher TDP von 105 Watt. Darum erhält man mit dem 5950x den höchsten Single-Core Boost und die beste Multi-Core Leistung.

Darum ist nach meinem Verständnis das Binning für den 5950x besser als für den 5800x.

Abgesehen davon ist es schon etwas absurd einen 16 Kerner nur deshalb zu kaufen, obwohl man keine 16 Kerne braucht.


aus dem gleichen Grund gab es den 9900KS, den 8086K und bei jeder GPU Generation die OC-Modelle. Oder die 6900 XTXH. Warum kaufen Leute den DDR4-3600 CL14 statt CL16? Die zusätzliche Leistung rechtfertigt nie den Aufpreis.

Bei Zen2 hatte AMD noch die "XT" Modelle nachgeschoben. Der 3800XT hat den gleichen Boost wie der 3950X.

maximus_hertus
2022-01-05, 14:00:44
5800X3D für die Gaming Krone (Hero Produkt) => Intel bringt den 12900 Panic Edition => man wartet die entsprechenden Benches ab und reagiert dann:

A) KS und X3D sind ziemlich exakt gleich auf (je nach Parcours mal der eine, mal der andere in Front). Zen 4 kommt schon in Richtung September / Early Oktober.
=> wohl keine weiteren X3D AM4 CPUs

A2) Siehe A, aber Zen 4 kommt erst eher später in Q4.
=> möglicherweise doch größere X3Ds, da 8+ Monate bzw. 6+ ab Ostern doch eine lange Zeit sind.

B) KS liegt vorne, wenn auch nur knapp.
=> falls AMD die Krone will, bringt man weitere X3D CPUs (12 / 16 Kerner), um das Halo Produkt zu haben. Intel wird wohl nicht wieder Kontern können.
Oder man teasert schon sehr früh Zen 4 Werte. Wobei das gar nicht zu AMD passt.

C) X3D bleibt vorne, wenn auch nur minimal
=> keine weiteren X3D CPUs nötig


Warten wir mal die Banchmarks ab. Das wird aber wohl noch einige Monate dauern, leider :/

Zergra
2022-01-05, 14:28:17
Der 3D sieht doch eher nach einer kleinen Überbrückung aus, da AMD derzeit nichts neues hat.
Gleichzeitig können sie den 3D Cache in der Masse besser testen. Ähnlich wie die XT Versionen von Zen2.
Am Ende deutlich teurer. Der 5800X3D dürfte nachher bei deutlich über 400€ liegen, geringe Stückzahl und alles dafür damit man im Gespräch bleibt und gleichzeitig eine neue Technik testen kann.

Andere Versionen halte ich für unwahrscheinlich, da dann ZEN 4 ansteht. Man wird nicht sein ganzes Pulver jetzt verschießen.

nordic_pegasus
2022-01-05, 14:29:36
B) KS liegt vorne, wenn auch nur knapp.
=> falls AMD die Krone will, bringt man weitere X3D CPUs (12 / 16 Kerner), um das Halo Produkt zu haben. Intel wird wohl nicht wieder Kontern können.
Oder man teasert schon sehr früh Zen 4 Werte. Wobei das gar nicht zu AMD passt.


der Einwand von Berniyh ist natürlich berechtigt. Was bringt ein 12/16 Kerner in Spielen an Mehrleistung ggü. 8 Kernen?

Wenn AMD einen 12900KS kontern will, bringt ein 5900/5950 X3D nur etwas, wenn dieser auch mehr Takt bekommt. Warum dann nicht direkt einen 5800X3D mit 5 GHz Boost und 200 Watt TDP bringen?

Warum bleibt AMD eigentlich so dogmatisch am 105 Watt Limit kleben bei AM4? Bei Intel sind doch längst alle Dämme gebrochen, bei GPUs ganz zu schweigen. Eine AM4 Farewell Edition würde doch den Ruf nicht kaputt machen.

Berniyh
2022-01-05, 14:52:15
Warum bleibt AMD eigentlich so dogmatisch am 105 Watt Limit kleben bei AM4?
Weil's auch so geht und ohnehin fast nix bringt. Bei Zen geht ja ziemlich schnell die Effizienz durch die Decke.
Die CPUs sind schon verdammt gut so wie man sie ausliefert.
Wie sagt man so schön? Ein gutes Pferd springt nur so hoch wie es muss. ;)

Intel hat das ja auch letztendlich nur deshalb gemacht, weil sie sonst hoffnungslos abgehängt worden wären, aber indem man die Effizienz über Bord wirft konnte man dran bleiben.
So wie AMD früher (bzw. so halbwegs, da war ja Performance-mäßig auch mit der Brechstange nicht viel zu holen).

RitterRost
2022-01-05, 14:59:35
Ian von Anandtech hat wohl AMD ein paar Fragen gestellt und seine Interpretation der Antworten hier geschrieben.
https://www.anandtech.com/show/17152/amd-cpus-in-2022-ces

Er geht tatsächlich von 500us$ aus und davon, dass es keine multi-Chiplet Varianten geben wird.
Vielleicht ist das Chip-Stacking ja doch zu aufwändig/teuer für den Consumer Markt.
Naja, wenn die CPU eh nicht lieferbar sein wird, können sie auch jeden Preis dranschreiben. Allerdings wird Intel das hoffentlich medienwirksam ausschlachten.
(Ich hoffe jedenfalls noch auf eine 3DCache CPU für mich zum Upgraden. Allerdings hatte ich auch auf einen höheren Takt gehofft).

mboeller
2022-01-05, 15:01:45
Das mit den 15 vs 28W ist natürlich mies.

Das verschiebt mein positives Bild von Rembrandt doch arg.

bei MT und dem Rest hat du recht, bei ST sollte es aber keine Rolle spielen weil 1 ZEN3-Core nie 15w oder gar mehr verbraucht.

mboeller
2022-01-05, 15:09:04
Schau dir TPU Tests an:
https://www.techpowerup.com/review/amd-ryzen-7-5800x/21.html
https://www.techpowerup.com/review/amd-ryzen-9-5950x/21.html

Danke!

Dann war der ZEN4 bei der Demo also geschätzt ca. 500-600MHz schneller. Das sind in etwa die 15% die der Fortschritt zw. 7nm und 5nm bringt und (um die Kurve in diesem Thread zu kriegen) entspricht auch dem was der 3D-Cache im Schnitt bringt.

Der_Korken
2022-01-05, 15:26:29
Ob echte Zen-4-Modelle später mit durchgehend 5Ghz laufen, muss man erstmal sehen. Bei der ersten Zen-2-Teasern wurde damals afaik auch gesagt die gezeigten Resultate sind mit 4,6Ghz Takt entstanden. Tatsächlich war das dann aber der Takt, den die kaufbaren Modelle mit Ach und Krach bei ST-Lasten erreicht haben. Bei gemischter Last lagen die real eher bei 4,2Ghz.

Linmoum
2022-01-05, 15:44:44
Ich glaube nicht, dass jemals bei Zen2 behauptet wurde, dass man für irgendwas 4.6GHz auf ALLEN Kernen verwandt hat. ;) So eine CPU wird AMD selbst wahrscheinlich nicht gefunden haben.

Das war ja dann erst mit Zen3 möglich und da ohne Probleme.

basix
2022-01-05, 16:27:54
Danke!

Dann war der ZEN4 bei der Demo also geschätzt ca. 500-600MHz schneller. Das sind in etwa die 15% die der Fortschritt zw. 7nm und 5nm bringt und (um die Kurve in diesem Thread zu kriegen) entspricht auch dem was der 3D-Cache im Schnitt bringt.

Zu Spielen gibt es noch ein paar Daten von CB:
https://www.computerbase.de/2020-11/amd-ryzen-5000-test/3/#abschnitt_taktzuwachs_im_testparcours

Da takten die CPUs etwas näher am max. Boost, so 4.6-4.8 GHz.

Im besten Fall sehen wir +500...600 MHz. Könnten aber auch nur +300 MHz sein und der Teaser war mit einem 8C Modell, welches mehr TDP Headroom für das einzelne Chiplet hat. Halo Infinite skaliert zumindest bis 8C ;)

Zen 4 wird aber ohne Frage schneller als ein 5800X3D sein. Da kommt noch einiges an IPC obendrauf und 7x00X3D gibt es evtl. von Anfang an.

Unicous
2022-01-05, 16:48:52
Die 15W Folie wurde immer noch nicht verlinkt oder?:freak:
(Also außer dem AT deeplink)

https://i.imgur.com/pegVes6.jpeg
https://media.discordapp.net/attachments/697380330864115792/928184094565732382/unknown-91.png

Zossel
2022-01-05, 19:13:47
Um Himmels willen:

Security Made by Pluton

Als Hardware-Vertrauensanker mit Microsoft-Signatur baut AMD den "Pluton"-Controller von Microsoft in die Ryzen-6000-Chips ein und schafft eine "Root of Trust"-Infrastruktur gegen Manipulationen.

Pluton-Funktionen soll vor allem die Firmware (das UEFI-BIOS) künftiger PCs und Notebooks besser gegen Manipulationen und Angriffe absichern. Später sollen Windows-PCs und -Notebooks mit Pluton auch Passwörter und persönliche Nutzerdaten schützen – nicht nur gegen Malware-Angriffe aus dem Netz, sondern auch, wenn ein Hacker Zugriff auf den physischen PC hat. Außerdem geht es um "Chip-to-Cloud Security", also um die Absicherung des Zugriffs auf Dienste in der Microsoft-Cloud Azure.


https://www.heise.de/news/AMD-Ryzen-6000U-H-und-Radeon-RX-6000S-fuer-schlanke-Gaming-Notebooks-6317813.html

mboeller
2022-01-05, 20:25:02
Um Himmels willen:


yep :(

gerade Microsoft würde ich meine Sicherheit nicht anvertrauen. Ich hoffe man kann das deaktivieren bzw. es ist nur bei den PRO Modellen aktiviert.

SimonGreen
2022-01-05, 21:15:37
Mit welcher älteren Desktop GPU würdet ihr die Leistung der Radeon 680m (Rembrandt 6800u iGPU) vergleichen?

basix
2022-01-05, 21:21:42
GTX 1050 (Ti)?

Edit:
Nach etwas Recherche, GTX 1050 sollte in etwa stimmen für 15W Konfig und GTX 1050 Ti für die 25W Variante. Ist ähnlich schnell wie eine GTX 1650 Mobile mit 40-50W.

Savay
2022-01-05, 21:35:43
Ne 1050 erreicht schon ne Vega8.

basix
2022-01-05, 21:38:54
Das musst du mir mal zeigen. Und bitte keinen 3DMark.

Vega 8 erreicht rein auf theoretischer Basis nie und nimmer eine 1050:
- GTX 1050: 640 Shader * 1.7 GHz = 2.2 TFlops
- Vega 8 = 512 Shader * 2.0 Ghz = 2.0 TFlops
- Pascal IPC = 1.1x Vega IPC
- Kein Bandbreiten Limit bei Pascal
- Die 2.0 GHz von Vega 8 erreicht ein 5800U niemals durchgängig bei 15-25W

Edit: OK, bei 25W ist man nahe dran an 2.0 GHz, zumindest in 720p :D

Berniyh
2022-01-05, 21:42:53
gerade Microsoft würde ich meine Sicherheit nicht anvertrauen.
Naja, da ja (in diesem Forum und anderswo) vermutlich 99% auf ein Betriebssystem von Microsoft setzen fällt das auch nicht mehr ins Gewicht.

Und wenn man ein vernünftiges Betriebssystem nutzt, dann wird es ja eh nicht angesprochen. ;)

Bin aber ehrlich gesagt schon gespannt, wann es die ersten Exploits gibt, die sich genau da einnisten. Vermute mal so im Mai oder Juni.

VooDoo7mx
2022-01-05, 21:53:03
Ne 1050 erreicht schon ne Vega8.

Nein, nicht mal im Ansatz.
Wie kommt man auf so einen Schwachsinn?

Ich hab nen 5800H Notebook und da ist die Vega 8 in etwa halb so schnell wie Apple M1 im 3D Mark Wildlife, dieser wiederum erreicht fast das Niveau einer mobilen 1050 Ti.

Guten Speicher voraus gesetzt, ist wohl eine mobile 1050/Ti für die volle iGPU erreichbar, was schon ziemlich gut ist.

Savay
2022-01-05, 21:54:34
Das musst du mir mal zeigen. Und bitte keinen 3DMark.

Edit: OK, bei 25W ist man nahe dran an 2.0 GHz, zumindest in 720p :D

Was hat die Auflösung damit zu tun?!
Mit ner cTDP von 25W wird die GPU meist ausgefahren...allerdings auf Kosten der CPU...

Die 1050 hat nen Boosttakt von 1,4-1,5GHz...nicht 1,7.
Ne Vega8 liegt bei bis zu 2,1GHz.

Rohleistung ist die Vega rechnerisch eher leicht vorne...die 1050 rettet als dGPU meist nur der VRAM.
In GPGPU kommt das entsprechend auch an...Games ist give or take.
Die Größenordnung ist jedenfalls sehr ähnlich.

Ne 680m wird da wohl doch eher schneller...wenn die Prognosen und AMD tests stimmen.

Irgendwo zwischen 1050Ti und 1650 würde ich ganz grob orakeln.

Zumal AMD selbst die MX450 mitgebencht hat und die ebenfalls grob bei ner 1050 liegt.

basix
2022-01-05, 22:32:45
Du weisst schon, dass es um eine Desktop Karte ging? Mobile 1050, ok. Aber niemals die Desktop 1050er. Die läuft mit 60W. Die MX450 mit 25W.

Und was Auflösung mit Takt zu tun hat: Die GPU wird stärker ausgelastet und der Takt sinkt. Ist bei allen GPUs so.
Und eine Vega 8 liegt bei den U-SKUs wie dem 5800U (darum gings) bei max. 2.0 GHz.

horn 12
2022-01-06, 02:20:03
Es ist in der Tat natürlich ärgerlich, wenn du von einem 12 Kerner auf einen 8 Kerner wechselst, da stimme ich dir zu. ^^
Bei mir wäre das von einem 5600x auf ein 5800x ein Big Win, in jeder Kategorie.

Exakt wie bei mir wäre dann Unser Unterfangen
Zumal ich meinen 5600X gerade mal 312 Euro zu Release bezahlte, denke ich das AMD über den Preis von 479 bis 529 Dollar/ Euro kommen wird um zwischen 12700 und 12900 reinzupreschen und doch schneller/ oder zumindest gleichauf mit dem i12900 zu sein.

MR2
2022-01-06, 12:05:29
Ryzen And Radeon CES 2022 Deep Dive With AMD Gaming Chief Frank Azor!
HotHardware

Why Ryzen 7 5800X3D Is The Only V-Cache Option
https://www.youtube.com/watch?v=QvmpMSsYbSg

OgrEGT
2022-01-06, 18:30:29
Ryzen And Radeon CES 2022 Deep Dive With AMD Gaming Chief Frank Azor!
HotHardware

Why Ryzen 7 5800X3D Is The Only V-Cache Option
https://www.youtube.com/watch?v=QvmpMSsYbSg

So wie ich verstanden habe... profitieren hauptsächlich Gaming Workloads von 3D$... und da die meisten Games (derzeit) nicht über 8 Cores skalieren ist der 5800 der ideale Gaming Prozessor welcher zum Start mit dieser zugegeben teuren Innovation startet und in der Kombination als 5800X3D am meisten für Gaming bringt... Man will erst mal sehen wie das im Markt ankommt... was dafür sprechen könnte dass auch weitere SKUs mit 3D$ kommen könnten... ob die Zeit für weitere Zen3 SKUs reicht bis Zen4 aufschlägt... who knows... 5800X3D für mich das ideale Upgrade :D

Neosix
2022-01-06, 18:54:50
Nur die etwas niedrigeren Ghz zahlen stören etwas, ich habe den noctua nh-d15 Kühler, TDP ist ansich kein Problem. Werd ich damit den 58003D auf die non X Werte übertakten können/vielleicht sogart drüber hinnaus?

robbitop
2022-01-06, 19:23:09
Ich hoffe, dass es gleich zum Start Zen 4 mit VCache gibt. Würde zumindest dem Ruf und den Review Ergebnissen helfen. :)

aufkrawall
2022-01-06, 19:26:01
Tja, die werden natürlich nur so hoch springen, wie sie müssen. Zen 4 können sie sich sowieso für Server komplett vergolden lassen.

Linmoum
2022-01-06, 19:31:31
Ohne VCache ist der Abstand zum 5800X3D geringer, was wiederum bei neuer Plattform mehr Leute davon abhalten würde, aufzurüsten. Die Frage ist IMO nicht ob, sondern nur mit welchen SKUs.

aufkrawall
2022-01-06, 19:35:27
Ohne VCache ist der Abstand zum 5800X3D geringer, was wiederum bei neuer Plattform mehr Leute davon abhalten würde, aufzurüsten.
Dafür wird der 5800X3D wohl teuer genug sein und hat ja nur 8C.

basix
2022-01-06, 19:57:40
Nur die etwas niedrigeren Ghz zahlen stören etwas, ich habe den noctua nh-d15 Kühler, TDP ist ansich kein Problem. Werd ich damit den 58003D auf die non X Werte übertakten können/vielleicht sogart drüber hinnaus?

Übertakten geht wie gehabt.

Ich hoffe, dass es gleich zum Start Zen 4 mit VCache gibt. Würde zumindest dem Ruf und den Review Ergebnissen helfen. :)

Hier gibt es zwei Szenarien:
- Entweder V-Cache kommt erst als Refresh, so 9-12 Monate nach dem initialen Zen 4 Release
- Oder es könnten Anfangs zwei selektive CPUs mit V-Cache kommen: 7800X3D als 8C Gaming Bolide und 7950X3D als absolutes Highend-Gerät. Später allenfalls auch weitere CPUs

Das hängt von zwei Dingen ab:
- Ob der 5800X3D gut läuft (und das wird er, wenn er nicht zu teuer ist)
- Und wie Raptor Lake sowie Meteor Lake im Gaming abschneiden. V-Cache sozusagen als Konter

][immy
2022-01-06, 20:35:07
Ich hoffe, dass es gleich zum Start Zen 4 mit VCache gibt. Würde zumindest dem Ruf und den Review Ergebnissen helfen. :)
Ein großer Cache dürfte definitiv helfen die Nachteile von DDR5 zu egalisieren, so das man durch DDR5 nur noch Vorteile gegenüber DDR4 hat.
Ich sehe hier aber auch noch eine Modellvielfalt. Man kann im highend Bereich mit vcache Punkten und darunter ohne oder mit reduzierten vcache weitere Modelle anbieten so das man den Markt quasi lückenlos bedienen kann.

DavChrFen
2022-01-06, 23:13:41
Die wollen ja auf dem Teil des Chiplets, auf dem der die Cache-Chiplets nicht sitzen, was zum Höhenausgleich drauftun. Gibt es da schon Infos? Wird das verlötet oder wie befestigt?

Nur 8C ist aber doof, wenn das präferierte Spiel mehr als 8C frisst. Dann ist man mit dem Prozi ja langsammer.

Neosix
2022-01-07, 01:26:55
Übertakten geht wie gehabt.

Vielleicht sind die 4,5Ghz nicht TDP sondern 3D-Cache Limitiert und der Cache selber einfach nicht höher kommt.

OgrEGT
2022-01-07, 09:08:12
Die wollen ja auf dem Teil des Chiplets, auf dem der die Cache-Chiplets nicht sitzen, was zum Höhenausgleich drauftun. Gibt es da schon Infos? Wird das verlötet oder wie befestigt?

Die Verbindung erfolgt angeblich durch Adhäsion also einer Direktverbindung der Kupferbumps des Cache Chiplets mit den freigelegten TSVs des CPU Dies...
Dasselbe würde ich auch für das dünne Silizium Ausgleichs Pad vermuten... nur dass es da eben keine Kupferdirektverbindungen gibt...

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56858-tsv-abstand-extrem-gering-details-zu-amds-3d-v-cache.html

Gipsel
2022-01-07, 12:25:59
Wird ein "Tieftemperatur"-Direktbonding (https://en.wikipedia.org/wiki/Direct_bonding)-Prozeß sein. Im Deutschen nennt man das manchmal auch "Ansprengen (https://de.wikipedia.org/wiki/Ansprengen)".

BavarianRealist
2022-01-07, 13:26:12
Für mich sieht es ganz danach aus, dass AMD aktuell kein großes Interesse zu haben scheint, Ryzen-CPUs in großer Zahl zu verkaufen: vermutlich braucht man alle Zen3-Chiplets (mit und ohne 3D-Cache) und womöglich auch alle 12nm-GF-Kapazitäten für Server.

AMD hat nur die 5600G/5700G deutlich im Preis gesenkt: ein 8-Corer 5700G ist nun auf dem Preisniveau eines 5600X. Die 5xxxG haben 180mm² Diesize in 7nm statt 80mm² für ein Zen3-Chiplet, brauchen aber kein 12nm-IO-Chiplet. AMD wird vermutlich bei den Desktop-Ryzen keine Preise senken, sondern den Verkauf einschlafen lassen, was man sich locker leisten kann, wenn Zen4 ein großer Wurf wird.

Gleichzeitig hat AMD Rembrandt ausschließlich als Premium-APU gelauncht, was man auch damit unterstreicht, dass nur teures LPDDR5-Ram (DDR5 ist noch teuerer und Unsinn für Notebooks) verwendet werden kann, sodass eine hohe Bandbreite und niedrige Energieaufnahme für das Ram erzwungen wird. Selbst die beiden "lowend"-Barcelos sind recht hoch angesiedelt.

X-Bow
2022-01-07, 14:34:08
Vielleicht sind die 4,5Ghz nicht TDP sondern 3D-Cache Limitiert und der Cache selber einfach nicht höher kommt.

Vermutlich wird es schon am TDP-Limit liegen. Vergleich mal die Specs von Milan mit denen vom Milan-X leak, da hast das gleiche Bild. Bei gleicher TDP sinkt der Takt, bei gleichem Takt steigt die TDP.
https://www.computerbase.de/2021-11/amd-milan-x-neue-epyc-cpus-mit-768-mb-l3-cache-fuer-16-bis-64-kerne/

Langlay
2022-01-07, 14:42:20
Vermutlich wird es schon am TDP-Limit liegen. Vergleich mal die Specs von Milan mit denen vom Milan-X leak, da hast das gleiche Bild. Bei gleicher TDP sinkt der Takt, bei gleichem Takt steigt die TDP.
https://www.computerbase.de/2021-11/amd-milan-x-neue-epyc-cpus-mit-768-mb-l3-cache-fuer-16-bis-64-kerne/

Wobei der 5800X jetzt nicht wirklich TDP limitiert ist ist. Bei 142W auf einem Chiplet musste das auch erstmal wegkühlen. Mit Customwakü hab ich 80-85°C unter Volllast. Wenn da jetzt noch der Wärmefluss durch den Vcache unterbrochen wird, wird das sicherlich nicht besser.

robbitop
2022-01-07, 14:48:04
Ggf. auch der höhere thermische Widerstand durch die Ausgleichsmasse um den VCache herum (der VCachse selbst sitzt ja nur auf dem relativ kalten L3). Roman Hartung hat ja mal gezeigt, was es bringt wenn man ein paar 10 um abschleift an Temperatur. Und hier tut man ja noch was drauf.

Mal sehen wie gut er sich übertakten lassen wird.

X-Bow
2022-01-07, 15:06:57
Die Ausgleichsmasse ersetzt doch nur die Masse welche vorher entfernt wurde. Die Höhe ist doch laut AMD mit oder ohne VCache genau gleich.

nordic_pegasus
2022-01-07, 16:47:24
Die Ausgleichsmasse ersetzt doch nur die Masse welche vorher entfernt wurde. Die Höhe ist doch laut AMD mit oder ohne VCache genau gleich.

aber ohne 3D Cache hat man eine monolitische Schicht als Wärmeübergang. Mit 3D Cache hat man den eigentlichen 2D Die und darüber 2 unterschiedliche Schichten (Cache bzw. Ausgleichsmasse). Alleine der zusätzliche Wärmeübergang wird die Wärme mehr im 2D Die halten, dazu ggfs. noch die schlechtere Wärmeleitfähigkeit. Besser kann die Temperatur auf keinen Fall werden.

Zossel
2022-01-07, 16:51:45
aber ohne 3D Cache hat man eine monolitische Schicht als Wärmeübergang. Mit 3D Cache hat man den eigentlichen 2D Die und darüber 2 unterschiedliche Schichten (Cache bzw. Ausgleichsmasse). Alleine der zusätzliche Wärmeübergang wird die Wärme mehr im 2D Die halten, dazu ggfs. noch die schlechtere Wärmeleitfähigkeit. Besser kann die Temperatur auf keinen Fall werden.

Ist kälter besser als schneller?

ChaosTM
2022-01-07, 17:00:16
Ich befürchte, dass der 58003D nur in sehr kleinen Stückzahlen verfügbar und recht teuer sein könnte und eigentlich nur dazu dient, die theoretische Gaming Krone wieder zu AMD zurückzuholen. Ob das für Intels 5,5Ghz AL Ankündigung reicht ist wieder ein anderes Kapitel.

Hoffentlich täusche ich mich, und wir sehen auch noch irgendwann einen 5950HD - den würde ich eventuell noch mitnehmen als letzten AM4 Chip.

TwoBeers
2022-01-07, 17:31:06
Wird wirklich interessant, ob die 4.5GHz ein TDP Limit sind?
Dann müsste man ja eigentlich nur PBO aktivieren oder die Limits manuell aushebeln (ist das nicht bei den meisten Retail Boards eh so?) und er müsste zumindest die 4.7-4.85GHz vom alten 5800X erreichen.

Wenn's thermisch ist, dann ist natürlich Schicht im Schacht.

nordic_pegasus
2022-01-07, 18:01:12
Ist kälter besser als schneller?

wenn man dadurch im Thermal Throttling landet und der Takt darum komplett abstürzt, dann ist kälter (ohne 3D Cache) besser als ein theoretisch schnellerer 3D Cache Chip mit aktiver Schutzschaltung ;-)

War das nicht bei Intel und der Zahnpaste unter dem IHS statt Lot nicht auch mal ein Problem, zumindest beim Übertakten.

Thunder99
2022-01-07, 23:39:29
Ich befürchte, dass der 58003D nur in sehr kleinen Stückzahlen verfügbar und recht teuer sein könnte und eigentlich nur dazu dient, die theoretische Gaming Krone wieder zu AMD zurückzuholen. Ob das für Intels 5,5Ghz AL Ankündigung reicht ist wieder ein anderes Kapitel.

Hoffentlich täusche ich mich, und wir sehen auch noch irgendwann einen 5950HD - den würde ich eventuell noch mitnehmen als letzten AM4 Chip.
Der 12900KS kann man nicht einzeln kaufen, da OEM, der 5800X3D schon, sofern verfügbar.

aceCrasher
2022-01-10, 09:54:58
wenn man dadurch im Thermal Throttling landet und der Takt darum komplett abstürzt, dann ist kälter (ohne 3D Cache) besser als ein theoretisch schnellerer 3D Cache Chip mit aktiver Schutzschaltung ;-)

War das nicht bei Intel und der Zahnpaste unter dem IHS statt Lot nicht auch mal ein Problem, zumindest beim Übertakten.

Ich liebe meinen Zahnpasta 7820X - macht das Köpfen deutlich einfacher als ei verlöteten CPUs :biggrin:

DozerDave
2022-01-10, 10:15:55
Der 5800x3D taktet doch niedriger als der 5800x?
Gibt es dafür einen Grund oder war es nur Ziel von AMD den 12900k knapp zu schlagen und zusätzlich die Option auf eine CPU zu haben,die so schnell taktet wie der 5800x?

y33H@
2022-01-10, 10:19:46
Vermutlich den Temperaturen geschuldet.

w0mbat
2022-01-10, 10:23:58
Der Grund ist eine Kombination aus Verbrauch und Abwärme.

Der extra L3 cache verbraucht Strom und AMD will den Verbrauch genau gleich wie bei 5800X halten. Zudem war der 5800X eh schon der wärmste der Zen3 CPUs, da 105W TDP bei nur einem chiplet. Der 3D V-Cache ist da eher kontraproduktiv, der etwas geringere Takt hilft auch hier die Abwärme zu regulieren.

dargo
2022-01-10, 11:20:16
[Klugscheißmodus On]
Nicht der geringere Takt sondern die daraus resultierend geringere Spannung hält die Abwärme/Verlustleistung dann in Schacht. Reine Taktänderung bei ansonsten gleicher Spannung verändert kaum was.

[Klugscheißmodus Off]

PS: die 105W TDP Angaben beim 5800X sind auch nichts weiter als ne Luftnummer. Das Ding säuft bis zu 142W wenn er vorher thermisch nicht ausgebremst wird. Finde es sehr schade sollte der 5800x3D genauso ein Säufer werden.

basix
2022-01-10, 11:53:38
Der zusätzliche Cache kann schon +10...20W verbrauchen. Ist gut möglich. Und bein den single Chiplet Ryzens ist die Stromdichte neben den thermischen Aspekten ein zusätzliches Limit.

Was mich eher wundert ist der resultierende niedrigere ST-Takt. Ich hätte einfach bei MT einen steileren drop-off zu tieferen Frequenzen erwartet und ST-Takt wäre identisch geblieben. Ist anscheinend nicht der Fall. Deswegen tendiere ich bei X3D auf thermische Limitierungen aufgrund Hot Spots.

w0mbat
2022-01-10, 12:01:13
Wenn der 5800X3D im Januar/Februar gekommen wäre, hätte ich ihn mir wohl geholt. Aber April/Mai ist dann schon fast zu nahe an Zen4, will nicht 2x im Jahr die CPU aufrüsten.

dargo
2022-01-10, 12:06:17
Bei Zen4 bleibt es nicht nur bei einem CPU-Tausch, mehr Aufwand und Kosten.

w0mbat
2022-01-10, 12:07:48
Klar, aber ist halt auch geiler :D

dargo
2022-01-10, 12:08:48
Oh ja... auf die ganzen Bugs einer neuen Plattform muss man ja besonders geil sein. :freak:


Was mich eher wundert ist der resultierende niedrigere ST-Takt. Ich hätte einfach bei MT einen steileren drop-off zu tieferen Frequenzen erwartet und ST-Takt wäre identisch geblieben. Ist anscheinend nicht der Fall. Deswegen tendiere ich bei X3D auf thermische Limitierungen aufgrund Hot Spots.
Entweder das oder der Cache kann einfach nicht höher takten. Wenn das Ziel dann ein 1:1 Takt ist bleibt einem nichts anderes übrig.

w0mbat
2022-01-10, 12:13:32
Wie sonst solltest du merken, dass du ein geiler early adopter bist?

HOT
2022-01-10, 12:22:39
Immerhin ist DDR5 dann schon ein 3/4 Jahr auf dem Markt ;).

dildo4u
2022-01-10, 12:24:49
AMD hat doch deutlich mher Ressourcen als beim übergang von AM3 zu 4, das sollte klappen Erfahrung mit DDR5 haben sie durch Ryzen 6000.

dargo
2022-01-10, 12:25:11
Wie sonst solltest du merken, dass du ein geiler early adopter bist?
Versuchskaninchen Beta-Tester spielen wird neuerdings als geil definiert? Na gut, wenn man sonst keine Hobbys hat. :tongue: Wenn die Hersteller einen dafür wenigstens entlohnen würden würde ich es noch verstehen. Aber als danke schön darfst du dann auch noch Early Adopter Preise zahlen. ;D

Immerhin ist DDR5 dann schon ein 3/4 Jahr auf dem Markt ;).
AMD hat doch deutlich mher Ressourcen als beim übergang von AM3 zu 4, das sollte klappen Erfahrung mit DDR5 haben sie durch Ryzen 6000.
Ihr seid alle nur Träumer oder Realitätsverweigerer.

Wie lange hatte AMD Erfahrung mit DDR4 und wie lange haben die Biose bei Zen3 gebraucht bis alles einwandfrei lief? Als ob diverse Plattform-Probleme nur mit dem Speicher zusammen hängen würden. :rolleyes:

HOT
2022-01-10, 12:39:44
Das ist ja total vergleichbar ;D.
Nach Carrizo war das halt ein kompletter Neustart in allen Ausprägungen. Jetzt steht ja alles soweit und man baut halt "nur" DDR5-Support ein.

dargo
2022-01-10, 12:45:52
Ja nee, ist klar. Wir sprechen uns nochmal nach Release von Zen4. :ulol:

davidzo
2022-01-10, 13:09:37
Der Grund ist eine Kombination aus Verbrauch und Abwärme.

Der extra L3 cache verbraucht Strom und AMD will den Verbrauch genau gleich wie bei 5800X halten. Zudem war der 5800X eh schon der wärmste der Zen3 CPUs, da 105W TDP bei nur einem chiplet. Der 3D V-Cache ist da eher kontraproduktiv, der etwas geringere Takt hilft auch hier die Abwärme zu regulieren.

Nicht wirklich, Cache verbraucht kaum etwas. Der absolute Verbrauchsanstieg ist es nicht. 142W sind gar nichts für eine Enthusiast CPU die höchstwahrscheinlich mit einer AIO oder einem ND-D15 gekühlt wird.
Der 12900F stinkt auch gewaltig wenn man den mit dem Boxedkühler betreibt, aber niemanden kratzt es, weil keiner außer böse OEM Kistenschieber so etwas versuchen würden. Keiner würde sich kümmern wenn AMD die TDP reißt bei einem enthusiast gaming prozessor, denn Intel macht das mittlerweile seit 3 Generationen.

Nee, die abzuführende TDP ist nicht das Problem. AMD kann einfach die sparsameren DIEs die sonst in den 5950x gehen nehmen und das gleicht den mehrverbrauch des Caches mehr als aus. Beim Binning sollte AMD nach über einem Jahr Ryzen5K reichlich Auswahl haben. Der yield ist nach wie vor so gut dass es auch nach über einem Jahr Sammelzeit keine Salvage DIEs unterhalb des 5600x gibt, geschweige denn non-X R5K.

Das Problem ist die Energiedichte kombiniert mit der schlechteren Wärmeleitfähigkeit durch das DIE Stacking.
Und Zen3 hat durch das 7nm ComputerDIE ohnehin schon eine katastrophal hohe Energiedichte (jedenfalls im Gegensatz zum monolitischen 12900K.

Das Silizium-Die selber ist nicht das Problem, Si ist in Bezug auf die Wärmeleitfähigkeit kaum schlechter als Al, immerhin fast halb so gut wie Cu.
Aber so ein abgeschliffener Cache-DIE besteht auch aus vielen SiO2 Schichten zur Isolation der metal Layer. Und das ist nicht nur ein guter elektrischer isolator, sondern auch ein exzellenter thermischer, mit nichtmal 1/100stel der leitfähigkeit von reinem Si.
Dazu kommt dass die Cores nur von einem eigenen daneben aufgeklebten SI-Schnipsel abgedeckt werden und die Zwischenräume mit Epoxy ausgegossen sind.
Und wir wissen genau wie sich Materialübergänge auf den thermischen Widerstand auswirken: Katastrophal.
Die hauchdünne Schicht WLP auf einem Heatspreader kann schon leicht einen Unterschied von 6-8°C machen kann, z.B. bei SilikonWLP vs Flüssigmetall. Und dieser Heatspreader hat die ca. 20fache Fläche wie das compute DIE, bzw. die Hundertfache von dem kleinen SI-Schnipsel das auf den Cores liegt.

In der Vergangenheit wurde "thermal resistance" immer als das limitierende Kriterium bei 3D Stacking angesehen, das kannst man jeder einzelnen Präsentation dazu entnehmen.
Immerhin gibt es DIE stacking nun schon seit fast einem Jahrzehnt, bisher aber nur im Mobile.
Lakefields Sunny Cove Cores waren beim Turbotakt stark begrenzt durch die bescheidene thermal performance des packages, stichwort hotspots. Ein problem dass sich durch die Verwendung von pop memory nur verschlimmert hat. Das Ding war zwar für mobile ultrakompakt, für die performance war das aber die sprichwörtliche "bridge too far".

TSMCs direct die to wafer bonding hat zwar große Fortschritte gemacht gegenüber älteren die stacking Methoden, aber ich denke nicht dass sie das Problem gänzlich aus der Welt schaffen konnten. Ein kleiner Nachteil wird aber eben weiter vorhanden sein.

Ich kann mir gut vorstellen dass wir eine Thermal resistance von 0.3K/W alleine zwischen DIE-diode und der Oberseite des Heatspreaders haben werden. Das heißt bei 142Watt alleine eine Differenztemperatur von 42,6°C on top auf die Kühlleistung des verwendeten Kühlers (gemessen am IHS/tcase).

Das heißt aber auch dass man hier mit extremen Kühlungsmethoden wahrscheinlich weit kommt. Denn der Basedie wird einer der besten selektierten Ryzen 5K sein und mit der richtigen Kühlung auch auf die 5,1Ghz gehen die ein 5950x im turbo schafft.
Wenn der bei Stock clocks schon einen 12900K in die Tasche steckt, wird das mit guter Kühlung richtig spannend. Denn das sind nur 10% mehr Takt von den 4,5Ghz Standardturbo auf 5Ghz. Das sollte bereits mit einer guten AIO oder highend Lukü möglich sein.

dargo
2022-01-10, 13:30:24
Nicht wirklich, Cache verbraucht kaum etwas. Der absolute Verbrauchsanstieg ist es nicht. 142W sind gar nichts für eine Enthusiast CPU die höchstwahrscheinlich mit einer AIO oder einem ND-D15 gekühlt wird.

Deine Kühllösungen bringen dir gar nichts wenn sich ein Großteil der 142W auf einen einzigen, winzigen Chiplet konzentrieren. Deine CPU wird dennoch ins thermische Limit laufen. Das Thema wurde schon zu Genüge durchgekaut.

Nakai
2022-01-10, 13:33:21
Oder es ist einfach nur ein Pipecleaner und man konzentriert sich schon auf Stacked Caches mit Zen4.

davidzo
2022-01-10, 13:34:48
Deine Kühllösungen bringen dir gar nichts wenn sich ein Großteil der 142W auf einen einzigen, winzigen Chiplet konzentrieren. Deine CPU wird dennoch ins thermische Limit laufen. Das Thema wurde schon zu Genüge durchgekaut.

Ich denke du solltest dir mal das Thema thermischer Widerstand zu Gemüte führen bevor du hier so große Töne spuckst.
Eine Veränderung eines einzelnen thermischen Widerstands (Kühler) in der gesamten Kette führt sehr wohl zu einer niedrigeren Endtemperatur, ebenso wie wenn ich den IHS mithilfe eines Waterchillers oder Kompressorkreislaufs auf nahe oder gar unter die Umgebungstemperatur herunterkühle.



Ihr seid alle nur Träumer oder Realitätsverweigerer.

Wie lange hatte AMD Erfahrung mit DDR4 und wie lange haben die Biose bei Zen3 gebraucht bis alles einwandfrei lief? Als ob diverse Plattform-Probleme nur mit dem Speicher zusammen hängen würden. :rolleyes:
Wer ist hier der Realitätsverweigerer? HOT hat schon recht dass die Verhältnisse überhaupt nicht vergleichbar sind.

2015, also als AM4 entwickelt und validiert wurde hatte AMD ein R&D budget von unter 900mio, was bei 4Mrd jahresumsatz schon viel war.
Mittlerweile macht AMD 15-16Mrd Jahresumsatz und steckt rund 3Mrd in R&D. Das budget pro quartal ist mit 700mio jetzt fast so hoch wie damals für das ganze Jahr.


Oder es ist einfach nur ein Pipecleaner und man konzentriert sich schon auf Stacked Caches mit Zen4.


Ich hoffe inständig dass man mit Zen4 einen anderen Chiplet-Aufbau verwendet, eher so wie bei Navi3x, mit dem Cache dadrunter.

Der_Korken
2022-01-10, 13:55:35
Ich hoffe inständig dass man mit Zen4 einen anderen Chiplet-Aufbau verwendet, eher so wie bei Navi3x, mit dem Cache dadrunter.

Funktioniert sowas auch, wenn der dann unten liegende Cache-Chip nicht die gesamte Fläche des Compute-Dies füllt? Wenn oben drauf nicht alles plan ist, ist es nicht so schlimm, weil da eh noch Lot draufkommt für den IHS. Aber unterhalb nicht und es darf weder zu hoch sein, weil die Kontakte sonst nicht greifen, noch zu niedrig, weil der obere Chip dann nicht richtig gestützt wird und sich biegen könnte.

mboeller
2022-01-10, 14:20:48
Funktioniert sowas auch, wenn der dann unten liegende Cache-Chip nicht die gesamte Fläche des Compute-Dies füllt? Wenn oben drauf nicht alles plan ist, ist es nicht so schlimm, weil da eh noch Lot draufkommt für den IHS. Aber unterhalb nicht und es darf weder zu hoch sein, weil die Kontakte sonst nicht greifen, noch zu niedrig, weil der obere Chip dann nicht richtig gestützt wird und sich biegen könnte.

Also beim MI200 funktioniert es. Wird da aber wie EMIB für die Verbindung von 2 Dies benutzt und nicht direkt unter dem Die als zB. Cache.

davidzo
2022-01-10, 14:21:25
Funktioniert sowas auch, wenn der dann unten liegende Cache-Chip nicht die gesamte Fläche des Compute-Dies füllt? Wenn oben drauf nicht alles plan ist, ist es nicht so schlimm, weil da eh noch Lot draufkommt für den IHS. Aber unterhalb nicht und es darf weder zu hoch sein, weil die Kontakte sonst nicht greifen, noch zu niedrig, weil der obere Chip dann nicht richtig gestützt wird und sich biegen könnte.

Nichts anderes macht AMD beim elevated Fan out Bridge (EFB) bei Aldebaran. Nur ist dort der untere Chip nur ein reiner 2D Bridge-Die, also eher dünn. Die Pins für IF, PCIe und Power delivery werden einfach als copper pillars so lang gemacht wie die Dicke des bridge DIEs. Der obere Chip kann sich nicht biegen, dafür gibt es ja den Underfill den man da reinfließen lässt, wie bei normalen flipchip packages auch.

EDIT: mboeller war schneller

Auch denkbar wäre das Ganze wenn man backside power delivery verwendet wie Intel das vorhat. Dann kann man den Cache Die noch back-to-back anbringen wie man es gewohnt ist und der compute Chiplet zeigt trotzdem nach oben.

Bisher deuten aber weder die Genoa mockups noch die AM5 Bilder daraufhin dass sich irgendetwas ändert.
Allerdings sind bei Genoa jeweils 3x Chiplets ohne Spacing aneinander, was durchaus die Möglichkeit eines Base-Dies dadrunter eröffnet.

Wie dem auch sei, es sieht nicht so aus als wenn Zen4 zu Anfang X3D cache bieten wird. Zen3d und Milan X3D schwirren schon lange in den leaks herum bzw. sind sogar von AMD bestätigt. Bei Zen4 sieht das momentan noch gar nicht nach 3D Versionen aus.

dargo
2022-01-10, 14:28:06
Ich denke du solltest dir mal das Thema thermischer Widerstand zu Gemüte führen bevor du hier so große Töne spuckst.
Eine Veränderung eines einzelnen thermischen Widerstands (Kühler) in der gesamten Kette führt sehr wohl zu einer niedrigeren Endtemperatur, ebenso wie wenn ich den IHS mithilfe eines Waterchillers oder Kompressorkreislaufs auf nahe oder gar unter die Umgebungstemperatur herunterkühle.

Junge, Junge... hast du überhaupt schon mal ein 5800X live erlebt wenn er auf die 142W geht? Da hilft dir selbst die beste Wakü nichts, das Ding drosselt trotzdem bei 90°C. :rolleyes: Mal ganz davon abgesehen, dass solche Kühllösungen eine Nische ist. Zumindest vs. Lukü. Und natürlich beziehe ich mich bei Lukü nicht auf irgendwelche boxed Kühler sondern auf die Custom-Dinger um die 30-40€.


Wer ist hier der Realitätsverweigerer? HOT hat schon recht dass die Verhältnisse überhaupt nicht vergleichbar sind.

2015, also als AM4 entwickelt und validiert wurde hatte AMD ein R&D budget von unter 900mio, was bei 4Mrd jahresumsatz schon viel war.
Mittlerweile macht AMD 15-16Mrd Jahresumsatz und steckt rund 3Mrd in R&D. Das budget pro quartal ist mit 700mio jetzt fast so hoch wie damals für das ganze Jahr.

Ich empfehle mal an der Lesekompetenz zu arbeiten. Ich sprach von Zen3 und du kommst mir jetzt hier mit 2015. :freak:

btw.
Intel und Nvidia geben auch jede Menge Kohle für R&D aus. Und trotzdem sind beide nicht fehlerfrei bei neuen Releases.

davidzo
2022-01-10, 14:57:31
Junge, Junge... hast du überhaupt schon mal ein 5800X live erlebt wenn er auf die 142W geht? Da hilft dir selbst die beste Wakü nichts, das Ding drosselt trotzdem bei 90°C. :rolleyes: Mal ganz davon abgesehen, dass solche Kühllösungen eine Nische ist. Zumindest vs. Lukü. Und natürlich beziehe ich mich bei Lukü nicht auf irgendwelche boxed Kühler sondern auf die Custom-Dinger um die 30-40€.

Und was ist der 5800x3d? Richtig, eine Nischen CPU.
Die ist in allem anderen als Gaming langsamer als ein normaler Vermeer Prozessor. Dafür aber prädestiniert für Rekordversuche, OC etc.
Ich denke schon dass man eine 100€ AiO als Durchschnittskühlung bei einer 500€ CPU annehmen kann (5900x successor), mit Custom-loop und Waterchiller am oberen Ende, sowie Dryice und LN2 für die Extrem OCer.
Die Rede war ja auch von OC, nicht stock und ich glaube kaum dass Leute die 30-40€ für einen entrylevel Towerkühler ausgeben ernsthaft Interesse an Übertakten haben. Es kann gut sein dass sich der 5800x3d für diese Leute nicht rechnet.


Ich empfehle mal an der Lesekompetenz zu arbeiten. Ich sprach von Zen3 und du kommst mir jetzt hier mit 2015. :freak:

btw.
Intel und Nvidia geben auch jede Menge Kohle für R&D aus. Und trotzdem sind beide nicht fehlerfrei bei neuen Releases.
Ich sprach von AM4 und DDR4. Und ja, Zen3 hatte einen neuen memory controller. AMD entwickelt die ja nicht selber, sondern lizensiert IP am markt und für N7 musste man neu sourcen und konnte eventuell sogar eine günstigere Lizenz bekommen.
Zen1 hatte gerüchten nach einen rambus controller für 14nm Samsung/GF. der 14nm Epyc i/o-die scheint von Synopsis designware zu sein. Für 7nm scheint AMD aber den Cadence Controller lizensiert zu haben, zumindest ist das auch der GDDR6 controller bei Navi2x. Die Cadence Denali Familie ist die erste die TSMC N5 unterstützt (seit 2020) und hat auch DDR5 support, daher denke ich nicht dass der Wechsel dieses mal eine besondere Herausforderung ist.

Btw, in 2019 waren es trotzdem nur 1,5Mrd R&D Budget bei AMD, also halb so viel wie jetzt. In 2020 erst 2Mrd. AMD geht jetzt erst in die Vollen mit 700mio pro Quartal..

Und Intel btw. hat in wirklichkeit nicht soviel mehr Budget für Prozessoren-design als AMD. Während AMD nämlich fast ein Viertel des Jahresumsatzes für R&D ausgibt, ist das bei Intel bei 15%. Von den 13Mrd R&D spending bei intel musst du die ganzen non-prozessor Unternehmensteile abziehen, so wie die eigenen Foundry-services, Altera, mobileye, Networking, Storage, silicon photonics, graphics, etc. - zudem verwendet Intel sehr selten externe IP, das heißt für Speichercontroller, USB4, Videocodecs etc. unterhält man eigene Teams. Bei AMD schmälern die Lizenzgebühren für IP nicht das R&D budget, sondern die produktmarge.
Nvidia liegt bei 4Mrd, also gerademal 25% mehr als AMD. Dafür dass dadrin auch die ganze Datacentersparte, Mellanox, Automotive etc. steckt ist das auch nicht viel mehr.
Btw, TSMC liegt auch im Bereich von 4Mrd/Jahr.

HOT
2022-01-10, 14:59:09
Ja nee, ist klar. Wir sprechen uns nochmal nach Release von Zen4. :ulol:
Es kann natürlich sein, dass man wieder mal das BIOS versaut, wie beim Zen2-Start. Allerdings hat man ja diesmal keine Altlasten. Schaun mer mal.

BavarianRealist
2022-01-10, 15:02:22
Wenn der 5800X3D nicht zu teuer wird, also 400-450€ kostet, dürfte der seine Abnehmer finden: alle, die ein teures Systeme mit viel Ram haben, können mit wenig Geld die Leistung - je nach dem welche CPU sie haben - gewaltig erhöhen, vor allem weil der große L3 die Leistung bei langsamerem Ram noch viel deutlicher steigert.

Da kenne ich bereits ein paar Leute, denen diese 5800X3D die Leistung locker um 30-50% erhöhen wird, weil sie einen "alten" 3700X oder 3800X, oder gar nur einen 2700X haben. Es lohnt vor allem, wenn man viel Ram hat (64GB) oder einfach soviel spezielles Zeug aufm Rechner, sodass man sich gerne den Umstieg auf einen neuen Rechner erspart. Und die "alte" CPU lässt sich auch noch weiter verkaufen: ich würde einen 3700X oder Ähnliches dann gerne für kleines Geld übernehmen, um meinen alten 1600X zu tauschen: großer Sprung für wenig Geld. Die Langlebigkeit von AM4 macht das möglich.

sChRaNzA
2022-01-10, 15:23:57
Wenn der 5800X3D nicht zu teuer wird, also 400-450€ kostet, dürfte der seine Abnehmer finden: alle, die ein teures Systeme mit viel Ram haben, können mit wenig Geld die Leistung - je nach dem welche CPU sie haben - gewaltig erhöhen, vor allem weil der große L3 die Leistung bei langsamerem Ram noch viel deutlicher steigert.

Da kenne ich bereits ein paar Leute, denen diese 5800X3D die Leistung locker um 30-50% erhöhen wird, weil sie einen "alten" 3700X oder 3800X, oder gar nur einen 2700X haben. Es lohnt vor allem, wenn man viel Ram hat (64GB) oder einfach soviel spezielles Zeug aufm Rechner, sodass man sich gerne den Umstieg auf einen neuen Rechner erspart. Und die "alte" CPU lässt sich auch noch weiter verkaufen: ich würde einen 3700X oder Ähnliches dann gerne für kleines Geld übernehmen, um meinen alten 1600X zu tauschen: großer Sprung für wenig Geld. Die Langlebigkeit von AM4 macht das möglich.

Je nachdem wie teuer der am Ende sein wird, und wie viel Plus an Leistung rüber kommt, schiele ich da mit meinem 3800XT in der Tat drauf. Sorgen macht mir nur die Temperatur ein bisschen, aber mal abwarten. (Der 3800XT läuft im Eco-Modus, da die Kühlung nicht ganz optimal unter Volllast ist)

basix
2022-01-10, 21:54:56
Ich tippe auf 499 Euro. So teuer wie ein 5900X mit 549 Euro wird es eher nicht werden. Und preislich nach unten rutschen wird das Zen 3 Portfolio wohl auch nicht.

Mit 499 ist man ein gutes Stück günstiger als ein 12900K und weiter unten hat man den 12700K, welcher etwas über 400 kostet.

Neosix
2022-01-10, 22:13:40
Ihr seid alle nur Träumer oder Realitätsverweigerer.

Wie lange hatte AMD Erfahrung mit DDR4 und wie lange haben die Biose bei Zen3 gebraucht bis alles einwandfrei lief? Als ob diverse Plattform-Probleme nur mit dem Speicher zusammen hängen würden. :rolleyes:

Kleiner Fun Fact, mein letzter MSI Bios ist immer noch (Beta) Markiert wegen 1.2.0.3c ;D Und ja in den letzten 12 Monaten gab es einige Bios versionen. Und wir reden heir eigentlich von einer bereits älterer Platform. Jetzt bedenkt bei AM5+DDR5+Zen4. Oh ja, ich glaube die ersten 12 Monate Zen 4 werden ne flasherei ohne ende werden. Zumindestens wenn man immer die neueste Agesa haben möchte.

HOT
2022-01-10, 22:59:35
Kleiner Fun Fact, mein letzter MSI Bios ist immer noch (Beta) Markiert wegen 1.2.0.3c ;D Und ja in den letzten 12 Monaten gab es einige Bios versionen. Und wir reden heir eigentlich von einer bereits älterer Platform. Jetzt bedenkt bei AM5+DDR5+Zen4. Oh ja, ich glaube die ersten 12 Monate Zen 4 werden ne flasherei ohne ende werden. Zumindestens wenn man immer die neueste Agesa haben möchte.

Die CPU läuft ab AGESA 1000C von 2020 problemlos. Wenn man USB-Probleme hat sollte man ab 1200 flashen, du muss doch nicht jedes BIOS mitnehmen :freak:.
Außerdem ist das auch noch falsch, es gab von MSI einen Haufen Betas, aber nur 4 Finalversionen für ein 5xx-Board dieses Jahr. Das ist nicht anders als bei den Intel-Brettern auch.
Sei doch froh, dass die Boardhersteller das so gut supporten anstatt so einen Unsinn von dir zu geben.



dargo
ich kapier einfach nicht, was du für Probleme mit dem 5800X hast. Ein normaler Macho Rev.A reicht um den vernünftig zu kühlen. Dass der über 80°C hat ist ein rein akademisches Problem und entbehrt jeder Problemstellung.
Ich hab sogar nen 3800X mit 2 Chiplets, also das obere aktiviert, mit nem alten Macho am Laufen ohne Probleme.

Ex3cut3r
2022-01-10, 23:23:01
Ich wurde mir gerne einen Zen 3 mit 3D Cache holen. 500€ möchte ich aber ich aber ungern zahlen. Ich habe ja immer noch die Hoffnung das Zen 3 non 3D Cache jetzt mal endlich im Preis fällt. Wenn es einen 5800X für 200€ gibt, wurde ich da zuschlagen. Und den 3DCache auslassen.

Aber träumen, darf man ja. :freak:

DavChrFen
2022-01-10, 23:28:56
Schade, dass man das Höhenausgleichdingens nicht entfernen kann. Weil dann könnte man den Kühlerboden entsprechen schleifen, so dass das mit direct-Die-Kühlung passt, und hätte dann einen echt dünnen Chiplet, der dann wesentlich besser zu kühlen wäre als der nicht von AMD abgeschliffene.

Hätte, hätte, Fahrradkette. Da schleift einem der Hersteller schon den DIE ab, und man kanns nicht nutzen.

MSABK
2022-01-10, 23:41:45
Ich wurde mir gerne einen Zen 3 mit 3D Cache holen. 500€ möchte ich aber ich aber ungern zahlen. Ich habe ja immer noch die Hoffnung das Zen 3 non 3D Cache jetzt mal endlich im Preis fällt. Wenn es einen 5800X für 200€ gibt, wurde ich da zuschlagen. Und den 3DCache auslassen.

Aber träumen, darf man ja. :freak:

Ich denke die Preise werden bis zen4 stabil bleiben.

Vlt ordnet Amd den 5800x3d preislich einfach über dem 5900x an und rest bleibt wie es ist.

Neosix
2022-01-10, 23:55:16
... du muss doch nicht jedes BIOS mitnehmen :freak:.
...
Sei doch froh, dass die Boardhersteller das so gut supporten anstatt so einen Unsinn von dir zu geben.

Ich hab auch nicht alles geflasht, hab alle Beta Versionen ausgelassen. Dennoch gab es viel Wind um Agesa 2020/2021 bei Zen 3. Ob man die alle brauchte, sei mal dahingestelt, aber wie ne "final/komplett ausgereifte" Platform in ihrer 4ten(?) Iteration hat sich das für mich nicht angefühlt. Und natürlich ist es gut wenn überhaupt updates kommen, hat ja auch niemand das Gegenteil behauptet. Aber es ging hier darum dass AM5+Zen4 angeblich sooo ausgereift gleich zum start sein werden, und da hab ich mich nur Dargos ansicht angeschloßen, ich erwarte 2022/23 wirklich viele Bios patches für early adopters

dargo
2022-01-11, 08:28:54
dargo
ich kapier einfach nicht, was du für Probleme mit dem 5800X hast.
Ganz einfach... das Ding ist in dem von AMD gewählten Betriebspunkt zu durstig. Deshalb fahre ich auch ein Customsetting womit mir die CPU bedeutend besser gefällt.

btw.
Den Betriebspunkt vom R5 3600 fand ich richtig geil. Mit Customsettings hatte ich das Teil in Games bei 30+W. Sowas vermisse ich beim Octacore @Zen3.

Ich wurde mir gerne einen Zen 3 mit 3D Cache holen. 500€ möchte ich aber ich aber ungern zahlen. Ich habe ja immer noch die Hoffnung das Zen 3 non 3D Cache jetzt mal endlich im Preis fällt. Wenn es einen 5800X für 200€ gibt, wurde ich da zuschlagen. Und den 3DCache auslassen.

Aber träumen, darf man ja. :freak:
Du gibst 1.900€ für eine Graka aus und eine CPU willst du dann fast geschenkt haben. Muss man das verstehen? :freak:

w0mbat
2022-01-11, 10:01:38
Vielleicht ist der 5800X3D ja etwas sparsamer, mal sehen.

HOT
2022-01-11, 10:12:53
Ich hab auch nicht alles geflasht, hab alle Beta Versionen ausgelassen. Dennoch gab es viel Wind um Agesa 2020/2021 bei Zen 3. Ob man die alle brauchte, sei mal dahingestelt, aber wie ne "final/komplett ausgereifte" Platform in ihrer 4ten(?) Iteration hat sich das für mich nicht angefühlt. Und natürlich ist es gut wenn überhaupt updates kommen, hat ja auch niemand das Gegenteil behauptet. Aber es ging hier darum dass AM5+Zen4 angeblich sooo ausgereift gleich zum start sein werden, und da hab ich mich nur Dargos ansicht angeschloßen, ich erwarte 2022/23 wirklich viele Bios patches für early adopters
Ich versteh einfach nicht, wo dein Problem ist. Bei 99% aller nutzer mit Zen3 läuft AGESA 1000C von 2020 immer noch völlig problemlos. Dann gibts ein paar, die USB-Probleme haben und die dann eben auf 1200 hochpatchen müssen, alles andere ist optional.

Und ob AM5 direkt gut funktioniert oder nicht, sehen wir dann, das kann jetzt noch keiner sagen.

Hott3X
2022-01-11, 10:38:02
Ich freu mich auf den 5800X3D, dieses Mal hole ich mir den direkt und mach nicht den Fehler vom i7-5775C. Da habe ich gewartet und das Ding wurde immer teurer, dann hat sich das Update nicht mehr gelohnt.

BavarianRealist
2022-01-11, 11:54:55
Die Preisfindung für den 5800X3D könnte ganz simpel ausssehen: zum gleichen Preis könnte AMD entweder den 5900X mit zusätzlich 4 Cores gegenüber 5800X anbieten, oder eben den 5800X3D mit zusätzlichem 3D-L3.

Ex3cut3r
2022-01-11, 12:18:59
Du gibst 1.900€ für eine Graka aus und eine CPU willst du dann fast geschenkt haben. Muss man das verstehen? :freak:

Joa. Deswegen muss ich jetzt den Gürtel etwas enger schnallen. :biggrin:

Und 1900€ habe ich nicht gezahlt. Sondern "nur" 1250€ nach Abzug des RTX 2080 Verkaufs im Luxx.

dargo
2022-01-11, 17:21:06
War nur Spaß, musst dich ja nicht für deine Entscheidungen rechtfertigen. :) Ich fand das nur etwas komisch bei dem Preis der Graka. :tongue: Ich habe manchmal auch so Phasen da will ich unbedingt was haben. Und weniger Monate später frage ich mich wofür hast du den ganzen Quatsch überhaupt gekauft? :freak: Aktuell kommen eh wieder keine neuen, interessanten Spiele raus die einen Kauf rechtfertigen würden. Irgendwie habe ich das Gefühl es gibt wieder eine Spieleflaute, und das im Winter. :(

Ex3cut3r
2022-01-11, 17:31:15
Alles gut, habe ich auch nicht als "Angriff" oder ähnliches gespürt. Ich bin durchaus bereit auch über mich selbst zu lachen.

Klar, könnte ich auch 500€ für den 5800X3D zahlen. Trotzdem wären mir 250€ für den 5800X Non Cache lieber.

Es ist schwierig. Anderseits bin ich mit dem 3600 OC + DDR4 Tuning eigentlich fast immer im GPU Limit, und wenn nicht, dann sind die FPS auch verdammt hoch (120 FPS+) oder man Haut DSR (+DLSS) rein es ist halt ein Luxus Problem. :redface:

dargo
2022-01-11, 17:44:12
Klar, könnte ich auch 500€ für den 5800X3D zahlen. Trotzdem wären mir 250€ für den 5800X Non Cache lieber.

Wenn der Schuh so sehr drückt soll ich mir den 5800X3D holen und du kriegst meinen 5800X für die 250€? :ulol: :freak:

Wäre bei mir dann wieder ein völliger Bullshit-Kauf. ;D

Rebell
2022-01-11, 20:04:04
Langfristig hol ich mir lieber einen 5950x als den 5800x3d, aber erstmal den 5600x an die Kotzgrenze fahren.

Zu lange darf man aber nicht warten.. mit dem Erscheinen von Zen4 wird Zen3 schnell keine Rolle mehr spielen. Dann macht der kleine 6 Kerner Zen4 wieder alle Zen3 platt (schon allein immer wegen der höheren SC Leistung). Wie rechtfertigt man dann das Upgrade auf 16 Kerne wenn jeder kleine Zen4 erstmal die längeren Balken hat :D

aufkrawall
2022-01-11, 20:07:00
Langfristig hol ich mir lieber einen 5950x

Aber auch unbefriedigend, wenn viel billigere ADL-Modelle mit schnellem RAM (hat man ja vielleicht schon) dann in manchen Spielen davonlaufen.
Wenn man die ganzen Kerne nicht gerade sofort und ständig braucht, würd ich lieber auf Billig-ADL 6C gehen und in drei Jahren dann alles neu. Hohe Spiele-Performance und massiv Geld gespart.

Berniyh
2022-01-11, 20:20:21
Wie rechtfertigt man dann das Upgrade auf 16 Kerne wenn jeder kleine Zen4 erstmal die längeren Balken hat :D
Macht denn der kleine Zen4 den 5950X auch bei Rendering etc. platt?
Wer sich einen 5950X nur wegen der minimal besseren Gaming Performance gegenüber dem 5600X oder 5800X holt, bei dem ist echt Hopfen und Malz verloren.
Und der holt sich dann doch eh gleich wieder das größte bei Zen4, auch wenn es unterm Strich einfach nur hanebüchen ist.

Rebell
2022-01-11, 20:20:57
Die letzten FPS sind mir egal. Bei 120 wird sowieso limitiert. Ich seh den 5950x eher als 2600k Nachfolger. Betriebszeit 8+ Jahre :D

aufkrawall
2022-01-11, 20:23:53
Nur war der 2600K drei Jahre später immer noch super im Vergleich zu anderen CPUs. Jetzt gibt es offenbar eine gesunde Konkurrenz, bei der nach drei Jahren sich jede Menge getan haben kann (und alte Hardware entsprechend entwertet wird).

Slipknot79
2022-01-12, 01:00:02
Joa. Deswegen muss ich jetzt den Gürtel etwas enger schnallen. :biggrin:

Und 1900€ habe ich nicht gezahlt. Sondern "nur" 1250€ nach Abzug des RTX 2080 Verkaufs im Luxx.

Nö, du hast 1900EUR bezahlt. (y)

Slipknot79
2022-01-12, 01:06:35
Die letzten FPS sind mir egal. Bei 120 wird sowieso limitiert. Ich seh den 5950x eher als 2600k Nachfolger. Betriebszeit 8+ Jahre :D


Meinen 2600k (ist noch im Trading-PC verbaut auf nem 60EUR Mobo (y) ) hatte ich 8,5 Jahre, 2600k->9900k.


Der Vorteil von den kleinen Leistungssprüngen von einer CPU Generation zur nächsten ist der, dass Gamer sehr viele Generationen überspringen können.
Nur mit den letzten Generationen wird es eventuell etwas schneller sein, Intel strengt sich da sogar etwas mehr an in letzter Zeit. (y)
Erfahrungsgemäß kann eine CPU grob ca 50% langsamer sein, bis sich auch im GPU-limit der CPU-Flaschenhals bemerkbar macht.
Bis dahin sind alle Mainstream+ CPUs gleich (y), spart Kohlen.

Bin schon gespannt, was sein wird, wenn GPUs nur noch 10-20% Sprünge machen werden. (y) Wir sind zum Teil bereits jetzt schon auf +50% unten. Bereits das haut nicht mehr wirklich vom Hocker. 40 oder 60fps? gähn.

MSABK
2022-01-20, 18:50:37
Gibt es eigentlich eine Erklärung dafür warum das Steam Deck eine 8CU RDNA2 Glu hat und es in Ryzen 6000 nur 6 oder 12CUs gibt?

robbitop
2022-01-20, 18:59:40
Das ist eine andere APU. Van Gogh im Steam Deck ist 4x Zen 2 und 8 RDNA2 CUs.
Rembrandt APU hingegen hat 8x Zen3+ und 12 RDNA2 CUs.

r3ptil3
2022-01-27, 13:48:37
Ich bin dem 5800X3D mittlerweile etwas skeptisch eingestellt.

1. AMD nimmt als Vergleich zwischen dem 12900k und dem 5800X ein fast 12 Jahre altes Spiel mit auf: Final Fantasy XIV
https://www.amd.com/de/processors/ryzen

2. In den Fussnoten wird die Konfig des Intel-Systems erwähnt: ASUS Z690 Hero, 12900k, DDR5 5200 und hier brisant: BIOS 0702 (uraltes BIOS von Ende Oktober 2021)
https://www.amd.com/de/processors/ryzen


Wieso nutzt AMD eine Geforce RTX 3080 als Basis?

dildo4u
2022-01-27, 13:56:25
Dieses Final Fantasy (MMO) bricht grad alle Rekorde und ist extrem CPU Limitiert imo ligitim das zu benchen, dort hat man was von besseren CPUs in Raids.
Die meisten AAA Games erreichen bessere FPS da sie eingeschränkt sind was Figuren auf dem Screen angeht.

https://www.buffed.de/Final-Fantasy-14-A-Realm-Reborn-Spiel-16140/News/Spieler-Rekord-Steam-Wartezeiten-Spielzeit-Ausgleich-1384963/

dargo
2022-01-27, 16:39:02
@bardh

Du bist skeptisch weil AMD ein Spiel in eigenen Bechmarks verwendet welches nicht mal das worst case für den neuen Prozessor (siehe vs. Legion) darstellt? WTF? :freak:

btw.
Und was willst du mit der Fussnote 3 und dem Intel-System überhaupt wenn AMD den 5800X3D vs. eigene CPU 5900X bencht und die Einzelheiten dazu unter Fussnote 4 aufführt?

r3ptil3
2022-01-27, 16:45:15
@bardh

Du bist skeptisch weil AMD ein Spiel in eigenen Bechmarks verwendet welches nicht mal das worst case für den neuen Prozessor (siehe vs. Legion) darstellt?

Der Punkt hat sich geklärt, siehe den Post nach mir.

Bezüglich Skeptik: Ich habe mir ein paar Benchmarks angeschaut, speziell 5900X vs. 12900k und die AMD Benchmarks sind sehr vorteilhaft ausgelegt. Das deckt sich mit dem Bild des Uralt-BIOS, das AMD für die Intel Z690 Plattform verwendet hat.

Ich gehe davon aus, dass man etwas ernüchtert sein wird über die Gaming-Performance. Anwendungsperformance lasse ich mal aussen vor, da passiert sowieso kaum was.

Interessant ist für mich bei der CPU folgendes: Temps und der IF Clock (Stichwort WHEAs...).

dargo
2022-01-27, 17:30:38
Ich gehe davon aus, dass man etwas ernüchtert sein wird über die Gaming-Performance. Anwendungsperformance lasse ich mal aussen vor, da passiert sowieso kaum was.

Ich frage mich immer wieder was manche hier für utopische Erwartungshaltungen bei einem CPU-Refresh haben wenn die Performancezuwächse schon zwischen zwei neuen Generationen klein ausfallen? :freak:

r3ptil3
2022-01-27, 17:50:43
Ich frage mich immer wieder was manche hier für utopische Erwartungshaltungen bei einem CPU-Refresh haben wenn die Performancezuwächse schon zwischen zwei neuen Generationen klein ausfallen? :freak:

AMD möchte damit den 12900k angreifen, daher ist die Erwartungshaltung doch gewollt.

dargo
2022-01-27, 18:02:20
AMD möchte damit den 12900k angreifen...
Hat AMD das so gesagt? Quelle? Wundert mich schon etwas da die Balken nicht vs. Intel in deinem Link stehen sondern vs. eigene CPU.

btw.
Und mal ehrlich... was der 12900k vs. Zen3 schneller ist ist doch pillepalle.
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/6/#abschnitt_benchmarks_in_720p_hd

r3ptil3
2022-01-27, 18:05:59
Hat AMD das so gesagt? Quelle? Wundert mich schon etwas da die Balken nicht vs. Intel in deinem Link stehen sondern vs. eigene CPU.

Ja, sogar während der eigenen Präsentation damit geworben.

https://www.notebookcheck.com/fileadmin/_processed_/8/a/csm_4_2160.4d345bb2_2b85d1220d.png
https://www.notebookcheck.com/AMD-enthuellt-den-Ryzen-7-5800X3D-mit-einer-besseren-Gaming-Performance-als-der-Intel-Core-i9-12900K.589878.0.html

https://www.tweaktown.com/news/83767/amd-ryzen-7-5800x3d-cpu-beats-intels-new-core-i9-12900k-in-gaming/index.html

https://www.youtube.com/watch?v=Knz-dVLLOQA

dargo
2022-01-27, 18:09:46
Dann schön entspannt zurück lehnen und Tests abwarten. :cool: Dieses "Pillepalle" aufzuholen oder leicht zu überholen sollte nun wirklich kein Hexenwerk werden.

r3ptil3
2022-01-27, 18:15:56
Wenn man mit dem ersten BIOS einer neuen Plattform testet und dazu noch bescheidenen DDR5 5200 Speicher nimmt, dürfte das noch machbar sein.

Ein Z690 Board mit aktuellem BIOS und 6000Mhz+ CL36 RAM und die Ergebnisse oben sehen schon anders aus.

dargo
2022-01-27, 18:18:36
Erzähl mir was Neues. Bei einem AMD-System mit gepimpten Samsung B-Die kannst du auch um die 20% vs. DDR4-3200 XMP drauf rechnen. Wann rafft ihr endlich unter gleichen Bedingungen zu vergleichen? In der Regel heißt das max. offizielle Hersteller-Angaben.

r3ptil3
2022-01-27, 18:20:38
Eben... das wären dann 3200Mhz für den Ryzen und nicht 3600, wie von AMD verwendet ;)

dargo
2022-01-27, 18:26:24
Da steht doch nicht mal was zu den Timings. Alter... du musst echt Langerweile haben. Wenn die Dinger CL16 sind dann steht ein DDR4-3200 CL14 dem im nichts nach. Oder willst du jetzt ernsthaft hier eine Diskussion über +/-2% führen? Dann bin ich definitiv raus.

r3ptil3
2022-01-27, 18:34:31
Du hast doch selber auf meinen Beitrag reagiert und unterstellt, dass einige utopische Erwartungen haben... :lol:

Nightspider
2022-01-28, 00:52:55
Schafft das B2 Stepping jetzt doch paar Mhz mehr bei max_clock und DRAM FRQ?

https://www.pcgameshardware.de/Vermeer-Codename-276905/News/AMD-Ryzen-5000-B2-Stepping-von-Zen-3-mit-besseren-Qualitaeten-1387891/

Vielleicht hatte der auch ein golden sample aber wundern würde es jetzt auch nicht.

dildo4u
2022-01-28, 07:33:18
Scheint mir normal nach über einem Jahr nur diesmal vermarktet AMD das zum Glück nicht extra, die XT Serie war ja der Witz schlechthin.

Neosix
2022-01-28, 08:33:32
Um so trauriger, dass der 5800X3D Takt dennoch leicht sinkt :/

dildo4u
2022-01-28, 08:39:52
Sehe ich nicht als Problem die Hoch Taktenden Modelle haben nie Sinn gemacht, 3700X war z.b der beste Zen 2 8 Core leichter zu kühlen kaum Performance Verlust zum 3800X.
Ich hätte auch von Intel lieber weniger Takt und mehr Cache, muss nicht direkt 3D sein.

X-Bow
2022-01-28, 13:00:12
2. In den Fussnoten wird die Konfig des Intel-Systems erwähnt: ASUS Z690 Hero, 12900k, DDR5 5200 und hier brisant: BIOS 0702 (uraltes BIOS von Ende Oktober 2021)
https://www.amd.com/de/processors/ryzen

Zum einen ist das BIOS 0702 laut ASUS vom 04.11.21 und zum anderen wurde der Test von AMD am 14.12.21 durchgeführt, als so "uralt" wie hier angeführt ist es nun wirklich nicht. :rolleyes:

Einfach auf die unabhängigen Tests warten und sich von Herstellerbenchmarks nicht hypen lassen. Wenn dann rauskommt das die Benchmarks mal wieder geschönt wurden dann setzt sich AMD eh wieder mal in die Nesseln.;)

BavarianRealist
2022-01-28, 13:43:12
Die Steigerung der Effizienz dürfte beim neuen B2-Stepping im Vordergrund gesanden haben, da diese für den Einsatz bei Epyc-Milan weit wichtiger sein dürfte, um möglichst viele 64-Core-Milans mit maximaler Spec zu ermöglichen. Deren Takte spielen sich ja eher im Bereich um die 3Ghz ab. Aktuell dürfte der Großteil der Zen3-Chiplets in die Milans gehen. Desktop-CPUs dürften kaum mehr eine Rolle spielen.

nordic_pegasus
2022-01-30, 15:31:18
ich war heute auf AMD.com unterwegs und habe per Zufall die Tabelle am Ende der Ryzen 5000 Produkt-Seite gesehen. Was will AMD damit ausdrücken, dass der 5800X3D vor dem 5900X aber hinter dem 5950X einsortiert ist?
Eine Sortierung nach TDP, Kernanzahl, Threads oder Takt ist es offensichtlich nicht. Die UVP/MSRP ist keine Spalte in der Tabelle. Irgendwie werde ich das Gefühl nicht los, dass der X3D doch ein wenig überschätzt wird als ultimative AM4 Gaming CPU. Und AMD hier schonmal leise auf die Realität vorbereitet.

Der Cache des X3D muss auch erstmal die ca. 500 MHz Boost-Takt Vorteil des 5950X einholen.

Linmoum
2022-01-30, 15:48:51
Ehrlich jetzt? :D

nordic_pegasus
2022-01-30, 16:01:29
Ehrlich jetzt? :D

ehrliche Frage, ich sehe keine nachvollziehbare Sortierung in der Tabelle.

Entweder als bester R7 über den 5800X oder als beste/letzte/neuste 5000er CPU über den 5950x. Aber warum dazwischen?

Corny
2022-01-30, 16:28:12
Dann müsste auch der 5700G vor den 5600X.

Ich glaube nicht, dass die Sortierung einen Hintergrund hat.

BavarianRealist
2022-01-30, 16:49:41
ehrliche Frage, ich sehe keine nachvollziehbare Sortierung in der Tabelle.

Entweder als bester R7 über den 5800X oder als beste/letzte/neuste 5000er CPU über den 5950x. Aber warum dazwischen?

Meines Erachtens repäsentiert die Sortierung die preisliche Abstufung: damit würde der 5800X3D zwischen 5900X und 5950X preislich landen. Genau so erwarte ich das auch. Der 5600X wird sich bald preislich über dem 5700G eindornen, weil AMD an dessen Verkauf kein Interesse mehr haben dürfte: hat Lisa Su nicht gesagt, dass die Chiplet-based CPUs kostenmäßig unterhalb 300$ keinen Sinn mehr machen, und dass man für den sub-300$-Markt weiterhin monolithische Dice <200mm² braucht? Der 5600G ist heute schon günstiger als der 5600X und der 5700G wird das vermutlich auch bald sein, wohl eher weil der 5600X knapper und teurer werden könnte.

Nightspider
2022-01-30, 16:55:59
Scheiß doch auf Sortierung der Tabelle.

Der V-Cache zeigt sein Potential eh nur in einem bestimmten Teil aller Anwendungen.

Somit ist eine eineindeutige, immer korrekte, Einordnung gar nicht möglich.

Mal wird der 5950X vorne liegen. Mal wird der 5800X3D alle anderen platt machen.

Ex3cut3r
2022-01-30, 16:57:55
Stand jetzt ist der 3DCache Variante von AMD schon ein bisschen hoffnungslos, nur ein Modell. Wohl Sau teuer. Scheint anscheinend stand jetzt gar nicht so viel zu bringen, dazu eine Takt Reduzierung. AlderLake sehe ich meilenweit voraus im Moment. Zen 4 ist noch weit weg. Sieht schlecht aus. Was hat AMD seit Zen 3 gemacht? Ist immerhin schon 1,5 Jahre her. Dazu immer noch keine Preissenkung bestehender Zen 3 Modelle....quasi ein Offenbarungseid....Wer soll bei einem Neukauf stand heute, noch auf AMD Prozessoren setzen? Mir ein Rätsel was AMD sich denkt.

Nightspider
2022-01-30, 17:01:38
Wie oft willst du noch wegen einer fehlenden Preissenkung herumheulen?

AMD verkauft alles was sie produzieren.

Sie sind nicht die Wohlfahrt.

Zen4 ist nicht weit weg. Wird wahrscheinlich schon in 4-5 Monaten an erste Kunden im HPC Segment ausgeliefert, so wie bei Zen2 und Zen3.
In rund 7-9 Monaten dann für uns Endkunden.

Wie kommst du darauf das V-Cache nicht viel bringen würde?

Nach wie vor gilt immernoch:

https://bilder.pcwelt.de/4299699_950x475.jpg

Und man kann davon ausgehen das es Extremsituationen gibt wo es noch mehr bringt. Die muss man erstmal suchen.

Ex3cut3r
2022-01-30, 17:09:21
Bis Sie nun mal billiger werden :biggrin:

Marketing Folien nehme ich nicht ernst, egal ob AMD, Intel, oder Nvidia. Sollte eigentlich auch keiner.

Man Gefühl sagt mir, die 3DCache Variante ist momentan so ein "Strohhalm" von AMD, weil Zen 4 doch länger weg ist, als viele glauben mögen. Warum sollte man sonst 3-4 Monate vor Zen4, wie du es sagst, ein 3DCache dazwischen schieben? Macht IMO kein Sinn, vor allem wenn die 3DCache Variante sehr teuer zu produzieren ist.

AMD hat eindeutig Probleme. Mit einem Comeback der blauen, habe Sie anscheinend überhaupt nicht gerechnet. Ok, kann passieren. Aber dann senkt man normalerweise die Preise, wurde jeder so machen. Aber AMD hat sich auch verändert, siehe 6500XT, die machen Sachen momentan, die kann eigentlich kein gesund denkender Mensch nachvollziehen.

Nightspider
2022-01-30, 17:14:08
Zum einen kann man den Markt testen, zum anderen müssen die Produktionswege geschaffen, getestet und halbwegs ausgelastet werden damit man in Zukunft nochmehr auf diese Packacking-Methoden setzen kann.

Eventuell hat AMD da auch Verträge mit TSMC. Sie forschen und entwickeln ja auch zusammen.
Wenn AMD der erste Partner ist, der das nutzt und auch auslastet, dann profitieren beide davon.

Irgendwann muss man ja mal anfangen, obwohl im HPC Segment sicherlich auch schon der Markt vorhanden ist. Zweigleisig fahren ist immer eine gute Entscheidung.

Und AMD bleibt im Gespräch, wenn sie jetzt Zen3D bringen und dann Zen4 in diesem Jahr.
Dazu noch Threadripper 5XXX, Rembrandt, Genoa und vor allem RDNA3.

Good news means good sells.



Marketing Folien nehme ich nicht ernst, egal ob AMD, Intel, oder Nvidia. Sollte eigentlich auch keiner.

Musst du ja auch nicht aber dann kannst du auch nicht sowas faseln wie "es scheint es bringt nicht viel".

Proof it or shut up. ;)

Thunder99
2022-01-30, 17:18:27
Dennoch ist die CPU interessant wenn man vorher ein Zen2 3600 besitzt :) Bin gespannt wann es auf dem Markt kommt und was es dann kostet

robbitop
2022-01-30, 17:19:54
Zen 3 kam 1 Jahr vor ADL. Als wenn es dann noch beeindruckend wäre schneller zu sein. Laut CB Rating zwischen 6-8% schneller in Games und in Anwendungen 9% langsamer. Für 1 Jahr Vorsprung nicht beeindruckend. Insbesondere wenn man bedenkt, dass Intel locker 10x so viel Ressourcen und Budget zur Verfügung hat.

Was AMD bislang gemacht hat? Zen 4 und 5 entwickeln.

Thunder99
2022-01-30, 17:27:43
Zen 3 kam 1 Jahr vor ADL. Als wenn es dann noch beeindruckend wäre schneller zu sein. Laut CB Rating zwischen 6-8% schneller in Games und in Anwendungen 9% langsamer. Für 1 Jahr Vorsprung nicht beeindruckend. Insbesondere wenn man bedenkt, dass Intel locker 10x so viel Ressourcen und Budget zur Verfügung hat.

Was AMD bislang gemacht hat? Zen 4 und 5 entwickeln.
Als letzte Ausbaustufe für die AM4 Plattform dennoch interessant :)

Linmoum
2022-01-30, 17:34:21
Ich hätte auch gerne das, was Exe zu rauchen scheint. :freak: ADL ist schon jetzt nur rund 10% in Spielen vorne - und das ein Jahr (!!) später als Zen3. Das ist nicht beeindruckend. Und dass mehr Cache gerade in Spielen größere Performancegewinne bringen wird, ist nun keine bahnbrechend neue Erkenntnis, die man erst abzuwarten braucht.

Und zu denken, dass V-Cache einzig für den 5800X3D erfunden wurde, ist auch ziemlich naiv. Liest sich nämlich irgendwie so bei dir. Dass Ding kommt mit Zen3, weil AMD das damals in der Entwicklung (also weit, weit, weit schon vor 2019) eingeplant hat und weil neue Technologie immer irgendwo den Anfang machen muss. Und, weil 3D-Stacking die Zukunft gehört, nicht nur bei CPUs.

AffenJack
2022-01-30, 17:43:07
Man Gefühl sagt mir, die 3DCache Variante ist momentan so ein "Strohhalm" von AMD, weil Zen 4 doch länger weg ist, als viele glauben mögen. Warum sollte man sonst 3-4 Monate vor Zen4, wie du es sagst, ein 3DCache dazwischen schieben? Macht IMO kein Sinn, vor allem wenn die 3DCache Variante sehr teuer zu produzieren ist.


Der Sinn ist ganz einfach. Das Ding ist hauptsächlich erstmal ein Stacking Testchip in Massenproduktion. Damit lernt man schon eine Menge über die Kinderkrankheiten von TSMCs SoIC Verfahren zum Stacken für Zen4 und RDNA3.
Bei der Massenproduktion von etwas so neuartigen können immer wieder Sachen auftauchen, die in Kleinserie fürs Labor nicht zu sehen sind.

Ex3cut3r
2022-01-30, 18:11:58
Ich hätte auch gerne das, was Exe zu rauchen scheint. :freak: ADL ist schon jetzt nur rund 10% in Spielen vorne - und das ein Jahr (!!) später als Zen3. Das ist nicht beeindruckend. Und dass mehr Cache gerade in Spielen größere Performancegewinne bringen wird, ist nun keine bahnbrechend neue Erkenntnis, die man erst abzuwarten braucht.

Und zu denken, dass V-Cache einzig für den 5800X3D erfunden wurde, ist auch ziemlich naiv. Liest sich nämlich irgendwie so bei dir. Dass Ding kommt mit Zen3, weil AMD das damals in der Entwicklung (also weit, weit, weit schon vor 2019) eingeplant hat und weil neue Technologie immer irgendwo den Anfang machen muss. Und, weil 3D-Stacking die Zukunft gehört, nicht nur bei CPUs.


Und möchte mal deinen gesponserten AMD Schnapps trinken.

Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.

Warum sollte man als Spieler bei einem neukauf einen Zen 3 setzen? Das muss man schon der übelste Fanboy sein.

PCIe 5.0 vs 4.0

X570 und B550 Tote plattform. Zen 4 bekommt einen neuen Sockel.
Z690 bekommst wenigstens noch Raptor.

Thunder99
2022-01-30, 18:13:59
Und möchte mal deinen gesponserten AMD Schnapps trinken.

Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.

Warum sollte man als Spieler bei einem neukauf einen Zen 3 setzen? Das muss man schon der übelste Fanboy sein.

PCIe 5.0 vs 4.0

X570 und B550 Tote plattform. Zen 4 bekommt einen neuen Sockel.
Z690 bekommst wenigstens noch Raptor.
Und ein 5600X ist schneller und sparsamer als ein 12400 ;)

Der_Korken
2022-01-30, 18:18:39
Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.

Und die dicken Threadrippers und Epycs mit 64 Kernen sehen gegen der 6-Kerner von Intel auch keinen Stich. Au Backe, AMD kann den Laden echt dicht machen, wer soll von denen überhaupt noch CPUs kaufen?

Nightspider
2022-01-30, 18:20:24
Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.

Warum sollte man als Spieler bei einem neukauf einen Zen 3 setzen? Das muss man schon der übelste Fanboy sein.


Und der kleinste Zen4 wird den 12900K in Spielen platt machen. Welcome to the tech world.

Zen3 muss man jetzt nicht mehr kaufen aber da die Nachfrage generell nach Computern ungebrochen hoch ist verkauft sich Zen3 auch so noch gut.

Eben auch weil ADL jetzt nicht unweit vorne liegt.

aufkrawall
2022-01-30, 18:26:25
Und ein 5600X ist schneller und sparsamer als ein 12400 ;)
Der 5600X verbraucht in Spielen mehr, wird unter Volllast viel heißer und das mit schneller würd ich mit gutem RAM auch sehr bezweifeln. Bei Anwendungen sowieso nicht.
Der 5600X lässt sich besser mit Billig-RAM betreiben und <150€ können manche Boards eine bessere Ausstattung bieten (dafür aber potenziell immer noch mit USB-Problemen). Ich finde das trotzdem nicht attraktiv. Da kann man auch gleich den 11400F kaufen, bleibt bei doppeltem Verbrauch kühler zum fast halben Preis. :freak:

Nightspider
2022-01-30, 18:28:48
Das mit USB kann aber auch am Board gelegen haben.

Hatte auch schon mal ein günstiges Am4 Board gekauft das sich am Ende als scheiße herausgestellt hat.

Savay
2022-01-30, 18:28:56
Was habt ihr nur ständig mit den Temperaturen?! :freak:

Das mit USB kann aber auch am Board gelegen haben.

Hatte bisher auch noch keinen nennenswerten Probleme.
Aber auch noch kein VR Headset an der Kiste.

Au Backe, AMD kann den Laden echt dicht machen, wer soll von denen überhaupt noch CPUs kaufen?

Ja, am besten melden die morgen direkt die Insolvenz an und verkaufen Exe noch schnell ne CPU zum reinen Selbstkostenpreis, bevor der Rest aufgrund mangelnden Interesses in die Presse wandert. :cool:

Linmoum
2022-01-30, 18:38:26
Schon einer der kleinsten AlderLake Prozessor, nämlich der 12600k haut den 5950X der übrigens viel teuer ist, in Spielen um 20% weg.https://i.gyazo.com/a630c03e24a691abe21a4474b92ef4b0.png
in Spielen um 20% weg.
Und möchte mal deinen gesponserten AMD Schnapps trinken.

:facepalm:

aufkrawall
2022-01-30, 18:46:09
Das mit USB kann aber auch am Board gelegen haben.

Das Board kann sicherlich eine Rolle spielen, nur dürften solche Probleme mit Intel trotzdem deutlich unwahrscheinlicher sein.

Was habt ihr nur ständig mit den Temperaturen?! :freak:

Bro hat schon mehrfach WLP getauscht, fest neuverschraubt etc., trotzdem fahren die Lüfter am Mugen x mit dem 5600X bei Allcore-Last und ~80°C ständig hörbar rauf. Will gar nicht wissen, wie das mit dem 5800X (oder 5800X3D :eek: ) wäre. Da hat man von der besseren Effizienz eigentlich gar nichts, lauter als die Saufziege Rocket Lake...

ryan
2022-01-30, 18:46:28
Und ein 5600X ist schneller und sparsamer als ein 12400 ;)


Die Tests können das nicht bestätigen, außer du redest von Promilledifferenzen in ausgesuchten Tests. Das ist für mich ein Gleichstand, die beiden CPUs nehmen sich nichts. Nur dass der 5600x eben 85€ mehr kostet.