Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 5 (3/4 nm, 2024)
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
[
16]
17
18
19
20
21
Zossel
2024-09-19, 16:26:18
Hieß es nicht im frühen Sommer, dass die X3D schon Ende September kommen könnten? Oder hat sich das wieder alles mal auf den Januar und die CES verschoben?
Irgendwelche Onkels im Internet erzählen viel wenn der Tag lang ist.
RitterRost
2024-09-19, 22:09:17
Unter Linux sieht die Performance vom neuen BIOS mit den niedrigeren Latenzen nicht so überzeugend aus...
Scheint doch sehr auf die Anwendung anzukommen.
https://www.phoronix.com/review/amd-9950x-agesa-1202
fondness
2024-09-20, 10:27:36
https://i.postimg.cc/PqgP0f4T/AMD-RYZENAI-MAX-STRIX-HALO-SERIES.png (https://postimages.org/)
https://weibo.com/3219724922/OxQViq3ja
Unter Linux sieht die Performance vom neuen BIOS mit den niedrigeren Latenzen nicht so überzeugend aus...
Scheint doch sehr auf die Anwendung anzukommen.
https://www.phoronix.com/review/amd-9950x-agesa-1202
Also irgendwie solltest du an deiner Erwartungshaltung mal arbeiten. Das sind für ein Bugfix schon ziemlich gute Performancegewinne...
dildo4u
2024-09-20, 10:38:52
Den ganzen Test lesen nicht alles wird schneller was dazu führt das im Schnitt beides Gleich schnell ist.
mksn7
2024-09-20, 10:53:15
Das ist auch kein Bugfix, sondern ein tweak. Da wurde nur an Parametern gedreht. Das ist immer ein tradeoff, man sieht ja, manches wird schneller, manches langsamer.
Weil es insbesondere in den latency testern so schlecht aussah, hat sich AMD halt dazu hinreißen lassen eine leicht andere Konfiguration zu verwenden, die insgesamt nicht eindeutig schlechter ist, aber in diesen micro benchmarks besser aussieht.
Glaub ich nicht. Das wird schon ein Bugfix sein.
mocad_tom
2024-09-20, 11:08:16
In Agesa 1.2.0.2 steckt ja auch Agesa 1.2.0.1 drin und mit diesem wurde Sinkclose repariert.
1.2.0.1 wurde zwar von AMD veröffentlicht, es kam aber so nicht in die Mainboards rein, stattdessen haben die Hersteller gewartet, bis jetzt 1.2.0.2 rauskommt und man geht gleich auf diese Version.
MSABK
2024-09-20, 11:13:00
https://i.postimg.cc/PqgP0f4T/AMD-RYZENAI-MAX-STRIX-HALO-SERIES.png (https://postimages.org/)
https://weibo.com/3219724922/OxQViq3ja
Wird ein geiler Chip. Bin echt auf die Preise gespannt.
mksn7
2024-09-20, 11:26:03
Glaub ich nicht. Das wird schon ein Bugfix sein.
Some interesting information was also shared by the author of the Y-Cruncher benchmark who states that the latency issues were due to a change in the tuning parameters for Zen 5. Changes were made as they were showing results in the workloads tested by the engineering team but in synthetic benchmarks, they showcased bad results which is why AMD is now reversing its decision and rolling out this new patch.
Macht mehr Sinn für mich. Einen größeren Bug, der anscheinend auch schnell und vollständig gefixed werden kann, hat man nicht einfach so rumliegen.
Zossel
2024-09-20, 11:26:50
Wird ein geiler Chip. Bin echt auf die Preise gespannt.
Ich werfe noch mal die Frage in den ob AMD das GPU-Chiplet auch für diskrete GPUs nutzen wird.
dildo4u
2024-09-20, 11:36:45
Wird ein geiler Chip. Bin echt auf die Preise gespannt.
Unbezahlbar da die "billigste" Option über 32GB Vram zu bekommen.
fondness
2024-09-20, 11:37:36
Ich werfe noch mal die Frage in den ob AMD das GPU-Chiplet auch für diskrete GPUs nutzen wird.
Vermutlich zu teuer, gerade in diesem kostensensiblen Preisbereich. I/O, NPU und Infinity Fabrics dürften doch eine wesentlichen Teil des Dies einnehmen. Dafür hat man N44.
Unbezahlbar da die "billigste" Option über 32GB Vram zu bekommen.
LOL, weniger macht auch keinen Sinn, da es mindestens 8GB für die GPU braucht.
dildo4u
2024-09-20, 11:40:20
Ich dachte Ally X spielt jetzt alles im 24GB.
Avatar macht Probleme mit 16GB.
Strix soll angeblich 2X Hawkpoint kosten.
https://videocardz.com/newz/gpd-confirms-amd-strix-point-zen5-apus-cost-twice-as-much-as-hawk-point-with-zen4
fondness
2024-09-20, 12:03:53
Ich dachte Ally X spielt jetzt alles im 24GB.
Avatar macht Probleme mit 16GB.
Strix soll angeblich 2X Hawkpoint kosten.
https://videocardz.com/newz/gpd-confirms-amd-strix-point-zen5-apus-cost-twice-as-much-as-hawk-point-with-zen4
Die gpu in Strix halo ist auch "ein wenig" größer als in Strix.
MSABK
2024-09-20, 12:03:58
Ich dachte Ally X spielt jetzt alles im 24GB.
Avatar macht Probleme mit 16GB.
Strix soll angeblich 2X Hawkpoint kosten.
https://videocardz.com/newz/gpd-confirms-amd-strix-point-zen5-apus-cost-twice-as-much-as-hawk-point-with-zen4
Den mobilen Bereich von Amd kann man eh glaub als gescheitert sehen. Amd zeigt da 0 Herzblut und ist auch nicht interessiert. Sieht man ja an den Beschwerden der Hersteller. Strix Point ist in wenigen Designs und das wird sich auch nicht groß bessern mMn.
MSABK
2024-09-20, 12:04:31
Die gpu in Strix halo ist auch "ein wenig" größer als in Strix.
Da geht es aber nur um Strix Point.
fondness
2024-09-20, 12:19:18
Da geht es aber nur um Strix Point.
Der Kontext war, dass es erst ab 32gb für Strix halo geben wird. Bei Strix gibt es eh auch weniger.
Der Kontext war, dass es erst ab 32gb für Strix halo geben wird. Bei Strix gibt es eh auch weniger.
HX370 kostet mehr als doppelt so viel wie der 8840, das ist der Kontext. RAM Mengen sind gar nicht inbegriffen.
fondness
2024-09-20, 13:15:16
HX370 kostet mehr als doppelt so viel wie der 8840, das ist der Kontext. RAM Mengen sind gar nicht inbegriffen.
Der Ursprungspost bezog sich auf die 32GB RAM, darauf habe ich geantwortet.
fondness
2024-09-21, 11:27:37
Erster Strix Halo Laptop:
https://videocardz.com/newz/hp-to-launch-14-inch-laptop-with-amd-ryzen-ai-max-390-strix-halo-apu
OgrEGT
2024-09-21, 11:41:37
Hmm... 8C+40CUs SKU gibt es dann wohl nicht oder dann als AI Max 387.5...
dildo4u
2024-09-21, 11:44:56
Wären das nicht nur 4 P-Cores?
Ich denke 4-Pcores mit 32CU ist ok für Midrange Modell.
Ich würde selbst mit einer 4060 ein Ryzen 5 6 Core nutzen nicht weniger.
memory_stick
2024-09-21, 12:44:10
Strix Halo ist noch unklar wie die zen5 und zen5c cores verteilt sind, oder ob es überhaupt zen5c cores gibt. Bei 12c ist die chance aber höher imho das es mind 8 Zen5 cores sind (1 chiplet)
P/E cores ist intel nomenklatur, Zen5c ist genauso P wie Zen5
fondness
2024-09-21, 12:47:54
Strix Halo ist noch unklar wie die zen5 und zen5c cores verteilt sind, oder ob es überhaupt zen5c cores gibt. Bei 12c ist die chance aber höher imho das es mind 8 Zen5 cores sind (1 chiplet)
P/E cores ist intel nomenklatur, Zen5c ist genauso P wie Zen5
Aktuell spricht alles für ausschließlich p cores.
robbitop
2024-09-21, 12:47:54
Strix Halo ist noch unklar wie die zen5 und zen5c cores verteilt sind, oder ob es überhaupt zen5c cores gibt. Bei 12c ist die chance aber höher imho das es mind 8 Zen5 cores sind (1 chiplet)
P/E cores ist intel nomenklatur, Zen5c ist genauso P wie Zen5
Die Gerüchte besagten, dass Halo die normalen Zen 5 CCDs mit 8C aus dem Desktop bekommen.
fondness
2024-09-21, 12:48:32
Haha, auf die Sekunde gleich ;-)
basix
2024-09-21, 15:01:47
Bei Strix Halo gibt es noch Gerüchte um 4x zusätzliche Low-Power Zen 5c Kerne auf dem IO/GPU-Chiplet. Ähnlich wie bei Intel Meteor Lake & Lunar Lake. Halt für Idle/Browsing/Office Zeugs wo man nicht volle Leistung benötigt und damit die Akku-Laufzeit erhöhen kann.
Fusion_Power
2024-09-21, 15:35:59
Wird ein geiler Chip. Bin echt auf die Preise gespannt.
Ich auch. der "kleine" Ryzen AI Max 385 mit seinen 32CU würde mir vollkommen reichen. Hoffe der ist dann auch preislich attraktiv genug. Das Ding in nem 16" Laptop mit gescheiter Kühlung wäre so gut wie gekauft.
MSABK
2024-09-21, 16:30:23
Vor allem muss AMD mal die Stückzahlen erhöhen. Ist aktuell ein Trauerspiel und man hat den Markt komplett Intel überlasssen.
mboeller
2024-09-21, 17:02:13
Die Gerüchte besagten, dass Halo die normalen Zen 5 CCDs mit 8C aus dem Desktop bekommen.
Ich hoffe doch nicht... wenn schon, dann doch bitte die x3D-Varianten.
Das wäre cool (IMHO)
mczak
2024-09-21, 17:29:50
Ich hoffe doch nicht... wenn schon, dann doch bitte die x3D-Varianten.
Das wäre cool (IMHO)
AMD will ja sicher existierende Chiplets dafür verwenden - und da kommen dann eben normale 8-Kern Zen 5 CCDs in Frage. 8-Kern Zen 5c gibt's ja gar nicht. Aber ja prinzipiell sollte das auch mit X3D-Varianten gehen, wäre wohl durchaus sinnvoll (der absolute Spitzentakt ist ja in mobilen Geräten eh wenig sinnvoll, da würde man also nicht so viel verlieren).
Ich habe allerdings Bedenken bezüglich Stromverbrauchs gegenüber diesem Design - dass damit akzeptable Batterielaufzeiten erzielt werden können muss AMD erst beweisen. Klar unter Volllast säuft auch ein M3 Max, aber bei wenig Last ist der fast so genügsam wie ein M3. Und ja die Gerüchte sprechen nicht umsonst von 4 Zen 5c Kernen im Base-Die, das sollte da helfen.
Würde ich den Chip bauen würde ich stattdessen bloss ein normales 8-Kern Zen5 CCD verwenden und dafür einfach noch ein 8 Zen 5c CCX (mit 16 MB L3?) direkt ins Base-Die integrieren. Wenn man eh schon LP-Kerne im Base-Die verbaut kann man auch gleich einen kompletten Cluster verbauen, der Flächenunterschied wäre nicht wirklich gross und das wäre Performance-mässig doch mehr als genügend (auch ein M3 Max hat nur 12 HP Kerne (neben 4 sparsamen)). Aber mich fragt ja keiner :smile:.
iamthebear
2024-09-21, 19:32:56
Strix Halo wird was die GPU Performance angeht deutlich unter der PS5 Pro liegen und dort ist ein gammeliger Zen 2 verbaut.
Ich denke für die Klasse ist Vanilla Zen5 vollkommen ausreichend. X3D wäre Overkill. Da wäre es eher sinnvoller der GPU 64MB mehr IF$ zu spendieren. Die braucht es dringender.
robbitop
2024-09-21, 19:38:11
Dass eine Laptop GPU (der höchstens Mittelklasse) einer ganz neuen Pro Konsole unterliegt ist ja nicht wirklich ungewöhnlich.
iamthebear
2024-09-21, 20:29:43
Der Punkt ist:
Mit der GPU Performance von Strix Halo wird man sowieso kaum über 60fps hinaus kommen.
Welches Sinn macht es also eine Zen5X3D CPU zu verbauen die 120fps+ liefern kann. Die CPU wird nicht der Flaschenhals sein.
Wenn man ein Desktopsystem mit einer RTX 4080 oder ähnliches hat dann macht ein X3D natürlich Sinn aber ncht mit einer Entry Level GPU die man nicht upgraden kann.
fondness
2024-09-21, 20:51:08
Der Punkt ist:
Mit der GPU Performance von Strix Halo wird man sowieso kaum über 60fps hinaus kommen.
Welches Sinn macht es also eine Zen5X3D CPU zu verbauen die 120fps+ liefern kann. Die CPU wird nicht der Flaschenhals sein.
Wenn man ein Desktopsystem mit einer RTX 4080 oder ähnliches hat dann macht ein X3D natürlich Sinn aber ncht mit einer Entry Level GPU die man nicht upgraden kann.
Mehr Cache bringt auch perf/Watt. Das kann man mobil immer brauchen.
iamthebear
2024-09-21, 20:58:09
Die CPU tiefer takten bringt Performance/Watt. Man darf hier nicht den 7700X als Vergleichsbasis hernehmen. So hoch wird kaum eine Mobile APU takten. Vermutlich wird der Takt sogar auf sehr gemütliche 3GHz abgesenkt werden damit mehr TDP für die GPU da ist.
fondness
2024-09-21, 21:02:14
Die CPU tiefer takten bringt Performance/Watt. Man darf hier nicht den 7700X als Vergleichsbasis hernehmen. So hoch wird kaum eine Mobile APU takten. Vermutlich wird der Takt sogar auf sehr gemütliche 3GHz abgesenkt werden damit mehr TDP für die GPU da ist.
Auch weniger Speicherzugriffe spart Strom. Und wenn ich wesentlich mehr Performance pro takt habe, kann ich eben noch niedriger takten ;-). Dasselbe Phänomen haben wir ja auch im Desktop.
Nightspider
2024-09-21, 21:37:25
Wenn die CPU 15-20 Watt effizienter in Games läuft dank V-Cache dann können der GPU eben diese 15-20 Watt zusätzlich bereitgestellt werden.
Das es Strix Halo nicht in einer 8C+40CU Konfiguration geben soll, finde ich mehr als schade.
Ich hoffe es kommt noch eine 8C+V-Cache + 40CU Variante kurze Zeit später.
basix
2024-09-22, 08:37:56
Anstatt V-Cache könnte man einfach die CPU auf <4 GHz drosseln. Das wird in den meisten Games immer noch locker reichen ;) Mobile hat eh ein komplett anderes Power-Management, da die Energie zwischen CPU und GPU hin und her geschoben wird. Man kann anhand der Performance-Counter ja rausfinden, wie oft man CPU limitiert ist. Hier wäre das Ziel 0% bei gleichzeitig minimiertem CPU-Takt. Die CPU wird aufs nötigste gedrosselt. Bei V-Cache gewinnst du noch was, sicher, aber so viel vermutlich nicht mehr wenn die CPU bereits stark gedrosselt ist.
Ich tippe darauf, dass die 8C + 32CU Version bei Gaming die sinnvollste Lösung ist und vermutlich auch nicht viel langsamer ist als die 40CU Varianten. Die anderen sind eher was für Mobile Workstations. Aber vielleicht wird noch eine Variante mit 8C + V-Cache + 40CU nachgeschoben.
z.B. 5W mehr auf der GPU macht bei 120W Package TDP nicht mehr viel aus. Seht euch Strix Point an, dort gewinnt man von 30 -> 50W gerade mal +15% (https://www.computerbase.de/2024-09/strix-point-gaming-benchmarks/). Hier ist man stark im Bandbreitenlimit, das wird bei Strix Halo aufgrund der 32MByte Infinity Cache besser aussehen. Allerdings sieht man bei den 50W Benchmarks auch, dass die GPU bereits mit 2.8...2.9 GHz läuft. Das auf Strix Halo extrapoliert heisst, dass man bei ~120W GPU Power am Maximaltakt anschlagen sollte. Jetzt haben wir da einen ungeklärten Punkt: Wie hoch ist der Verbrauch der CPU. Ich habe einige Benches durchgeschaut, aber dort war nicht ersichtlich ob das die "GPU Power" die SoC Power war oder nicht. Ich vermute, dass es jeweils die SoC Power war (relativ stark variierende GPU Taktraten, doch Verbrauch blieb ziemlich stabil).
Gibt es irgendwo Tests, wo die GPU Power separat aufgezeichnet wurde? Oder kann man das bei Strix gar nicht? Bei den Benches die ich angeschaut habe, war man bei ca. 60W SoC Power in Games, wenn die GPU nahe am Maximaltakt lief. Wären ~10W für die CPU in vielen Spielen. Ist das Game CPU heavy (40% anstatt 20% CPU Load), sank der GPU-Takt auf ~2.5 GHz. V-Cache würde also vor allem in solchen Szenarien einen relevanten Vorteil bieten, wenn die CPU stärker belastet wird. Ob das unter dem Strich dann so viel ausmacht? Ich weiss nicht.
robbitop
2024-09-22, 08:53:51
Naja aber dennoch hat fondness da schon recht. Mit VCache wird es noch sparsamer weil weniger externe RAM Zugriffe und weil taktnormiert schneller-> performancenormiert weniger Takt nötig -> energieeffizienter.
Aber kostet natürlich
basix
2024-09-22, 09:01:46
Das man etwas gewinnt ist klar. Wenn es aber nur sehr wenig ist, lohnt es sich halt nicht. Um das zu beurteilen fehlt uns aber die Datengrundlage.
][immy
2024-09-22, 09:33:00
Naja aber dennoch hat fondness da schon recht. Mit VCache wird es noch sparsamer weil weniger externe RAM Zugriffe und weil taktnormiert schneller-> performancenormiert weniger Takt nötig -> energieeffizienter.
Aber kostet natürlich
Sparsamer nicht unbedingt, denn gleichzeitig kann mehr Arbeit verrichtet werden (weniger Pausen). Aber ja die bisherigen x3d Zen CPUs sind im Vergleich ziemlich sparsam.
Ob man sich dadurch jedoch spürbar vom 7800x3d absetzen kann... da bin ich eher skeptisch. Denn auch wenn die Sprungvorhersage verbessert wurde, gerade die hat mit einem größeren Cache ja deutlich an Wichtigkeit verloren. Ich würde mich hier auf ähnliche Werte wie bei den non3d CPUs vorbereiten.
Kann natürlich sein, das man die CPU mit dem großen Cache im Hintergrund designed hat und ihn aktinur weggelassen hat...
robbitop
2024-09-22, 09:38:02
Das man etwas gewinnt ist klar. Wenn es aber nur sehr wenig ist, lohnt es sich halt nicht. Um das zu beurteilen fehlt uns aber die Datengrundlage.
Naja die könnte man schon einfach ermitteln mit einem X3D und einem vanilla. Und dann schauen, wie sehr man runterkommt. Ich hab nen 5800X3D - wenn jemand einen X hat kann man ja mal testen.
Aber gewisse Dinge wissen wir auch ohne: im Spieleindex bringt X3D grob 15-20%*. Bei grob 10% niedrigerem Takt vs dem normalen X. Heißt man kann leistungsnormiert grob 30% weniger takten. Und das führt (wenn man die gleiche voltage braucht) immerhin bereits zu 30% weniger Leistungsaufnahme. Sehr wahrscheinlich ist dass man auch weniger voltage braucht. Eine Leistungsaufnahmereduktion von 30%+ ist insofern nicht so unwahrscheinlich.
*Und das im Desktop mit XMP Profilen! Da liegt man bei den X CPUs bei 6x ns RAM Latency. Im Notebook liegt man sehr oft bei 110+ ns. (warum auch immer da so trotzige Timings sind). Da kann der impact von x3d potentiell noch höher ausfallen
basix
2024-09-22, 09:53:12
Ja klar, nur was sind 30% oder gar 50% bei 10W? Eben, nicht viel. Wir müssten den absoluten Verbrauch der CPU zuerst kennen um hier bei der Diskussion weiter zu kommen.
fondness
2024-09-22, 10:06:17
Ja klar, nur was sind 30% oder gar 50% bei 10W? Eben, nicht viel. Wir müssten den absoluten Verbrauch der CPU zuerst kennen um hier bei der Diskussion weiter zu kommen.
Du operierst bei einem mobilen SoC sobald Last anliegt in der Regel am TDP-Limit. Jedes Watt das du bei der CPU sparst kannst du zB für mehr GPU-Leistung verwenden. Und selbst ein Watt ist viel, es werden enorme Aufwände betrieben um weit weniger zu sparen. Sonst wäre es auch nicht möglich einen SoC wie zB Strix mit 12 Zen5 Cores, 16 RDNA35 CUs, 50 TOPs NPU, allen möglichen I/O zB mit 15W zu betreiben. Und bei 15W ist ein Watt mehr immerhin 6.6%.
Zossel
2024-09-22, 10:10:08
*Und das im Desktop mit XMP Profilen! Da liegt man bei den X CPUs bei 6x ns RAM Latency. Im Notebook liegt man sehr oft bei 110+ ns. (warum auch immer da so trotzige Timings sind). Da kann der impact von x3d potentiell noch höher ausfallen
Wer will sich schon die Kosten für die Rückläufer ans Bein binden?
basix
2024-09-22, 12:12:30
Du operierst bei einem mobilen SoC sobald Last anliegt in der Regel am TDP-Limit. Jedes Watt das du bei der CPU sparst kannst du zB für mehr GPU-Leistung verwenden. Und selbst ein Watt ist viel, es werden enorme Aufwände betrieben um weit weniger zu sparen. Sonst wäre es auch nicht möglich einen SoC wie zB Strix mit 12 Zen5 Cores, 16 RDNA35 CUs, 50 TOPs NPU, allen möglichen I/O zB mit 15W zu betreiben. Und bei 15W ist ein Watt mehr immerhin 6.6%.
Wir reden hier aber von Strix Halo mit deutlich mehr TDP und was für die GPU übrig bleibt. Dann sind 1W faktisch egal und sobald die GPU in der Nähe des oberen Taktlimits operiert sind auch 5W oder gar 10W irgendwann mal vernachlässigbar (ja sind evtl. 5% mehr Power für die GPU aber evtl. nur 1-2% mehr Performance). Ja, V-Cache würde was bringen aber im Verhältnis zu den Mehrkosten wäre es halt nicht unbedingt sinnvoll. V-Cache bringt nur was, wenn der Verbrauch der CPU wirklich drastisch sinken würde (in absoluten Zahlen vs. den GPU-Verbrauch; nicht die relativen Zahlen) und genau das bezweifle ich, wenn man die CPU eh schon stark drosselt (auf den für die Performance nötigen Takt)
Nightspider
2024-09-22, 13:20:47
Es gibt halt auch Spiele wie Anno oder Flight Simulator, wo du nicht genug CPU Leistung bekommen kannst.
Wenn eine V-Cache CPU dann >>30% effizienter läuft dürfte man das schon merken.
Oder Multiplayer Spiele, wo man die Grafik reduziert um mit 120fps spielen zu können und wo die CPU limitiert.
Und die normalen Zen5 Chiplets dürften noch stärker vom LPDDR5 ausgebremst werden, wegen der Latenzen.
Laut PCGH ist der 7800X3D schon knapp doppelt so effizient wie der 7700X und mit etwas Optimierung und durch Verlust von 13% Leistung lässt sich die Effizienz fast nochmal verdoppeln und Richtung Faktor 4 bekommen. (24 Watt Verbrauch im Spiel! unter Volllast!)
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Videos/Ryzen-7-7800X3D-1435044/
Laut Igor braucht der 7700X @ stock 41% mehr Leistung pro Frame unter 4K !
https://www.igorslab.de/wp-content/uploads/2023/04/35-UHD-Efficiency.png
Techpowerup kam auf 60% mit einem simulierten 7800X3D:
https://cdn.wccftech.com/wp-content/uploads/2023/02/AMD-Ryzen-7-7800X3D-3D-V-Cache-CPU-Simulated-Gaming-Benchmarks-_-Ryzen-9-7950X3D-_-TechPowerUP-_1.png
robbitop
2024-09-22, 14:20:10
Ja klar, nur was sind 30% oder gar 50% bei 10W? Eben, nicht viel. Wir müssten den absoluten Verbrauch der CPU zuerst kennen um hier bei der Diskussion weiter zu kommen.
Gilt zwar nicht für Strix Halo aber genau sowas würde ich mir für eine 15W APU wünschen. Da ist jedes Watt goldwert in Performance oder performancenormierter Akkulaufzeit.
Bei Halo ist das natürlich anders. Aber: bei den Desktop 8c CCDs glaube ich fast nicht an nur 10W für die CPU. ;) Auch im Teillast nicht.
basix
2024-09-22, 14:29:56
Auch Cache benötigt Saft. Kann sein, dass man bei +64MByte V-Cache am Schluss mehr Saft für den Cache spendieren muss als dass man mit einem niedrigeren CPU-Takt was gewinnt. Insbesondere bei so tiefen TDP.
Linmoum
2024-09-22, 14:35:46
Ja, Rückschlüsse von irgendwelchen Desktop-SKUs auf Mobile-SKUs mit (deutlich) niedrige(re)m Powerkorsett zu ziehen, war noch nie sinnvoll. Mobile-SKUs haben logischerweise schon aufgrund ihres Betriebspunktes eine massiv höhere Effizienz als Desktop-Ableger. Die CPU-Performance bei mobilen Geräten mit APU/iGPU ist zu 99% schon hoch genug. Da sollte der Fokus erstmal darauf liegen, dass der GPU-Part seine Performance besser auf die Straße bringt, das ist nämlich das viel größere Problem.
basix
2024-09-22, 15:22:58
Mit Strix Halo sollte das Thema Bandbreite zum grössten Teil gelöst sein ;)
Verglichen zu Strix Point:
- 2.28x Bandbreite (2x Channels, 8533 vs. 7500 LPDDR5X)
- 32MByte IF$ = Bandbreitenmultiplikator von ~1.7x bei 1440p und ~2.3x bei 1080p (anhand Infinity Cache Folien von RDNA2), bei z.B. Nvidias L2 bei Lovelace scheint es sogar nochmals etwas besser zu sein (averaged über 1080p, 1440p und 4K -> Link (https://www.univers-simu.com/wp-content/uploads/2023/05/nvidia-geforce-ada-lovelace-memory-subsystem-performance-and-efficiency-improvements.png))
- Macht effektiv 3.8x...5.2x Bandbreite verglichen zu Strix Point bei 1080p...1440p
Strix Halo hat 2.5x CUs und bei Strix Point ist >1.6GHz Bandbreitenlimit angesagt (z.B. 1.6 -> 2.0 GHz resultieren in +10% Performance, darüber skaliert es fast gar nicht mehr, hier ein Test dazu (https://www.youtube.com/watch?v=6Y9e7Db3ny0)). Nimmt man 2.9GHz bei Strix Halo, dann würde man ~4.5x Bandbreite benötigen. Mit 3.8...5.2x ist man würde ich sagen relativ gut austariert. Ich würde also behaupten, dass Strix Halo nicht oder nur wenig von der Bandbreite limitiert wird, solange man nicht auf 4K Render-Auflösung geht.
Beim Strix Point Nachfolger gibt es mit etwas Glück LPDDR6 mit ~2x Bandbreite. Das würde für eine 16 CU ~3GHz RDNA4/RDNA5 GPU sehr gut passen und die iGPU wäre nicht mehr stark von der Bandbreite ausgebremst. Und ab dann wäre langsam ein 16...32MByte IF$ angesagt, für die Next-Next-APU ;)
memory_stick
2024-09-22, 15:46:54
Zur X3D Diskussion: die Frage ist auch wie / ob der MALL cache da einen ähnlichen Einfluss haben könnte. Natürlich dann als L4 cache aus sicht er CPU und L3 aus Sicht der GPU...
Nightspider
2024-09-22, 15:50:41
Bei Halo ist das natürlich anders. Aber: bei den Desktop 8c CCDs glaube ich fast nicht an nur 10W für die CPU. ;) Auch im Teillast nicht.
Laut Computerbase schluckt der 7700X im Durchschnitt 72 Watt in Games (https://www.computerbase.de/2022-09/amd-ryzen-7950x-7900x-7700x-7600x-test/2/#abschnitt_leistungsaufnahme_in_spielen_ab_werk) und der 7800X3D 60 Watt. (https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/) Dabei ist er laut CB der X3D 21% schneller in den getesteten Spielen.
PCGH hat ihren 7800X3D auf 23 Watt heruntergebracht bei mit 13% Leistungseinbußen aber sie haben auch andere Spiele und Szenarien genutzt.
Ich halte es daher realistisch zu sagen, das man mit der X3D Variante schon mindestens 10-20 Watt sparen kann in CPU hungrigen Spielen bei einer 140W TDP APU im Laptop.
Ganz zu schweigen davon, dass das X3D Chiplet für alle Games schnell genug sein wird, während das normale Zen5 Chiplet in manchen Spielen eben schon an die Grenzen kommen wird mit dem langsamen LPDDR5 Speicher.
Auch Cache benötigt Saft.
Speicherzugriffe auf dem RAM benötigt auch Saft.
robbitop
2024-09-22, 16:19:49
Naja 10W und 23 W sind schon ein fetter Unterschied. Und wenn es das gleiche CCD ist - wo soll Faktor 2 dann noch herkommen?
robbitop
2024-09-22, 16:22:04
Auch Cache benötigt Saft. Kann sein, dass man bei +64MByte V-Cache am Schluss mehr Saft für den Cache spendieren muss als dass man mit einem niedrigeren CPU-Takt was gewinnt. Insbesondere bei so tiefen TDP.
Naja jedes bit aus dem Cache ist billiger als aus dem RAM. Und wenn keine bits gelesen oder geschrieben werden kostet das heutzutage auch kaum noch Energie (power/clock gating). Ich kann mir gut vorstellen, dass das ein Paradigma aus alten Zeiten ist wo obige Mechanismen noch nicht vorhanden waren oder so ausgefuchst waren.
Nightspider
2024-09-22, 16:30:02
Und wenn es das gleiche CCD ist - wo soll Faktor 2 dann noch herkommen?
Ich kann dir nicht folgen. :confused:
robbitop
2024-09-22, 16:40:17
Ich kann dir nicht folgen. :confused:
Du schreibst PCGH erreicht 23W beim 7800X3D und schlussfolgerst dann dass die von mir etwas skeptisch betrachteten 10W demnach drin seien. Oder habe ich jetzt was übersehen? :)
Nightspider
2024-09-22, 16:42:29
Was die PCGH ermittelt hat kannst du alles unter dem Link ansehen, den ich gepostet habe und die 10-20W sind das, was ich vermute, ausgehend von dem was die Desktop Chips in Spielen verbrauchen.
Hier mit timestamp
https://youtu.be/g7gOYg5VqYc?t=589
basix
2024-09-22, 16:51:19
Speicherzugriffe auf dem RAM benötigt auch Saft.
Naja jedes bit aus dem Cache ist billiger als aus dem RAM. Und wenn keine bits gelesen oder geschrieben werden kostet das heutzutage auch kaum noch Energie (power/clock gating). Ich kann mir gut vorstellen, dass das ein Paradigma aus alten Zeiten ist wo obige Mechanismen noch nicht vorhanden waren oder so ausgefuchst waren.
Ja, beim Gaming werden aber vermutlich 90% der DRAM-Zugriffe auf die Kappe der GPU gehen und nicht der CPU. V-Cache oder generell Cache-Segmente kann man evtl. Clock gaten, aber dann braucht es auch den Cache nicht.
Nightspider
2024-09-22, 17:05:30
Trotzdem ist die V-Cache CPU massiv effizienter. Punkt.
robbitop
2024-09-22, 17:08:48
Ja, beim Gaming werden aber vermutlich 90% der DRAM-Zugriffe auf die Kappe der GPU gehen und nicht der CPU. V-Cache oder generell Cache-Segmente kann man evtl. Clock gaten, aber dann braucht es auch den Cache nicht.
Beim Gaming scheint ordentlich der große L3 genutzt zu werden ansonsten gäbe es diesen brutalen Leistungsvorsprung durch den X3D nicht. Bedeutet dass ordentlich gesteigerte Hitrate da ist.
basix
2024-09-22, 20:59:39
Trotzdem ist die V-Cache CPU massiv effizienter. Punkt.
Bestreitet ja niemand. Nur heisst das nicht, dass die Sinnhaftigkeit aus Kosten und Ertrag gegeben ist. Wenn die APU dadurch +10% teurer wird bei +5% Gaming-Performance habe ich nicht gewonnen.
Beim Gaming scheint ordentlich der große L3 genutzt zu werden ansonsten gäbe es diesen brutalen Leistungsvorsprung durch den X3D nicht. Bedeutet dass ordentlich gesteigerte Hitrate da ist.
Ja, nur drosselt die CPU bei den APUs bereits stark. Eine 40 CU RDNA3.5 iGPU ist keine RTX 4090. Und auch bei einer 4090 braucht es meistens keinen 7800X3D, damit die GPU voll ausgelastet wird. Bei 1080p tut ein 7800X3D gut aber das ist wohl auch nicht das Jagdrevier einer 4090. Und Strix Halo ist vermutlich was für knapp ~1440p.
amdfanuwe
2024-09-22, 21:40:33
Bestreitet ja niemand. Nur heisst das nicht, dass die Sinnhaftigkeit aus Kosten und Ertrag gegeben ist. Wenn die APU dadurch +10% teurer wird bei +5% Gaming-Performance habe ich nicht gewonnen.
Mag sein. Nur interessiert das wohl nur wenige. Die meisten lesen Testberichte und sehen X3D CPUs auf den Spitzenplätzen. Zeigen ja auch die Verkaufszahlen. Noch ist 7800X3D die Gaming CPU schlechthin. Und ich kann nicht sehen, dass so viele 4090 verkauft wurden. Da machen sich die wenigsten einen Kopf um die Sinnhaftigkeit ihrer Konfiguration.
Und was machen schon 50-80€ Aufpreis für X3D bei einem Gaming Notebook > 1600€?
Nightspider
2024-09-22, 22:07:55
Wäre ja auch nur eine Option für die Leute, die bereit sind paar Euro mehr dafür auszugeben.
Man müsste vielleicht auch mal Benchmarks abwarten, wie stark Zen5 durch die LPDDR5 Latenzen in Games ausgebremst wird.
Es gibt halt auch Spiele (beispielsweise Strategiespiele), wo 30% mehr CPU Leistung einen großen Unterschied machen.
amdfanuwe
2024-09-22, 23:37:24
Würde sich wohl im gleichem Verhältnis verkaufen wie 7700X zu 7800X3D also ~1:5,5
mboeller
2024-09-23, 11:49:10
Trotzdem ist die V-Cache CPU massiv effizienter. Punkt.
... und damit leiser.
Ob ich 100w od. 120w kühlen muss macht im Notebook schon einen Unterschied.
fondness
2024-09-24, 13:47:53
Der Z2 Extreme kommt offenbar mit 8 Cores (3 Zen5 + 5 Zen5c) 16 RDNA35 CUs und 28W TDP. NPU vermutlich wieder deaktiviert.
https://videocardz.com/newz/amd-ryzen-z2-extreme-might-feature-8-cores
Der Z2 dürfte dann wohl auf Kraken basieren und mit ~ 6 Cores und 8 RDNA35 CUs bei <=15W kommen.
Die APUs werden deshalb keinen VCache haben, weil sie dafür nicht desgint sind. Das wird der ganze Witz bei der Geschichte sein. Das hat überhaupt nichts mit Effizienz zu tun, sondern welche Entscheidungen man bei der Entwicklung getroffen hat vor Jahren.
Nebenher wäre der VCache für APUs witzlos, wenn nicht auch die GPU darauf zugreifen kann, bisher hat keine AMD-APU einen GPU-Zugriff auf den L3$. Ich nehme an, mit Medusa wird sich das alles ändern.
Zossel
2024-09-24, 14:03:50
Nebenher wäre der VCache für APUs witzlos, wenn nicht auch die GPU darauf zugreifen kann, bisher hat keine AMD-APU einen GPU-Zugriff auf den L3$. Ich nehme an, mit Medusa wird sich das alles ändern.
Das solltest ruhig etwas stichhaltiger begründen.
Das solltest ruhig etwas stichhaltiger begründen.
Die CPU-Leistung ist bei den APUs selten das Problem, Bandbreite für die GPU aber doch oft.
Nightspider
2024-09-24, 18:18:29
Die APUs werden deshalb keinen VCache haben, weil sie dafür nicht desgint sind.
Wir reden von Strix Halo mit den normalen Zen5 und Zen5D Chiplets, das ist dir klar oder? ;)
Für AMD ist das quasi 0 Aufwand Strix Halo mit V-Cache zu bringen.
Die CPU-Leistung ist bei den APUs selten das Problem, Bandbreite für die GPU aber doch oft.
Strix Halo hat eine riesige GPU. Daher hinkt deine Aussage.
Nachts ist kälter als draußen oder was? Ich redete von APUs, nicht von Strix Halo.
Nightspider
2024-09-24, 18:37:52
Es ging die letzten 2 Seiten um Strix Halo.
Und das die kleinen APUs kein V-Cache supporten und das am Design liegt, ist ja auch nichts neues.
Also was wolltest du uns damit sagen?
OgrEGT
2024-09-25, 17:18:17
AMD Ryzen 7 9800X3D rumored to launch end of October
https://videocardz.com/newz/amd-ryzen-7-9800x3d-rumored-to-launch-end-of-october
Oha...
Also der 9800X3D Ende Oktober
9900X3D und 9950X3D nächstes Jahr aufgrund neuer Features...
mal schauen wieviel TDP der 9800X3D haben wird... > oder < 120W (7800X3D)...
Ben Carter
2024-09-25, 19:42:53
Meiner Meinung nach wäre Strix Halo mit VCache schon interessant. In den meisten Spielen, die ich spiele, braucht der 7800X3D ca. 20-25W (laut Ryzen Master). Bei einer 4090 und 4k, also sicherlich nicht in den am meisten fordernden Settings für die CPU. So könnte man bei z.B.120W Powerbudget mal eben gute 100W der GPU zur Verfügung stellen.
Was nicht passieren wird, aber schon richtig cool wäre, wäre eine APU mit 8 Zen5 Kernen, VCache, 32 GB HBM als RAM und VRAM und 150W Powerbudget.
Mortalvision
2024-09-25, 20:45:44
Playstation 6 Pro Elite incoming?
fondness
2024-09-26, 11:37:18
AMD Ryzen 7 9800X3D rumored to launch end of October
https://videocardz.com/newz/amd-ryzen-7-9800x3d-rumored-to-launch-end-of-october
Oha...
Also der 9800X3D Ende Oktober
9900X3D und 9950X3D nächstes Jahr aufgrund neuer Features...
mal schauen wieviel TDP der 9800X3D haben wird... > oder < 120W (7800X3D)...
Das finde ich ziemlich spannend. Beim 9800X3D bleibt alles beim alten, nur die 9900X3D und 9950X3D bekommen den angekündigten "geilen Scheiß"? Damit fallen eigentlich alle Spekulationen weg wie Cache Die als Base-Die, mehr Takt oder mehrfach gestapelter Cache, denn davon würde auch der 9800X3D profitieren. Könnte auf eine Art Bridge-Chip hindeuten, wo man mit dem Cache Die 2 CCX verbindet. Dann vermutlich als übergeordneter L4, der dann auch mindestens ~256MB groß sein sollte. Das würde auch im Server-Bereich was bringen.
Der Release in Oktober/November nur für den 9800X3D scheint sich jedenfalls zu bestätigen:
https://x.com/AnhPhuH/status/1839122747290694129
MSABK
2024-09-26, 11:46:48
Vlt ist man sich bei amd sicher den ARl kontern zu können mit dem 9800x3d.
fondness
2024-09-26, 11:48:12
Vlt ist man sich bei amd sicher den ARl kontern zu können mit dem 9800x3d.
Für ARL reicht vermutlich der 7800X3D plus Windows-Patch. Das erklärt aber nicht, warum nur die 9900X3D und 9950X3D die "neuen Features" bekommen sollen.
Gipsel
2024-09-26, 11:52:15
Für ARL reicht vermutlich der 7800X3D plus Windows-Patch. Das erklärt aber nicht, warum nur die 9900X3D und 9950X3D die "neuen Features" bekommen sollen.Eventuell wartet man noch auf den nächsten Windows-Patch, damit die unterschiedlichen CCDs besser vom Scheduler gehandhabt werden können :rolleyes:. Der 980X3D braucht das ja nicht, da nur ein CCD vorhanden ist.
Badesalz
2024-09-26, 11:53:04
@fondness
Wo bitte steht schon aufgezählt welchen Teil vom Neuen der 9800X3D bekommt und welchen nicht?
@Gipsel
:up:
fondness
2024-09-26, 11:53:39
Eventuell wartet man noch auf den nächsten Windows-Patch, damit die unterschiedlichen CCDs besser vom Scheduler gehandhabt werden können. :rolleyes:
Die Originalquelle spricht explizit von "neuen Features" bzw. "neue Dinge" exklusiv für 9900X3D und 9950X3D. Und es gab ja noch den AMD-PR-Typen, der ziemlich excited war wann er diese tollen Neuerungen endlich erzählen darf. IMO ist das schon was anderes als ein Windows-Patch.
Badesalz
2024-09-26, 11:57:42
Imho spricht die leaker-landschaft da eher von ZUSÄTZLICHEN Features (?) Was so oder so Wortklauberei sein kann. Wer von denen achtet da schon auf solche Nuancen :usweet:
@fondness
Ich glaub nicht, daß es einfach nur eine Art 1zu1 7800X3D nur halt mit Zen5 Kernen sein wird. Wie du irgendwie mit "es bleibt alles beim Alten" andeuten möchtest (?)
Neurosphere
2024-09-26, 12:22:21
Es gibt keine neuen Features. Nur einfach keine Probleme mehr mit zwei CCDs.
amdfanuwe
2024-09-26, 12:35:48
Nur einfach keine Probleme mehr mit zwei CCDs.
Na, das wäre doch ein neues Features.
Mal gespannt, ob damit der 9950X der interessantere Gaming Prozessor wird.
Badesalz
2024-09-26, 13:05:30
@amdfanuwe
Bei welcher Engine denn? Dieses 8-Kerne ist genug hällt mittlerweile schon länger als die "640KB" :wink:
Ich mach mir kleine Hoffnungen, daß mit den KI-Einheiten + paar Kerne mehr man die NPCs endlich nicht mehr so saudoof sterben lässt.
Das und Bewegungsabläufe hinken gegenüber der Grafik (CP2077 Unrecord) mittlerweile extrem nach.
OgrEGT
2024-09-26, 18:21:38
https://videocardz.com/newz/amd-already-planning-ryzen-5-9600x3d-with-3d-v-cache
Auch ein 6CX3D soll kommen...
robbitop
2024-09-27, 08:35:14
Ich könnte mir vorstellen, dass die 12/16C Varianten dann mit 2x VCache CCDs kommen + der Takt höher ist + OC (in Grenzen) möglich ist.
Badesalz
2024-09-27, 08:56:10
:smile: Ich dachte 2x V-Cache ist bestätigt (?!)
robbitop
2024-09-27, 08:59:39
Ich meine, formell bestätigt ist so gut wie noch gar nichts. Aber gehofft und ggf. auch in den Gerüchten auftauchend. :)
Mortalvision
2024-09-27, 09:29:24
Puuh, 128MB Cache besser angebunden wäre mega!
https://videocardz.com/newz/amd-already-planning-ryzen-5-9600x3d-with-3d-v-cache
Auch ein 6CX3D soll kommen...
Ist ja kein Wunder, wenn das normale Lineup so krepiert ist, muss man eben ein neues Lineup anbieten, dass sich auch verkauft.
Ich würd erst mal nicht mit Cache pro CCD rechnen bei den großen. Wenn da jemand von Features spricht bei AMD wird das auch etwas zusätzliches sein.
robbitop
2024-09-27, 09:43:39
Puuh, 128MB Cache besser angebunden wäre mega!
Die 96 MiB L3 Cache sind aktuell schon ziemlich gut ausbalanciert. In Bezug auf Latenz vs Größe (und damit Hitrate). Noch wesentlich größer würde widerum Latenz kosten.
Ich sehe AMD so schnell nicht von der Konfiguration für die VCache Modelle weggehen.
basix
2024-09-27, 13:09:05
Glaube eher, dass die V-Cache Modelle keine Taktregression mehr aufweisen. Das kann man als "neues Feature" ansehen
Badesalz
2024-09-27, 17:35:16
Ich würd erst mal nicht mit Cache pro CCD rechnen bei den großen.Ich sehe das als gesichert :wink:
Ist ja kein Wunder, wenn das normale Lineup so krepiert ist, muss man eben ein neues Lineup anbieten, dass sich auch verkauft.
Hast du irgendwie nicht mitbekommen, daß es um Microcode + korrumpierten Windows11 Kernel ging? Alle X3D Modelle die kommen, waren vom Anfang an auch so geplant. Ätschepätsche :uup:
@all
Tatsächlich sollen die nicht mehr taktreduziert sein.
Wozu will man einen X3D OCen, wenn alle in 98% der Fälle in 99% der Spiele im GPU-Limit spielen?
ChaosTM
2024-09-27, 18:07:13
OC ist bei 3D Prozessoren sowieso völlig irrelevant.
Der 7800X3D läuft bei Spielen (4k Max) mit 65 Watt um nichts langsamer als mit 120 oder gar 170..
Nur deutlich leiser..
Auch bei denen, die nicht nur am GPU Limit hängen.
Badesalz
2024-09-27, 18:25:57
So in etwa. Man kann aber auch bei 2k im GPU-Limit sein ;)
Ich empfehle dabei aber immer endlich die 1%-lowFPS als die einzige relevante Metrik zu sehen.
Früher, da kann ich mich noch grad so dran erinnern, haben wir CPUs aber über-taktet. Nicht über-powert ;) Beim X3D der nicht höher zieht als er zieht, helfen also auch nicht 170W.
Die echt krasse Effizienz beim Zen5 - und damit Watt und Wärme - wird dafür genutzt den FreqGap zu non-X3D nahezu zu egalisieren.
Sardaukar.nsn
2024-09-29, 09:00:48
Das Marketing haut mal wieder raus: Ryzen 7 9800X3D: "Der ultimative Prozessor für Elite-Gaming" (https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-7-9800X3D-der-ultimative-Gaming-Prozessor-1456597/)
raffa
2024-09-29, 10:13:02
Die Spekulatiusküche bäckt Elite-Kekse, könnte man auch sagen ; )
basix
2024-09-29, 10:17:16
OC ist bei 3D Prozessoren sowieso völlig irrelevant.
Der 7800X3D läuft bei Spielen (4k Max) mit 65 Watt um nichts langsamer als mit 120 oder gar 170..
Das ist doch bei allen 6/8C Zen 4/5 CPUs so ;) Einzig Speicher-OC hat bei non-X3D eine höhere Relevanz.
Wenn man die 9700X Tests mit 105W ansieht, dann sollte es in Games beim 9800X3D fast nichts ausmachen, wenn man von 105W auf 65W reduziert. Bei MT-Applikationen kann es dann schon ~10% ausmachen.
Sardaukar.nsn
2024-09-29, 12:00:01
OC ist bei 3D Prozessoren sowieso völlig irrelevant.
Ist die Auflösung hoch genug, spielt die ganze CPU kaum noch eine Rolle. https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/21.html
Ich weis, gleich kommt der obligatorische "Aber Anno 1800 im Endgame mit 100.000 Investoren... Kommentar"
Ganz real habe ich aber letzten Monat einen 1440p Gaming PC mit Budget X gebaut und da wurde es wegen der Gaming Performance einfach der günstigste CPU (Ryzen 7600 inkl Kühler für ~160€) und der Rest vom Budget ging in die GPU (4070 Super).
BlackBirdSR
2024-09-29, 12:35:33
Richtig muss es doch heißen, ist die (CPU) Performance schnell genug, spielt die CPU kaum noch eine Rolle.
Die 170fps erreicht die CPU ja auch in niedrigeren Auflösungen.
Ist die Auflösung hoch genug, spielt die ganze CPU kaum noch eine Rolle. https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/21.html
Ich weis, gleich kommt der obligatorische "Aber Anno 1800 im Endgame mit 100.000 Investoren... Kommentar"
Ganz real habe ich aber letzten Monat einen 1440p Gaming PC mit Budget X gebaut und da wurde es wegen der Gaming Performance einfach der günstigste CPU (Ryzen 7600 inkl Kühler für ~160€) und der Rest vom Budget ging in die GPU (4070 Super).
Badesalz
2024-09-29, 19:47:00
Das Marketing haut mal wieder raus: Ryzen 7 9800X3D: "Der ultimative Prozessor für Elite-Gaming" (https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Ryzen-7-9800X3D-der-ultimative-Gaming-Prozessor-1456597/)Das galt davor dem 7800X3D. Wenn sich da nichts mehr verhaspelt wie beim Zen5 non-X3D, dann wird das wohl wieder so sein.
Ist jetzt nicht irgenwas sensationelles oder (?) :|
The_Invisible
2024-09-29, 19:56:58
Ich weis, gleich kommt der obligatorische "Aber Anno 1800 im Endgame mit 100.000 Investoren... Kommentar"
Jap ist so, gilt aber generell für Strategie/Aufbau/Simulationen, da langweilt sich meine 4090 eigentlich immer in 4k.
Fans dieses Genres wären daher auch mit 20% Zuwachs zufrieden ;-)
Platos
2024-09-29, 20:17:15
Ist die Auflösung hoch genug, spielt die ganze CPU kaum noch eine Rolle. https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/21.html
Ich weis, gleich kommt der obligatorische "Aber Anno 1800 im Endgame mit 100.000 Investoren... Kommentar"
Ganz real habe ich aber letzten Monat einen 1440p Gaming PC mit Budget X gebaut und da wurde es wegen der Gaming Performance einfach der günstigste CPU (Ryzen 7600 inkl Kühler für ~160€) und der Rest vom Budget ging in die GPU (4070 Super).
Da musst du aber das hier verlinken: https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/18.html
Dort siehst du, mit welcher CPU du wie viel FPS in welchem Game schaffst (also natürlich sind das nur ne Hand voll Spiele).
170 schafft man da aber nicht, aber 144 meistens (was wohl bei den meisten Leuten das maximum sein dürfte). 240FPS ist aber bei den meisten Spielen abseits von E-Sport/Shooter kaum möglich. Interssant wäre hier noch, was Framegenn von AMD/nvidia hier reisst.
Aber wie man sieht, schafft man in einigen Spielen gerade so die 144FPS und das mit nem 7800X3D. Also wer 144FPS will, sollte vlt. schon wenigstens ein 7600X3D kaufen oder was vergleichbares.
Aber bei 60FPS ist man wie immer mit fast jeder modernen CPU gut bedient.
Sardaukar.nsn
2024-09-29, 20:41:44
Da musst du aber das hier verlinken: https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/18.html
Dort siehst du, mit welcher CPU du wie viel FPS in welchem Game schaffst (also natürlich sind das nur ne Hand voll Spiele).
720p ist für mich und eigentlich alle Gamer völlig Praxisfremd. FPS über 200 bis auf ein paar Hardcore Ausnahmen auch. Das kann doch kein Argument für eine Kaufentscheidung oder Empfehlung sein.
Anno spiel ich selbst gerne, da kann ich das Argument auch nachvollziehen.
Am verlinkten Artikel oben stoßen sich die meisten, wie ich auch an dem Begriff des "Elite Gaming". :freak:
Platos
2024-09-29, 20:52:35
720p ist für mich und eigentlich alle Gamer völlig Praxisfremd. FPS über 200 bis auf ein paar Hardcore Ausnahmen auch. Das kann doch kein Argument für eine Kaufentscheidung oder Empfehlung sein.
Anno spiel ich selbst gerne, da kann ich das Argument auch nachvollziehen.
Am verlinkten Artikel oben stoßen sich die meisten, wie ich auch an dem Begriff des "Elite Gaming". :freak:
Es hat nichts mit Praxis oder nicht zu tun. Hast du bei 720p 144fps, hast du das (maximal) auch bei 4k. Und da sieht man eben in dem Test, dass in einigen Spielen gerade so 144FPS erreicht wird, ergo brauchst du auch ne recht fette CPU (also ein 76003XD reicht vermutlich auch).
Das wollte ich sagen. 240FPS ist natürlich (für mich auch) nicht praxisrelevant, aber 144FPS schon oder? Und da sieht man ja, es reicht grad so knapp in den AAA RPGs.
Sardaukar.nsn
2024-09-29, 21:31:53
Mein LG C2 macht nur 120hz, wegen dem G-Sync ist mein FPS limiter im Nvidia Treiber eh bei 117fps. Mir ist natürlich klar das ich irgendwann mal vom 5800x3D los kommen muss, aber bisher hat mich die Mehrleistung neuerer CPUs bei meiner 4K-Zockerei noch nicht überzeugt. Ist aber auch ein schwieriges Thema. Für die paar Prozent würde ich aber auch keine Grafikkarte wechseln.
Badesalz
2024-09-30, 07:03:13
720p ist für mich und eigentlich alle Gamer völlig Praxisfremd.Spreche das niemals vernünftig auf hwluxx an. Sie machen dich sofort mundtot :tongue:
Sardaukar.nsn
2024-09-30, 07:32:12
@Badesalz: Zu spät, da gab es gleich Theater :) Ich hätte keine Ahnung, sollte mich erstmal einlesen ect.
Badesalz
2024-09-30, 08:10:47
@Sardau
Jep. Es gibt Foren wo es immer mal paar Trolle gibt. Normal. Die Mods aber über alles stehen und damit Ausdiskutieren möglich ist. Es gibt aber auch Foren, wo es genau umgekehrt ist :uup:
Prinzenrolle
2024-09-30, 09:04:53
Merke: Je dümmer die Marketingfloskel, desto schlechter das Produkt.
Badesalz
2024-09-30, 09:52:45
@Prinzenrolle
Ist das nicht eher umgekehrt? Ich kenn da welche die machen mit Abstand die tollsten Folien...
Platos
2024-09-30, 18:31:28
Spreche das niemals vernünftig auf hwluxx an. Sie machen dich sofort mundtot :tongue:
Du musst eben wissen, wie man 720p Tests liest;)
Du schaust dir an, welche CPU wie viele FPS in welchem Spiel erreicht (am besten min FPS oder sowas) und gleichst es mit deinen Wünschen ab (z.B 60FPS, 120FPS, 144FPS usw). Dann siehst du sofort, welche CPU du (maximal) brauchst und welche nicht. Natürlich musst du auch immer wissen, ob du diese Framerate auch mit der GPU erreichst --> GPU Tests lesen. (evtl. noch einplanen, dass man in Zukunft vlt. noch die GPU upgraded).
Tests in hohen Auflösungen führen zu GPU tests und nicht zu CPU-Tests.
robbitop
2024-09-30, 18:53:54
IMO ist es eine Frage dessen was man erfahren will. Will man ganz spezifisch (Spiel, Szene und Auflösung, Patchstand) erfahren wie eine gewisse Komponente performt -> schaut man sich das mit der jeweiligen Auflösung an. Aber dann man sich sehr oft viele verschiedene Benchmarks anschauen um das Gewünschte zu erfahren.
Alternativ kann man auch (abstrakter) die relative Performance der Komponente zu anderen Komponenten erfahren und zwar genereller. Dann braucht es breite Indizes im jeweiligen Limit (CPUs niedrige Auflösung und GPUs hohe Auflösung).
Je nach dem was man will schaut man das jeweilige nach. Ich bin definitiv da eher der Typ der es genereller und abstrakter wissen will. Wie was spielespezifisch ist interessiert mich nicht. Ich will wissen wie viel schneller CPU X vs Y ist und das gleiche zu GPUs. Der Referenzpunkt genügt mir :)
Badesalz
2024-09-30, 19:13:54
@Platos
Die Idee hinter der Methodik ist klar. Man gibt mit so einem Review :freak: dem Leser also erst eine Rechenaufgabe? 720 + 4090/DLSS. Das ist irre.
Ernsthaft? Rechenaufgaben für den Leser? Wozu dann überhaupt noch der Text dabei?
Mal davon ab, daß man da gelegneltich anscheinend auf Anomalitäten aufläuft und ein 720 Ergebnis nicht die Skalierung hergibt die sich woanders reale unzer 1080 und 2k zeigt. OB das jetzt die Engine ist oder irgendein Treiber, keine Ahnung.
Das ist wie die Leistung und den Verbrauch eines Verbrenners ermitteln, bei 30kmh. Und dann die Welt SELBST skalieren lassen was das bei 50 und 70 kmh ergibt. Was sind das für Reviews?
Da bin ich zähneknirschend :tongue: doch eher bei PCGH. Die machen sich die GANZE Arbeit bei solchen Tests.
Am Ende rennt das alles real eh im GPU-Limit, den man AN DER GRAKA soweit hochzieht, daß es flüßig wird (60, 120, 144). Begrenzt dann immernoch die GPU.
Ok, in 99,92% der Fälle.
Die allermeisten sind nur PR-Werkzeuge mit Klick-Zubrot. Viel zu viel Beachtung. Ein Typ der auf 3DC oder redit oder im TPU-FORUM seine realen Ergebnisse mit realen Einwtellungen kundtut ist mit 10x lieber als irgendwelche HW-Philosophen die ganz genau wissen auf welche diese eine Art man HW testen sollte. Ja ist klar...
Du kannst diese Review-Industrie in die Tone schmeissen. Was soll das Twaddle, wenn es klar ist wie sie wirtschaftlich angebunden sind? :| Es gibt niemanden wie Leonidas und der einzige dem das sonst am Ar... vorbeigeht schein GN zu sein. Mittlerweile. Vielleicht.
Sowas wie die Cancuks kanst du dir nicht mehr nüchtern ziehen. Bei dem Theater was HWUB diesjahr veranstaltet ebenfalls no f... way (mehr).
2024 war irgendwie extrem augenöffnend. Für mich jedenfalls. Und u.a. auch was 720+DLSS angeht :wink:
Platos
2024-09-30, 19:35:40
IMO ist es eine Frage dessen was man erfahren will. Will man ganz spezifisch (Spiel, Szene und Auflösung, Patchstand) erfahren wie eine gewisse Komponente performt -> schaut man sich das mit der jeweiligen Auflösung an. Aber dann man sich sehr oft viele verschiedene Benchmarks anschauen um das Gewünschte zu erfahren.
Alternativ kann man auch (abstrakter) die relative Performance der Komponente zu anderen Komponenten erfahren und zwar genereller. Dann braucht es breite Indizes im jeweiligen Limit (CPUs niedrige Auflösung und GPUs hohe Auflösung).
Je nach dem was man will schaut man das jeweilige nach. Ich bin definitiv da eher der Typ der es genereller und abstrakter wissen will. Wie was spielespezifisch ist interessiert mich nicht. Ich will wissen wie viel schneller CPU X vs Y ist und das gleiche zu GPUs. Der Referenzpunkt genügt mir :)
Also ich will schon möglichst viele Spiele sehen und nicht so wie bei manchen mittlerweile üblich (übertrieben gesagt) 3 Spiele benchen (2 davon uralte "klassiker"), die dann aber bis ums verrecken (*Hust* Igor).
Aber ansonsten ist es doch nicht zu viel verlangt, wenn man sich anschaut, welche CPU wie viel FPS erreicht (bzw. die gewünschten) und dann noch, "welche GPU muss ich jetzt nehmen, um das zu erreichen?" (und wenn das mit keiner geht, dann muss man eben entscheiden, ob man in 4 Jahren das dann mit einer neuen GPU kann oder ob man der Typ ist, der immer den ganzen PC neu kauft).
1080p Benchmarks oder noch höher sind hingegen viel schwieriger zu lesen, da dann eben langsam GPU-Limits eine Rolle spielen. (ausser ich habe ein Video, bei dem ich sehe, wie die GPU Last ist).
@Platos
Die Idee hinter der Methodik ist klar. Man gibt mit so einem Review :freak: dem Leser also erst eine Rechenaufgabe? 720 + 4090/DLSS. Das ist irre.
Ernsthaft? Rechenaufgaben für den Leser? Wozu dann überhaupt noch der Text dabei?
Wo siehst du da eine Rechenaufgabe?
Du musst ja nur prüfen (nicht rechnen), welche CPU erreicht die gewünschte FPS und dann nochmals prüfen, welche GPU kann das nun erreichen ?
So schwierig?
Du willst also lieber 4k Auflösung für 4k Gamer und 1440p für 1440p Gamer und 1080p für 1080p Gamer? Das ist ja deutlich schwieriger für die Leser zu lesen. Man muss dann nämlich noch herausfinden, wo man jetzt im GPU-Limit war und das sieht man eben nicht (ausser in einem Video mit OSD).
Also dein Argument der "Einfachheit für den Leser" funktioniert hier nicht.
Und abgesehen davon: Auch mit der gleichen Auflösung wie beim Leser musst du zusätzlich noch GPU-Tests lesen, denn schliesslich haben ja die wenigstens vor eine RTX 4090 zu kaufen. Und dann 4 Jahre später, wenns grössere GPUs gibt, merkt man, dass eig. die FPS doch ganz anders gewesen wären und man jetzt neu neue CPU braucht, damit man kein CPU-Bottleneck hat...
Mit deiner Methode müsste man also z.B 1440p Benchmarks anschauen und mal hoffen, dass die GPU nicht limmitierte, dann genau das gleiche tun, nämlich GPU-Benches anschauen und dann sieht man, wie viel die GPU kann. Vlt. wird man dann feststellen, dass man genau auf die gleichen Zahlen kommt, weil ja am Ende in beiden Fällen nur die GPU gebencht wurde:freak:
Das mit DLSS + 720p verstehe ich nicht. Gibts jemand, der CPU-Benches mit DLSS macht mittlerweile?
Das mit der Skalierung: Bin gerne offen für Tests, falls du grad einen parat hast. Gravierende Unterschiede kenne ich jetzt nicht. Ist aber auch schwierig, da die meisten CPU-Benches ja immer die grossen K-CPUs testen und nur selten die kleinen (bei denen, wo es dann drauf ankommen würde). (Edit: Wobei kommt ja auch bei der grössten CPU drauf an. Man muss nur die min-FPS anschauen und schon rutscht man auch mit einem 7800X3D weit unter 144FPS: https://www.techpowerup.com/review/amd-ryzen-7-7800x3d/22.html (Man muss unten per Game Statistik aktivieren))
Edit: Aber ich frage mich, wie man das testen soll mit der Skalierung? Wie willst du denn nachweisen, dass nun nicht die GPU limitiert hat? Nur weil sie nicht bei 99% war? Da müsste man mehrere GPUs testen mit einer CPU. GPUs, die dann aber alle die selbe Framerate erreichen bei 720p (um ein CPU-Limit zu "beweisen") und dann das selbe nochmals mit (z.B) 4k machen.
Badesalz
2024-10-01, 06:32:50
Du willst also lieber 4k Auflösung für 4k Gamer und 1440p für 1440p Gamer und 1080p für 1080p Gamer? Das ist ja deutlich schwieriger für die Leser zu lesen.Das ist eine interessante Theorie.
Wie willst du denn nachweisen, dass nun nicht die GPU limitiert hat?Das könnte tatsächlich schwierig werden, denn in >99% der realen Fälle ist das auch tatsächlich so.
Das Problem mit dem Herausfinden, ob und wo man im GPU-Limit lief ist also sekundär, wenn man die CPUs mit TopEnd-GPU testet.
Die 720-Seifenblase basiert darauf, daß der Leser angeblich irgendwelche Ziel-FPS sucht. Was er meist nicht tut. Es geht ihm meist darum was es ihm bringt, wenn er z.B. vom 5800X3D auf den 7800X3D wechseln würde. Ihm, nicht was dann das theoretisch maximale mit beiden CPUs möglich ist. Diese Methodik zwingt ihm eine Recherche auf, auf die er einerseits oft nicht nur wenig Bock hat, sondern zu der er sich nicht unbedingt fähig sieht. Was passiert dann also? Er geht nach den Tests und Vergleichen die näher an der Realität sind.
y33H@
2024-10-01, 07:44:41
Es wird offenbar immer welche geben die es nicht kapieren wollen ...
Der_Korken
2024-10-01, 08:04:10
Es wird offenbar immer welche geben die es nicht kapieren wollen ...
+1
Linmoum
2024-10-01, 08:10:36
Und diese überflüssige Diskussion gibt es jedes Mal, wenn neue CPUs gelauncht sind. Kann man echt die Uhr nach stellen. :D
Freestaler
2024-10-01, 08:36:38
+1
Sardaukar.nsn
2024-10-01, 08:50:35
Aus Gamer Sicht sind die CPU Launches halt auch lahm. Für +10% würde aber auch kaum jemand eine neue Grafikkarte kaufen.
robbitop
2024-10-01, 08:56:51
Also ich will schon möglichst viele Spiele sehen und nicht so wie bei manchen mittlerweile üblich (übertrieben gesagt) 3 Spiele benchen (2 davon uralte "klassiker"), die dann aber bis ums verrecken (*Hust* Igor).
Aber ansonsten ist es doch nicht zu viel verlangt, wenn man sich anschaut, welche CPU wie viel FPS erreicht (bzw. die gewünschten) und dann noch, "welche GPU muss ich jetzt nehmen, um das zu erreichen?" (und wenn das mit keiner geht, dann muss man eben entscheiden, ob man in 4 Jahren das dann mit einer neuen GPU kann oder ob man der Typ ist, der immer den ganzen PC neu kauft).
Ja das sieht jeder anders - da hat jeder andere Präferenzen. Mir genügt es auf Basis eines breiten Index zu sehen, wo die GPU die ich interessant finde in Relation zu meiner ist in Bezug auf Performance. Und das natürlich im absoluten Limit im Index. Also höchste Auflösung.
Gleiches zur CPU. Wie viel schneller ist interessante CPU als meine im absoluten Limit (also niedrigste Auflösung) im breiten Index? Und die Werte speichere ich mir im Kopf.
Dann habe ich einen groben Prozentwert. Und wenn die Performance bei meinen Komponenten beim jeweils gespielten Spiel nicht zu meiner Zufriedenheit ist, kann ich sehr schnell den Bottleneck ermitteln (kurze Auflösungsskalierung) und weiß so dann grob, wenn ich CPU/GPU aufrüste, wie viel mehr Performance ich grob erhalten werde. Natürlich ist das je nach Spiel etwas anders (weil es vom großem Index abweichen kann) - aber mir reicht eine grobe Größenordnung, denn das Upgrade soll sich lohnen. Ob jetzt 23% oder 15% .... -> beides zu wenig. "ballpark" reicht mir.
Aber klar, wer mehr Zeit investieren will, kann das für jedes Spiel und jede Auflösungs/Settingskombination herausfinden. Ich denke mir nur -> ist mir meine Zeit nicht wert und mir reichen grobe Geschwindigkeitsdifferenzen im absoluten Limit. Deswegen schaue ich auch kaum noch Einzelbenchmarks sondern scrolle in der Regel zum Index.
Aber wie gesagt: viele Wege führen nach Rom und jeder hat andere Präferenzen.
Badesalz
2024-10-01, 09:01:56
Aus Gamer Sicht sind die CPU Launches halt auch lahm.Du hast des Pudels Kern entdeckt :wink: Solche... CPU-Tests, sind nicht aus der Benutzersicht wichtig, sondern des Herstellers.
Nur die 720-Seifenblase ergibt Zahlen und Unterschiede, die Verkaufsfördernd sein könnten. Der Dienstleister liefert also entsprechend. Und was machst du, wenn du dir dabei nicht ganz sicher bist? Du kaufst mind. 1 Nummer größer. Besser haben als ggf. brauchen. mission accomplished
Es gibt offenbar Leute die es kapieren...
Exxtreme
2024-10-01, 09:24:14
Nur die 720-Seifenblase ergibt Zahlen
Hängt auch davon ab welche Spiele man spielt. Du siehst in dem Techpowerup-Benchmark-Parcours, dass Age of Empires 4 auch in 4K sehr große Unterschiede aufweist. Sprich, mag man Strategiespiele oder auch MMORPGs dann kann eine sehr starke CPU sehr vorteilhaft sein.
y33H@
2024-10-01, 09:31:49
Ich spiele in 1440p mit einer RTX 4090, idR mit DLAA - mir sind 120 fps aufwärts wichtig, das muss freilich (auch) die CPU schaffen.
Badesalz
2024-10-01, 09:41:37
@Exxtreme
Ist ohne Frage richtig. Dabei ist aber die Rede von einem bestimmten Genre und innerhalb jenes, von 2-3 Galionsfiguren diesbezüglich. Das weiß man, wenn man solche Spiele nicht seit heute morgen spielt.
Den quasi gesamten Rest betrifft das nicht. Wegen dem obigen soll aber alles durch die Bank so getestet werden? Geht so. Ich bleib bei #3878.
edit:
Wobei das außer für Fanboys aktuell eh nur theoretisch ist, seitdem AMD da mit dem Vorschlaghammer X3D durchgegangen ist. Entweder man guckte nach dem 5800X3D oder man bräuchte doch eher den 7800X3D. Dann wars das auch schon.
Mal sehen wie das nun mit 9800X3D dann aussieht und ob die Blauen etwas machen können, damit die Seifenblase überhaupt wieder an Relevanz gewinnen kann. Momentan braucht man sie eigentlich nicht kritisieren. Sie ist erstmal eh geplatzt.
robbitop
2024-10-01, 09:54:50
Aus Gamer Sicht sind die CPU Launches halt auch lahm. Für +10% würde aber auch kaum jemand eine neue Grafikkarte kaufen.
Ich muss dem zustimmen - das Performancewachstum bei CPUs ist relativ unbeeindruckend. Deshalb kann man seine CPU als Gamer schon relativ lange behalten, wenn es zum Kaufzeitpunkt eine gute Gaming CPU war. Insbesondere, wenn man bei den Kernen nicht geknausert hat. ^^
- Mit dem i7 2700K (release 2011) kam man locker 5-7 Jahre klar
- mit dem i7 5820K (release 2014) kam man sicherlich auch gute 5-6 Jahre klar
- der i7 8700K (release 2017) kommt man entweder noch immer gut klar oder musste erst vor kurzem upgraden
- der 5800X3D (release 2022) wird man sicher noch lange klar kommen
Dann gibt es IMO auch CPUs die nicht so lange frisch blieben entweder mangels Cores oder mangels Grundleistung pro Core. Zum Beispiel Ryzen 1000 und 2000 oder Bulldozer/Vishera (nicht genug Grundleistung pro Core -> das gilt zwar stärker für die Bulldozervarianten aber die Zen1 Generation hatte pro Kern einfach noch nicht genug Punch). Oder der i7 4790K oder der 7700K (nicht genug Kerne später heraus).
Beim i5 2500K hatte man zwar in den ersten 4-5 Jahren keine Nachteile aber hinten raus fehlten dann Threads -> der i7 ist dann hinten raus besser gealtert.
Ich versuche immer (mit sehr mittelmäßigem Erfolg) die guten Generationen zu kaufen, um möglichst lange was davon zu haben. Ich glaube deshalb haben viele auch auf Zen 5 gehofft (das erste Mal breitere uArch -> ggf. ein besonders großer Leistungssprung so dass man länger was davon hat) und wurden dann enttäuscht.
Badesalz
2024-10-01, 10:14:38
@robbitop
Ich glaube deshalb haben viele auch auf Zen 5 gehofft (das erste Mal breitere uArch -> ggf. ein besonders großer Leistungssprung so dass man länger was davon hat) und wurden dann enttäuscht.
:| Ich kenne keinen Gamer der auf den non-X3D Zen5 wartete. Gab es hier etwa welche? Das kann man ggf. erst so schreiben, wenn der 9800X3D raus ist. Der lässt sich grad auch recht schlecht einschätzen.
edit:
Und manchmal glaub ich auch, die Leute möchten einfach nicht zuhören. Von meiner Seite aus wertfrei, aber etliche Zeit vor dem Launch hat AMD erzählt, der Zen5 ist der Effizienzschritt der neuen Generation und der Wegbereiter für den großen Leistungssprung von Zen6.
robbitop
2024-10-01, 10:47:24
@robbitop
:| Ich kenne keinen Gamer der auf den non-X3D Zen5 wartete. Gab es hier etwa welche? Das kann man ggf. erst so schreiben, wenn der 9800X3D raus ist. Der lässt sich grad auch recht schlecht einschätzen.
Ich meinte schon Zen 5 als uArch nicht als SKU. Konkret wäre der 9800X3D zu nennen wie du das sagst. Der Vergleich der Zen 5 uArch mit der Zen 4 uArch jeweils ohne X3D zeigt aber sehr geringe Fortschritte in Gaming - manchmal sogar leichte Rückschritte. Es ist relativ unwahrscheinlich (aber natürlich nicht unmöglich) dass Zen 5 X3D vs Zen 4 X3D taktnormiert etwas daran ändert. Wahrscheinlich werden die Zen 5 X3D SKUs ~10% höher takten können. Wenn X3D nicht einen besonders großen Knoten bei Zen 5 platzen lässt, dann wird Zen 5 X3D grob 15% schneller sein als Zen 4 X3D. 10% vom Takt und grobe 5% von der IPC. Sehr unbeeindruckend.
edit:
Und manchmal glaub ich auch, die Leute möchten einfach nicht zuhören. Von meiner Seite aus wertfrei, aber etliche Zeit vor dem Launch hat AMD erzählt, der Zen5 ist der Effizienzschritt der neuen Generation und der Wegbereiter für den großen Leistungssprung von Zen6.
Das hat Mike Clark aber auch erst sehr kurz vor dem Zen 5 launch erzählt. In einem Interview mit Ian Cutress im Jahr 2021 las sich das noch ganz anders:
https://www.anandtech.com/show/17031/anandtech-interviews-mike-clark-amds-chief-architect-of-zen
Entsprechend gab es große Erwartungen von Zen 5 über mehrere Jahre. Man hat den Kern von der Breite seit Zen 1 kaum verändert - beim Decoding sogar gar nicht - und hatte dafür gute Gründe. Und mit Zen 5 kam erstmals eine deutliche Verbreiterung und das las sich im Interview impliziert damit, dass da dann auch was bei rauskommt. Er las sich sehr enthusiastisch über Zen 5.
Vor dem Launch ruderte er zurück und hat angedeutet, dass Zen 5 die Änderungen bringt, die erst mit Zen 6 und Folgearchitekturen zur Geltung kommen werden.
Badesalz
2024-10-01, 10:54:03
Ich meinte schon Zen 5 als uArch nicht als SKU. Konkret wäre der 9800X3D zu nennen wie du das sagst. Der Vergleich der Zen 5 uArch mit der Zen 4 uArch jeweils ohne X3D zeigt aber sehr geringe Fortschritte in GamingAnhand eben der 9700X Leistung, die mal so mal so ausfällt, bin ich mir da wie gesagt nicht sicher wie man das auf den Zen5 X3D spiegeln soll.
Und ob wir um die Technik der CPUs zu beurteilen, nicht bei Win10 bleiben sollten. Der korrumpierte Kernel von Win11 verhält sich teilweise weiter und immernoch ziemlich seltsam. Wenn er Zens sieht...
Es kann aber ohne Frage auch so ausgehen wie du andeutest. Ich rede ja nicht dagegen. Ich kenn ja deine Neigungen, also können wir den Zen5X3D ruhig erstmal schwachreden :wink:
Das hat Mike Clark aber auch erst sehr kurz vor dem Zen 5 launch erzählt. In einem Interview mit Ian Cutress im Jahr 2021 las sich das noch ganz anders:Tatsächlich. TOP Catch :up: Danke.
edit:
"Taktnormiert" Da ist er wieder :D Wenn die ähh... Konstruktion höhere Taktraten erlaubt - u.a. kein Gap wegen V-Cache diesmal - dann ist das auch eine Errungenschaft der Architektur, die das ermöglicht hat. Für mich gehört das alles zusammen. Ob man das bei Takten vergleichen muss bei welchen der eine nur so eine Art Halbgas geben darf... Das muss halt jeder selbst für sich beurteilen.
fondness
2024-10-01, 11:00:53
Das hat Mike Clark aber auch erst sehr kurz vor dem Zen 5 launch erzählt. In einem Interview mit Ian Cutress im Jahr 2021 las sich das noch ganz anders:
https://www.anandtech.com/show/17031/anandtech-interviews-mike-clark-amds-chief-architect-of-zen
Entsprechend gab es große Erwartungen von Zen 5 über mehrere Jahre. Man hat den Kern von der Breite seit Zen 1 kaum verändert - beim Decoding sogar gar nicht - und hatte dafür gute Gründe. Und mit Zen 5 kam erstmals eine deutliche Verbreiterung und das las sich im Interview impliziert damit, dass da dann auch was bei rauskommt. Er las sich sehr enthusiastisch über Zen 5.
Vor dem Launch ruderte er zurück und hat angedeutet, dass Zen 5 die Änderungen bringt, die erst mit Zen 6 und Folgearchitekturen zur Geltung kommen werden.
Die Erwartungshaltung war halt falsch IMO. Eine Verbreiterung einer CPU-µArch ist erstmal per se nichts positives, denn es heißt, dass man mit seinem Latein am Ende ist. Zudem sollte man nicht unterschätzen, dass eine Entwicklung ein sehr dynamischer Prozess ist. Könnte durchaus sein, dass es beim ersten Interview noch so aussah, als würde deutlich mehr bei Zen5 realisiert werden als dann tatsächlich möglich war. Womöglich musste viel auf Zen6 und folgend verschoben werden, weil man nicht rechtzeitig fertig wurde. Wo der Fokus bei AMD und Zen5 lag ist zudem klar: Die FPU von Zen5 ist mit Abstand die stärkste, die man je in einer CPU gesehen hat. Ergo its all about DataCenter.
Badesalz
2024-10-01, 11:04:14
@fondness
Du meinst so eine Story wie es AMD schon mit RDNA3 passiert ist? :ulol:
Warum versuchst du den Spieß rhetorisch zu drehen? Echt ej. Ok: Die Erwartungshaltung war nicht falsch, sondern falsch geweckt.
Die FPU von Zen5 ist mit Abstand die stärkste, die man je in einer CPU gesehen hat. Ergo its all about DataCenter.Also ohne der AVX-Sonderfälle, nehme ich an (?)
DataCenter braucht keine mega FPU :rolleyes:
Exxtreme
2024-10-01, 11:19:25
Also ohne der AVX-Sonderfälle, nehme ich an (?)
Beim Specfp ist er 24% schneller wenn man einen Kern nutzt:
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/5
fondness
2024-10-01, 11:23:24
Beim Specfp ist er 24% schneller wenn man einen Kern nutzt:
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/5
Specfp hat auch sehr viel SSE-Code drinnen. Bei vollem AVX512-Einsatz ist das Ding eine Wucht:
To say that Zen5's full AVX512 is impressive is an understatement. [...] With Zen5, AMD finally delivers what Intel could not. A quality AVX512 implementation that not only bring substantial performance gains, but also avoids all the negatives that plagued Intel's early implementations.
http://www.numberworld.org/blogs/2024_8_7_zen5_avx512_teardown/
robbitop
2024-10-01, 11:27:48
Anhand eben der 9700X Leistung, die mal so mal so ausfällt, bin ich mir da wie gesagt nicht sicher wie man das auf den Zen5 X3D spiegeln soll.
Und ob wir um die Technik der CPUs zu beurteilen, nicht bei Win10 bleiben sollten. Der korrumpierte Kernel von Win11 verhält sich teilweise weiter und immernoch ziemlich seltsam. Wenn er Zens sieht...
Naja Win10/Linux usw verbessert die Ergebnisse von Zen 5. Aber: sie verbessert auch die Ergebnisse von Zen 4 im nahezu gleichen Maße. Bedeutet, das Delta bzw der Fortschritt (in Spielen). Entsprechend trifft der Meme "Zen 5%" leider weiterhin zu.
Wenn Zen 5X3D taktnormiert deutlich stärker werden soll als Zen 4X3D wäre das eine angenehme Überraschung. Aber die Frage ist, wo das herkommen soll. Ist Zen 5 wirklich noch viel mehr abhängig von der gemittelten Zugriffszeit des Rams? Dann müsste sich das aber auch bei der RAM Skalierung mehr zeigen als mit Zen 4 (also dass er stärker von der Senkung der memorylatency profitiert). Ich habe solche Tests allerdings noch nirgends gesichtet. Wäre aber schon bemerkenswert, wenn das auf einmal so sein sollte.
edit:
"Taktnormiert" Da ist er wieder :D Wenn die ähh... Konstruktion höhere Taktraten erlaubt - u.a. kein Gap wegen V-Cache diesmal - dann ist das auch eine Errungenschaft der Architektur, die das ermöglicht hat. Für mich gehört das alles zusammen. Ob man das bei Takten vergleichen muss bei welchen der eine nur so eine Art Halbgas geben darf... Das muss halt jeder selbst für sich beurteilen.
Naja die Takterhöhung ist eher weniger eine Verbesserung der Prozessormikroarchitektur als eher dessen Infrastruktur (Fortschritte im Packaging, der Wärmeableitung und/oder wie granular man unterschiedliche Spannung anlegen kann, ggf layouting für bessere hotspot Verteilung).
Aber ja die Taktsteigerung des X3Ds (bzw die Verhinderung der Absenkung mit VCache) habe ich ja dann schon eingepreist. 10% für Takt (~5,5GHz statt wie vorher 5 GHz) und ~5% taktnormierte Leistung. Sind dann grob 15%. Nicht besonders viel in der Gesamtmehrleistung. Zen 4 brachte ggü Zen 3 wesentlich mehr. 13% mehr taktnormierte Leistung und gute 10% mehr Takt.
Insofern sind 15% Gesamt schon unbeeindruckend. Das ist eine Mehrleistung die man messen aber kaum spüren kann. Es gibt eine Daumenregel die sagt es braucht grob 30% Mehrleistung (außerhalb irgendwelcher border cases) damit es spürbar besser wird.
fondness
2024-10-01, 11:41:23
Naja Win10/Linux usw verbessert die Ergebnisse von Zen 5. Aber: sie verbessert auch die Ergebnisse von Zen 4 im nahezu gleichen Maße. Bedeutet, das Delta bzw der Fortschritt (in Spielen). Entsprechend trifft der Meme "Zen 5%" leider weiterhin zu.
Das stimmt nicht wirklich, Phoronix misst 17.8% Mehrleitung unter Linux vs. Zen4. /Edit: Okay du hast dich wohl auf Games bezogen, die haben sie leider nicht getestet.
Dann müsste sich das aber auch bei der RAM Skalierung mehr zeigen als mit Zen 4 (also dass er stärker von der Senkung der memorylatency profitiert). Ich habe solche Tests allerdings noch nirgends gesichtet. Wäre aber schon bemerkenswert, wenn das auf einmal so sein sollte.
Gibt auch noch immer keine Benchs dazu oder?
Badesalz
2024-10-01, 11:44:21
Naja die Takterhöhung ist eher weniger eine Verbesserung der Prozessormikroarchitektur als eher dessen Infrastruktur (Fortschritte im Packaging, der Wärmeableitung und/oder wie granular man unterschiedliche Spannung anlegen kann, ggf layouting für bessere hotspot Verteilung).Stimme ich zu. Frisst halt bestimmt auch einiges bei R&D an Resourcen und Mühen und Schweiß... (und geht auch nicht komplett auf TSMCs Kappe oder?)
Insofern sind 15% Gesamt schon unbeeindruckend.Ist in etwa das womit der 9700X mit allen Patches und auf 105W vor dem der Launchsetups liegt. Bei Blender bmw27. Das sind grob 22% schneller als ein 7700X. Was nervt ist integer.
Ich glaub das ist recht schwierig pro Generation der gleichen Ära, 30% zuzulegen.
Es tauchen in den Foren auch immer wieder und immer wieder Leute auf die Hilfe dabei brauchen abzuschätzen, ob sie vom 5800X3D auf 7800X3D aufsteigen sollten. Und die haben schon teils vorab einiges gelesen. Nur was sagt uns das grad...
edit:
Ist Zen 5 wirklich noch viel mehr abhängig von der gemittelten Zugriffszeit des Rams? Dann müsste sich das aber auch bei der RAM Skalierung mehr zeigen als mit Zen 4Hatten wir das nicht schon einige Male?
https://www.youtube.com/watch?v=mYu8s5BCvHI
Undertaker
2024-10-01, 12:03:16
edit:
Hatten wir das nicht schon einige Male?
https://www.youtube.com/watch?v=mYu8s5BCvHI
Das ist Zen4 X3D vs. Zen5 non-X3D, das sagt nichts über die Speicherskalierung Zen4 vs. Zen5 allgemein.
Platos
2024-10-01, 12:08:06
Die 720-Seifenblase basiert darauf, daß der Leser angeblich irgendwelche Ziel-FPS sucht. Was er meist nicht tut. Es geht ihm meist darum was es ihm bringt, wenn er z.B. vom 5800X3D auf den 7800X3D wechseln würde. Ihm, nicht was dann das theoretisch maximale mit beiden CPUs möglich ist. Diese Methodik zwingt ihm eine Recherche auf, auf die er einerseits oft nicht nur wenig Bock hat, sondern zu der er sich nicht unbedingt fähig sieht. Was passiert dann also? Er geht nach den Tests und Vergleichen die näher an der Realität sind.
Qch so, und dieser Erkenntnis, "was es ihnen bringt", erlangt der Durchschnittgamer dann mit einem Test, in dem ne RTX 4090 genutzt wird? Also auch wieder nur ein FPS-Wert, den der Normalo nie ereicht?
Sorry, aber du lieferst nicht eine schlüssige Erklärung, warum einem deine Methodik ein besseres (individuelles) Bild abliefert (denn das war ja deine Kritik daran).
Du öffnest einfach mehr variablen und am Ende kommt doch nicht ansatzweise etwas "alltagsrelevantes" dabei raus, da niemand ne RTX 4090 nutzt.
Aber klar, wer mehr Zeit investieren will, kann das für jedes Spiel und jede Auflösungs/Settingskombination herausfinden. Ich denke mir nur -> ist mir meine Zeit nicht wert und mir reichen grobe Geschwindigkeitsdifferenzen im absoluten Limit. Deswegen schaue ich auch kaum noch Einzelbenchmarks sondern scrolle in der Regel zum Index.
Aber wie gesagt: viele Wege führen nach Rom und jeder hat andere Präferenzen.
Ich meinte damit mehr, dass man in einem Test möglichst viele Spiele testen sollte. Mit 3 Games kann ich keine verlässliche Aussage machen (niedrige Stichprobe).
Und ein plumper Durchschnittswert ist auch nicht eine sichere Aussage. Will ich z.B wissen, ob CPU xy meine (z.B) 144 FPS halten kann, dann kann ich nicht einfach plump den Durchschnittswert betrachten. Oft werden noch 2-4 E-Sport Titel mit 300-600FPS getestet, die dann den Durchschnittswert erhöhen. Man muss eigentlich bei jedem Spiel schauen, wie viel erreicht man. Das geht aber auch gar nicht lange (wie das bei dir den Eindruck erweckt). Man acrollt ja nur kurz durch die Seite und dann sieht man direkt, höher oder niedriger als 144FPS (als Beispiel).
Bei der GPU-Perfomance ist das was anderes. Da reicht im normalfall einfach Leonidas Index. Aber bei CPUs ist das je nach Spiel extrem unterschiedlich. Da will ich die "Varianzen" kennen. Wenn Cyberpunk 110 min fps erreicht, csgo aber x-hundert, kriege ich einen völlig falschen Wert, der nicht relevant ist für mich. Ich zocke kein e-sport.
Klar: Wenn man einfach wissen will, welche CPU am schnellsten ist, muss man auch nicht schauen, wie viel dass es für ne bestimmte Framerate braucht (mehr geht ja schliesslich nicht). Aber wenn man schauen will: "wie viel brauche ich für Spiele meines Genre", dann muss ich per game kurz die Balkendiagramme anschauen.
Badesalz
2024-10-01, 12:10:42
Das ist Zen4 X3D vs. Zen5 non-X3D, das sagt nichts über die Speicherskalierung Zen4 vs. Zen5 allgemein."Nichts"? Na dann... :rolleyes:
Ich frag mich aber auch grad warum dich angesichts des durchgebrannten Biasometers ausgerechnet das plötzlich getriggert hat :cop: Lass mich mal kurz darüber nachdenken :uponder:
@Platos
Der Durschschnittsgamer wird erst recht nichts davon checken was bei 720-Tests veranstaltet wird. Komm lieber mit der Realität klar, statt in Laborbedingungen zu schwelgen. Die man sich auch nur ausdenkt um die Verkaufsveranstaltungen zu kaschieren. Schon klar :uup:
Wenn es nichts mehr zu quoten gab bin ich mit meinem Beitrag aber halbwegs zufrieden. Danke.
robbitop
2024-10-01, 12:11:07
Das stimmt nicht wirklich, Phoronix misst 17.8% Mehrleitung unter Linux vs. Zen4. /Edit: Okay du hast dich wohl auf Games bezogen, die haben sie leider nicht getestet.
Jo auf Games. L1Tech hat das gemessen und kam auf die Ergebnisse.
Gibt auch noch immer keine Benchs dazu oder?
Ich kenne jedenfalls keine.
edit:
Hatten wir das nicht schon einige Male?
https://www.youtube.com/watch?v=mYu8s5BCvHI
Leider kein Vergleich zu Zen 4 nonX3D wie der in gleichen Spielen mit den gleichen Memorystufen skaliert. Entsprechend fehlen da dann leider wesentliche Datenpunkte um o.g. Schluss daraus ziehen zu können.
Badesalz
2024-10-01, 12:19:10
Das ist wohl klar. Vorab, robbitop. Vorab Infos zu jenem Thema. Nicht immer nur silberne Tabletts mit schon bestens Vorgekautem. Du hast hier im Thread doch schon eine staatliche Unmenge an Abschätzungen geliefert. Da klemmt doch jetzt nicht plötzlich was (?)
Irgendwie klang die Anfrage aber eh so unpositiv... als wenn es auf der anderen Seite unbekannt wäre welche wilden Klimmzüge Intel - oder die Anhänger - mehrere Generationen lang mit Gear2 DDR5 veranstalten um überhaupt mithalten zu können.
Oder war ich an der Stelle kurz überemphatisch beim Textverständnis?
Platos
2024-10-01, 12:28:03
@Platos
Der Durschschnittsgamer wird erst recht nichts davon checken was bei 720-Tets veranstaltet wird. Komm lieber mit der Realität klar, statt in Laborbedingungen zu schwelgen. Die man sich auch nur ausdenkt um diese Verkaufsveranstaltungen zu vernebeln. Schon klar :uup:
Wenn es nichts mehr zu quoten gab bin ich mit meinem Beitrag aber halbwegs zufrieden. Danke.
Ok, also kommt immer noch kein schlüsseliges Argument...
Mit der 720p Methode braucht es genau 2 Dinge: Schauen, wie viel FPS erreicht mam mit CPU X und schauen, welche GPU brauche ich für diese Framerate. That's it.
Deine Methode: "Praxistests" für den Durchschnittsgamer in potentiell GPU-Limitierter Umgebung mit einer völlig praxisfernen GPU getestet, um dann zu entscheiden, was es dem Durchschnittsgamer im Alltag real bringt...
Völlig widersprüchlich alles... Auf der einen Seite wissen wollen, was es einem im Alltag bringt (also wie viel FPS kriege ich mehr), dann aber mit ner RTX 4090 testen...
Badesalz
2024-10-01, 12:36:29
und schauen, welche GPU brauche ich für diese Framerate. That's it.Wie macht man das nochmal?
amdfanuwe
2024-10-01, 13:29:05
Und diese überflüssige Diskussion gibt es jedes Mal, wenn neue CPUs gelauncht sind. Kann man echt die Uhr nach stellen. :D
Jetzt weist du wie sich Lehrer fühlen, wenn sie jedes Jahr das selbe predigen müssen.
Undertaker
2024-10-01, 13:46:38
"Nichts"? Na dann... :rolleyes:
Ich frag mich aber auch grad warum dich angesichts des durchgebrannten Biasometers ausgerechnet das plötzlich getriggert hat :cop: Lass mich mal kurz darüber nachdenken :uponder:
Wer hat denn dir heute in die Suppe gespuckt? ;) Das Posting enthielt nicht einmal den Namen eines anderen Herstellers und schon bist du angestachelt?
Die "Härte" der Aussage, dass X3D vs non-X3D wirklich keine Aussagekraft hat, muss man leider so klar festhalten. Auch Zen4-intern war die Skalierung beim X3D-Modell erheblich geringer als bei non-X3D, was auch absolut einleuchtet: Mehr Cache gleich weniger Speicherzugriffe gleich Reduktion des entsprechenden Bottlenecks, damit auch weniger Zugewinne durch schnelleren RAM.
Welcher Grund fällt uns ein, warum beim Vergleich Zen4 vs. Zen5 (X3D vs. X3D oder beiden ohne Zusatzcache) ein grundsätzlich anderes Speicherskalierungsverhalten vorliegen sollte? Ich wüsste erst einmal keinen substanziellen Faktor...
y33H@
2024-10-01, 13:46:47
Wie macht man das nochmal?GPU-Benchmarks angucken? :freak:
Lehdro
2024-10-01, 14:27:41
Mit der 720p Methode braucht es genau 2 Dinge: Schauen, wie viel FPS erreicht mam mit CPU X und schauen, welche GPU brauche ich für diese Framerate. That's it.
Und wem das immer noch zu kompliziert ist: PCGH kaufen, da werden beide Testarten (CPU/GPU) in einem Graphen kombiniert, für 4 Auflösungen. Da sieht man dann das in 4K ein 9900K für eine 4070 (zufällliges Beispiel) reicht aber man in 1440p einen 7800X3D für eine 4090 (weiteres zufälliges Beispiel) braucht.
robbitop
2024-10-01, 14:41:49
Das ist wohl klar. Vorab, robbitop. Vorab Infos zu jenem Thema. Nicht immer nur silberne Tabletts mit schon bestens Vorgekautem. Du hast hier im Thread doch schon eine staatliche Unmenge an Abschätzungen geliefert. Da klemmt doch jetzt nicht plötzlich was (?)
Irgendwie klang die Anfrage aber eh so unpositiv... als wenn es auf der anderen Seite unbekannt wäre welche wilden Klimmzüge Intel - oder die Anhänger - mehrere Generationen lang mit Gear2 DDR5 veranstalten um überhaupt mithalten zu können.
Oder war ich an der Stelle kurz überemphatisch beim Textverständnis?
Ich glaube es liegt ein Misverständnis vor. Ich habe nicht nach Benchmarks gefragt sondern nur gesagt, solche die den Impact von skalierender Memorylatency auf die Performance messen, Aufschluss darüber geben könnten, ob Zen 5 im Gaming überdurchschnittlich durch Memorylatency gebremst werden was die einzige Möglichkeit wäre, warum ein X3D taktnormiert eine größere Differenz zu Zen 4X3D liefern würde als Zen5 vs Zen4.
Ich hatte da keinerlei Erwartungshaltung - ich habe lediglich den Link den du geteilt hast angeschaut und gesehen, dass der dafür leider nicht taugt. Nicht mehr und nicht weniger. Meinerseits gab es keine Anfrage oder Erwartungshaltung.
Ich meinte damit mehr, dass man in einem Test möglichst viele Spiele testen sollte. Mit 3 Games kann ich keine verlässliche Aussage machen (niedrige Stichprobe).
Sehe ich auch so. Deswegen spreche ich immer von breiten Indizes. :)
Sardaukar.nsn
2024-10-01, 15:01:11
Und wem das immer noch zu kompliziert ist: PCGH kaufen, da werden beide Testarten (CPU/GPU) in einem Graphen kombiniert, für 4 Auflösungen. Da sieht man dann das in 4K ein 9900K für eine 4070 (zufällliges Beispiel) reicht aber man in 1440p einen 7800X3D für eine 4090 (weiteres zufälliges Beispiel) braucht.
Viele Leute, auch hier im Forum haben sich zum Schluss von AM4 aus guten Gründen noch einen 5800x3D gegönnt.
Jetzt kommt bald schon der zweite Nachfolger, u.a. wieder mit neuen Boards.
Man fragt sich, was der Umstieg auf AM5 denn bei einem 4K-Gaming PC an Mehrleistung bringt, und das Upgrade kosten würde. Kurz: Macht der Wechsel Sinn?
Das ist doch ein ganz normales Anliegen.
Badesalz
2024-10-01, 16:42:27
GPU-Benchmarks angucken? :freak:Das wars? Nachdem wir also zäh durchgingen wie man einzig und alleine CPUs testet - und wie sehr wichtig das ist - ist beim Ausgucken der Graka völlig egal welchen Test mit welcher Methodik man sich anschaut?
Die ggf. Auswahl der richtigen Grafikkarte ist also ungleich einfacher als der richtigen CPU? In der Zeit wo die allermeisten zu allermeist im GPU-Limit hängen?
Das scheinen aktuell sehr spannende Zeiten zu sein...
@sardau
S/ Um ein normales Anliegen ging es wohl eher weniger, schätze ich ;) /S
Sardaukar.nsn
2024-10-01, 17:35:01
@Badesalz: Ach, gibt doch sicher noch genug Leute die noch auf AM4 unterwegs sind und sich fragen, wann der richtige Zeitpunkt für den Umstieg auf AM5 ist. Soweit, so normal.
Badesalz
2024-10-01, 18:44:00
@sardau
Tags hinzugefügt :wink:
Lehdro hat in #3903 tatsächlich Recht. Da wird die Aufgabe auch umfänglich gemeistert. Das ist das einzig sinnvolle für das allgemeine Fußvolk, WENN ;) die einzelnen Ergebnisse gut nachvollziehbar sind.
basix
2024-10-02, 12:48:53
Was ich eigentlich noch cool finden würde: Einen "Siena-X" mässigen Threadripper mit Zen 5
- 4x 8C Chiplets + V-Cache
- 6x DDR5 Channels
- 64x PCIe 5.0 Lanes
Als Prosumer/Consumer Plattform wäre das mehr als genug. Wäre auch bei Gaming sehr potent. Alle anderen mit sehr hohen Anforderungen können zu Threadripper PRO greifen.
Badesalz
2024-10-02, 16:31:01
Für das Geld für so ein System könnte man wahrscheinloich auch eine DGX Station kaufen :wink:
Ich glaub das würde dann auch für Prosumer nichts taugen
M4xw0lf
2024-10-02, 20:05:52
Viele Leute, auch hier im Forum haben sich zum Schluss von AM4 aus guten Gründen noch einen 5800x3D gegönnt.
Jetzt kommt bald schon der zweite Nachfolger, u.a. wieder mit neuen Boards.
Man fragt sich, was der Umstieg auf AM5 denn bei einem 4K-Gaming PC an Mehrleistung bringt, und das Upgrade kosten würde. Kurz: Macht der Wechsel Sinn?
Das ist doch ein ganz normales Anliegen.
Eines das man sich mit diesen Benchmarks hervorragend beantworten kann.
basix
2024-10-02, 20:10:25
Für das Geld für so ein System könnte man wahrscheinloich auch eine DGX Station kaufen :wink:
Ich glaub das würde dann auch für Prosumer nichts taugen
Was hat eine DGX Station für 50k$+, 64C Epyc und 4x HPC-GPUs mit einem relativ kleinen Threadripper für Prosumer inkl. Gaming-Eignung zu tun? Genau, gar nichts.
Ein Siena-X wäre für z.B. Dual RTX 6000 Ada ideal. Oder eben die kommenten GB202 Blackwell Derivate mit PCIe 5.0 und 64GB VRAM. Mit geringerem Budget sind es dann halt "nur" 2x RTX 5090. Für Rendering, ML/AI, CAD, Simulationen usw. wäre das eine starke Combo. Und eben auch für Gaming tauglich.
amdfanuwe
2024-10-02, 21:11:09
@Basix
Was stört sich an einem Threadripper sTR5?
Badesalz
2024-10-04, 10:35:12
Was hat eine DGX Station für 50k$+, 64C Epyc EHRLICH? In der DGX werden AMD Epyc verbaut?
Janos
2024-10-05, 05:54:45
@Basix
Was stört sich an einem Threadripper sTR5?
RDIMM, will ich im Server haben aber bei einem HEDT brauch ich das nicht.
Ein 4x48GB Kit mit 6400MT CL32-39-39-102 ist auch gerade mal wieder nicht zu bekommen und DDR5-5600 mit CL46-45-45 würde ich mir nicht kaufen.
DIY ist im Moment zum erbrechen, die Desktop Systeme sind zu klein und sTR5 ist in meinen Augen kein HEDT.
So was wie Sockel 2066 mit 48x PCIe Lanes und Quad Channel mit Support für Unbuffered DIMMs würde ich sofort kaufen.
Latenzen wie ein Desktop aber ausreichend PCIe Lanes, da würde ich sogar von Intel kaufen, aber nur ohne E-Cores :)
dildo4u
2024-10-05, 06:41:29
EHRLICH? In der DGX werden AMD Epyc verbaut?
Nur in der Version von 2020.
A100
https://docs.nvidia.com/dgx/dgx-station-a100-user-guide/intro-to-station-a100.html
Danach Xeon:
H100
https://docs.nvidia.com/dgx/dgxh100-user-guide/introduction-to-dgxh100.html
B200
https://resources.nvidia.com/en-us-dgx-systems/dgx-b200-datasheet
OgrEGT
2024-10-05, 07:53:52
https://videocardz.com/newz/alleged-ryzen-9000x3d-cinebench-r23-scores-emerge-10-to-28-faster-than-7000x3d
Alleged Ryzen 9000X3D Cinebench R23 scores emerge, 10% to 28% faster than 7000X3D
Sardaukar.nsn
2024-10-05, 09:35:42
+17% Cinebench R23 ST Score zum 7800x3D wäre schon okay.
Bleibt nur die fragen ob der Gaming CPU das auch irgendwie auf die Straße bzw. den in-Game umsetzen kann.
basix
2024-10-05, 09:46:46
EHRLICH? In der DGX werden AMD Epyc verbaut?
Ein Threadripper mit Siena-X ist kein EPYC. V-Cache, Desktop-Takt und Support für schnellen DRAM machen den Unterschied. Oder willst du auf einem 3 GHz EPYC mit schnarchlahmen DDR-4800 spielen? Und zudem kann man auf einer DGX Station mit A100 gar nicht spielen, da müsstest du den Vorgänger mit V100 nehmen (der ist 7 Jahre alt ;))
Nur in der Version von 2020.
A100
https://docs.nvidia.com/dgx/dgx-station-a100-user-guide/intro-to-station-a100.html
Danach Xeon:
H100
https://docs.nvidia.com/dgx/dgxh100-user-guide/introduction-to-dgxh100.html
B200
https://resources.nvidia.com/en-us-dgx-systems/dgx-b200-datasheet
Es ging um die DGX Station, also den Desktop DGX. Den gibt es für H100 und B200 gar nicht.
Badesalz
2024-10-05, 10:09:10
@OgrEGT
Erscheint relativ fett. MinFPS is King.
@dildo4u
AH? Vielen Dank. Danke :up:
Oder willst du auf einem 3 GHz EPYC mit schnarchlahmen DDR-4800 spielen?Die UberHEDT die du dir da gewünscht hast war zum Daddeln? Ja dann erwägen sie das bestimmt mittlerweile...
PS:
Es ging um die DGX Station, also den Desktop DGX. Den gibt es für H100 und B200 gar nicht.Fogle einfach dem jeweiligen Kontext oder lass es.
@sardu
Du machst mich mit deinem beständigen der CPU ganz schön fertig :usweet:
@all
ACHTUNG
https://www.hardwareluxx.de/community/threads/amd-ryzen-7-9700x-fake-auf-amazon.1358691/#post-30529300
basix
2024-10-05, 10:20:20
Ah? Der UberHEDT den du dir da gewünscht hast, war zum Daddeln? Ja dann erwägen sie das bestimmt mittlerweile...
32C = Uber-HEDT? Du legst mir da Dinge in den Mund ;)
Und ja, ich würde so etwas wollen, weil man den auch zum Gaming verwenden kann. V-Cache wäre noch das Tüpfelchen auf dem i. Wäre doch nice, wenn eine CPU für 2k$ auch beim Gaming mit zum Besten gehört. Oder soll ich 2x verschiedene Systeme kaufen und betreiben, wenn ich für 32C Use-Cases habe als auch ein Gamer bin?
Threadripper (PRO) wie es ihn heute gibt ist nur noch Workstation. Das kauft sich niemand für private Zwecke. Viel zu teuer und für Prosumer Zwecke auch überdimensioniert (128 PCIe Lanes sind schön, nur was mache ich ohne x4 GPUs damit?)
Fogle einfach dem Kontext oder lass es.
OK, meine Gnaden....du warst nämlich die Person, die mit der DGX Station vom Thema abgewichen ist....
@Basix
Was stört sich an einem Threadripper sTR5?
Siena hat ein deutlich kleineres IOD, weniger DRAM-Channels, weniger PCIe-Lanes und einen kleineren Sockel. Das würde günstigere CPUs wie auch Boards ermöglichen. Sagen wir mal 1500$ anstatt 5k$+ für die CPU ;)
Threadripper (PRO) & sTR5 sind wie oben geschrieben für viele Zwecke überdimensioniert
Edit:
Zumindest ein 7960X mit 24C wäre für 1300 Euro zu haben. Aber halt ohne V-Cache und die Boards bleiben teuer. 7970X geht scho für 2200 Euro weg.
fondness
2024-10-05, 10:41:57
https://videocardz.com/newz/alleged-ryzen-9000x3d-cinebench-r23-scores-emerge-10-to-28-faster-than-7000x3d
Alleged Ryzen 9000X3D Cinebench R23 scores emerge, 10% to 28% faster than 7000X3D
Die Scores sind inkonsistent. Zumindest sehe ich keinen plausiblen Grund, warum der 9800X3D soviel stärker zulegen sollte als der 9950X3D.
Badesalz
2024-10-05, 10:47:04
@fondness
Tatsächlich nicht? Das ist aber schwach diesmal :tongue:
Der Große hat 2x V-Cache und V-Cache hat beim CB bisher immer eher gestört als geholfen. Soweit Checkov?
Die Ergebnisse deuten schon so einiges an. Wo ist robbi? :wink:
@basix
Das macht irgendwie viel zu oft einfach müde :ubash2:
fondness
2024-10-05, 10:56:16
Hm, stimmt das könnte hinkommen. :D
Dann zeigen die Scores auf jeden Fall, dass der Takt nicht oder nur Minimal sinkt. Und die schwächere 9950X3D MT Skalierung könnte tatsächlich zeigen, dass auf beiden Dies der 3d-Cache drauf ist (was ja auch Sinn macht denn wenn der Takt nicht mehr sinkt gibt es keinen Grund mehr ihn nur auf ein Die drauf zu machen).
Badesalz
2024-10-05, 10:59:41
Dann zeigen die Scores auf jeden Fall, dass der Takt nicht oder nur Minimal sinkt.Wurde ja über die Leaker :wink: schon ne ganze Weile auch so kommuniziert. Genauso wie mit dem 2x V-Cache.
Stellt sich halt nur jetzt real raus, daß es keine Enten waren. Ich schätze der 8-Core wird die minFPS (2k, 4k) doch noch rocken können. 6200/28 RAM dazu (tech YES city Settings) und die 5090 kann kommen :ulol:
Radeonfreak
2024-10-05, 11:03:55
Genauso wie mit dem 2x V-Cache.
Wo steht das? Das ist Quatsch.
fondness
2024-10-05, 11:04:16
Wurde ja über die Leaker :wink: schon ne ganze Weile auch so kommuniziert. Genauso wie mit dem 2x V-Cache.
Stellt sich halt nur jetzt real raus, daß es keine Enten waren. Ich schätze der 8-Core wird die minFPS (2k, 4k) doch noch rocken können. 6200/28 RAM dazu (tech YES city Settings) und die 5090 kann kommen :ulol:
Das wird jedenfalls locker reichen gegen alles was Intel liefern kann. Denn das bedeutet 10% mehr Takt, den IPC-Gewinn von Zen5, den Gewinn durch den Windows-Patch und einen Leistungsgewinn bei allem das von mehr als 8 Cores profitiert durch den doppelten Cache.
fondness
2024-10-05, 11:08:50
Wo steht das? Das ist Quatsch.
Passt aber perfekt zu den Werten. Der 7950X3D hat bei einem CCD schon den vollen Takt, deshalb die geringere Skalierung des 9950X3D im MT. Dasselbe beim ST-Wert, der läuft beim 7950X3D bereits auf dem Die ohne Cache mit vollem Takt.
Apples vs. Apples ist also nur 7800X3D vs. 9800X3D und da sieht man +20% ST und +28% MT Performance.
Badesalz
2024-10-05, 11:12:25
Passt aber perfekt zu den Werten.Ja was solls. Es reicht einfach in einer Zeile zu fragen wo das steht und zu sagen, daß es Quatsch ist.
Ist ja nicht so, daß ein Beitrag auch zwingend einen Inhalt haben muss.
Apples vs. Apples ist also nur 7800X3D vs. 9800X3D und da sieht man +20% ST und +28% MT Performance.Und das ist wie gesagt CB. Bildet bei den X3D also den kleinsten Zuwachs ab (?) :tongue:
basix
2024-10-05, 11:53:48
Wenn ich tippen würde:
9950X3D und 9800X3D haben die selben Taktraten wie 9950X resp. 9700X. Der 9800X3D wird allerdings mit Default 105W TDP ausgeliefert und der 9700X mit 65W.
Badesalz
2024-10-05, 12:07:44
Passt. Aber auch die nahezu gleichen Taktraten waren schon sehr oft im Gespräch ;)
amdfanuwe
2024-10-05, 13:55:20
Siena hat ein deutlich kleineres IOD, weniger DRAM-Channels, weniger PCIe-Lanes und einen kleineren Sockel. Das würde günstigere CPUs wie auch Boards ermöglichen. Sagen wir mal 1500$ anstatt 5k$+ für die CPU ;)
Nope.
Siena, EPYC und Threadripper 7000 verwenden den gleichen I/O-Die.
EPYC mit 12 DRAM Channel,
Siena mit 6 DRAM Channel,
Threadripper mit 4 DRAM Channel.
Siena SP6 96 PCIe 5.0
Threadripper sTR5 48 PCIe 5.0, bis zu 92 PCIe gesamt.
Siena und Threadripper verwenden den gleich Sockel, sTR5 hat nur eine andere Pinbelegung gegenüber Siena SP6.
Siena SP6 max 225W TDP, Threadripper sTR5 350W.
Und ja, 1474,63€ für eine 24 Kern CPU ist für mich auch zu teuer. Wer es beruflich nutzt, den juckt das nicht weiter, ansonsten muss man überlegen, was einem das Hobby wert ist. Vielleicht gehen die im Preis runter, wenn dann die ZEN5 Generation erscheint.
basix
2024-10-05, 14:16:00
Hast recht, Siena nutzt noch das grosse IOD. Das wird sich vermutlich bei Zen 6 ändern, wenn man kein monolithisches IOD mehr haben sollte.
Nichtsdestotrotz:
Ein "kleiner" Threadripper mit V-Cache wäre in meinen Augen etwas, was AMD ins Auge fassen sollte. Wenn sie die Threadripper Plattform eh noch haben (sTR5 oder dessen Nachfolger) wäre das eine schöne ergänzende CPU und aufgrund Chiplet & V-Cache Ansatz mit geringem Aufwand machbar.
fondness
2024-10-05, 14:20:58
Wenn ich tippen würde:
9950X3D und 9800X3D haben die selben Taktraten wie 9950X resp. 9700X. Der 9800X3D wird allerdings mit Default 105W TDP ausgeliefert und der 9700X mit 65W.
Sieht so aus, ist eine Punktlandung mit dem 9700X bei 105W.
https://www.computerbase.de/news/prozessoren/erste-benchmarks-kommen-amd-ryzen-9800x3d-und-9950x3d-ohne-takt-einbussen.89859/
Radeonfreak
2024-10-05, 14:38:33
Ich denke die Werte sind totaler Humbug.
Ein AMD Ryzen 9 9950X3D in Cinebench vor dem 9950X? In einem Benchmark wo Cache keine Rolle spielt. Im Leben nicht.
Wie hier manche Leute wieder hypen und den Verstand abschalten ist bemerkenswert....dämlich.
Ich denke die Werte sind totaler Humbug.
Ein AMD Ryzen 9 9950X3D in Cinebench vor dem 9950X? In einem Benchmark wo Cache keine Rolle spielt. Im Leben nicht.
Wie hier manche Leute wieder hypen und den Verstand abschalten ist bemerkenswert....dämlich.
Sollte der gleiche Takt geschafft werden, gibt es eher keinen Grund, etwas Anderes zu erwarten...
fondness
2024-10-05, 14:46:01
Ich denke die Werte sind totaler Humbug.
Ein AMD Ryzen 9 9950X3D in Cinebench vor dem 9950X? In einem Benchmark wo Cache keine Rolle spielt. Im Leben nicht.
Wie hier manche Leute wieder hypen und den Verstand abschalten ist bemerkenswert....dämlich.
Das ist ein Gleichstand innerhalb der messtoleranz. Und vielleicht hat auch der 9950X3D etwas mehr TDP, der 9950X riegelt ja bei 200 W ab. Der 9800X3D scheint ja auch mit 105W zu kommen wenn die Werte stimmen.
amdfanuwe
2024-10-05, 14:53:12
wenn man kein monolithisches IOD mehr haben sollte.
Bin jetzt erst mal auf Donnerstag gespannt, wie AMD die Anbindung von 16 ZEN5 Chiplets beim 128 Core EPYC gelöst hat.
Der bisherige IO-Die bietet ja nur 12 IFOPs.
Vielleicht kommt ja schon eine dual IO-Die Lösung.
Für Siena ZEN5 und Threadripper 9000 reicht dann ein IO-Die.
----
Hab auch grad noch gesehen, dass es ja noch Threadripper PRO WRX90 mit 128 PCIe 5.0 Lanes und 8 Channel DDR gibt. Die können auch auf TRX50 mit den entsprechenden Einschränkungen verwendet werden. Schon etwas verwirrend.
Radeonfreak
2024-10-05, 14:57:41
Das ist ein Gleichstand innerhalb der messtoleranz. Und vielleicht hat auch der 9950X3D etwas mehr TDP, der 9950X riegelt ja bei 200 W ab. Der 9800X3D scheint ja auch mit 105W zu kommen wenn die Werte stimmen.
Ich bin ja wirklich selten mit PCGH Dave einer Meinung aber der sieht das genau so.
https://extreme.pcgameshardware.de/threads/ryzen-9-9950x3d-und-ryzen-7-9800x3d-im-cinebench-r23.653930/post-11707932
Linmoum
2024-10-05, 15:03:45
Der Score ergibt trotzdem Sinn, wenn es diesmal kaum eine/keine Taktregression gibt. Den 9700X macht das auch nicht obsolet, der sinkt dann einfach im Preis und fertig. Früher oder später bleibt es sowieso nicht nur bei einem 8C im Portfolio.
fondness
2024-10-05, 15:05:47
Ich bin ja wirklich selten mit PCGH Dave einer Meinung aber der sieht das genau so.
https://extreme.pcgameshardware.de/threads/ryzen-9-9950x3d-und-ryzen-7-9800x3d-im-cinebench-r23.653930/post-11707932
Seltsamer Kommentar. Der 9700X wird sicher nicht obsolet, ganz einfach weil er sehr viel billiger sein wird als der 9800X3D. Wenn man so argumentiert ist jedes Produkt außer dem top Modell obsolet.
Wie gesagt der score passt perfekt zu einem 9700X bei 105W. Und die 105W kann man im übrigen auch beim 9700X innerhalb der Garantie einstellen.
KarlKastor
2024-10-05, 15:11:04
Ich bin ja wirklich selten mit PCGH Dave einer Meinung aber der sieht das genau so.
https://extreme.pcgameshardware.de/threads/ryzen-9-9950x3d-und-ryzen-7-9800x3d-im-cinebench-r23.653930/post-11707932
Der Post ist Unsinn. Ein 9700x kommt auch auf 23000 mit 105 W.
Beim 9950x3D ist es etwas zu hoch. Aber ~3% sind halt auch Messungenauigkeit und Speicher.
bbott
2024-10-05, 17:09:06
+17% Cinebench R23 ST Score zum 7800x3D wäre schon okay.
Bleibt nur die fragen ob der Gaming CPU das auch irgendwie auf die Straße bzw. den in-Game umsetzen kann.
Das ist ein erster Beleg, dass die 3D genauso hoch tanken wie die non3D und auch in Games zu den rund 7 Prozent noch 10 Prozent durch den Takt hinzukommen, allerdings auf Kosten der Energie Effizenz ;)
bbott
2024-10-05, 17:10:41
Die Scores sind inkonsistent. Zumindest sehe ich keinen plausiblen Grund, warum der 9800X3D soviel stärker zulegen sollte als der 9950X3D.
Zweites Chiplet, ist doch logisch.
basix
2024-10-05, 17:46:03
Ich bin ja wirklich selten mit PCGH Dave einer Meinung aber der sieht das genau so.
https://extreme.pcgameshardware.de/threads/ryzen-9-9950x3d-und-ryzen-7-9800x3d-im-cinebench-r23.653930/post-11707932
Dafür dass Dave der CPU-Redakteur von PCGH ist, redet er ziemlichen Unsinn in seinem Post. CB hat es ja schön aufgezeigt: Die X3D liegen bei gleicher TDP auf gleichem Niveau wie die non-X3D Varianten. Hier mal ein paar Punkte mehr oder weniger sind Messtoleranz und Plattform-Unterschiede. Zudem taktet auch nicht jede CPU aufs Megahertz exakt gleich.
Ausserdem macht es aus Portfolio-Sicht sehr viel Sinn, das eine Ding 9700X zu nennen und 65W TDP zu gewähren und beim anderen 9800X3D mit 105W. Dann ist man bei MT +10% schneller als der 9700X, was eine höhere Modellnummer rechtfertigt. Bis anhin waren X3D "ausser Konkurrenz", weil sie die Gaming-Performance nach oben getrieben haben aber gleichzeitig weniger ST & MT Performance geboten haben. Da war es eher sinnfrei den 7800X3D anstatt 7700X3D zu nennen. Jetzt bietet der 9800X3D eine viel höhere Spieleleistung, gleich viel ST und etwas mehr MT Performance. Ist doch alles vernünftig so. Wird dann halt entsprechend mehr kosten als ein 9700X. Da war es sinnfreier, einen 1700X neben einem 1800X zu haben. Ach ja, es gab bereits 3700X / 5700X mit 65W neben 3800X / 5800X mit 105W. Dort war der Unterschied aber eigentlich deutlich geringer, da kein V-Cache. Typischerweise war ein 3800X / 5800X hinsichtlich P/L nicht wirklich sinnvoll. Beim 9800X3D sehe ich das aufgrund des V-Caches etwas anders.
Dito beim 9950X3D. Keine Performance-Regression in allen Bereichen und oben drauf noch V-Cache. Deswegen wird AMD dafür mehr Geld verlangen.
fondness
2024-10-05, 18:17:16
Dafür dass Dave der CPU-Redakteur von PCGH ist, redet er ziemlichen Unsinn in seinem Post. CB hat es ja schön aufgezeigt: Die X3D liegen bei gleicher TDP auf gleichem Niveau wie die non-X3D Varianten. Hier mal ein paar Punkte mehr oder weniger sind Messtoleranz und Plattform-Unterschiede. Zudem taktet auch nicht jede CPU aufs Megahertz exakt gleich.
Ausserdem macht es aus Portfolio-Sicht sehr viel Sinn, das eine Ding 9700X zu nennen und 65W TDP zu gewähren und beim anderen 9800X3D mit 105W. Dann ist man bei MT +10% schneller als der 9700X, was eine höhere Modellnummer rechtfertigt. Bis anhin waren X3D "ausser Konkurrenz", weil sie die Gaming-Performance nach oben getrieben haben aber gleichzeitig weniger ST & MT Performance geboten haben. Da war es eher sinnfrei den 7800X3D anstatt 7700X3D zu nennen. Jetzt bietet der 9800X3D eine viel höhere Spieleleistung, gleich viel ST und etwas mehr MT Performance. Ist doch alles vernünftig so. Wird dann halt entsprechend mehr kosten als ein 9700X. Da war es sinnfreier, einen 1700X neben einem 1800X zu haben. Ach ja, es gab bereits 3700X / 5700X mit 65W neben 3800X / 5800X mit 105W. Dort war der Unterschied aber eigentlich deutlich geringer, da kein V-Cache. Typischerweise war ein 3800X / 5800X hinsichtlich P/L nicht wirklich sinnvoll. Beim 9800X3D sehe ich das aufgrund des V-Caches etwas anders.
Dito beim 9950X3D. Keine Performance-Regression in allen Bereichen und oben drauf noch V-Cache. Deswegen wird AMD dafür mehr Geld verlangen.
Gut analysiert. Dadurch kann man auch zwei Dinge annehmen:
Mit der niedrigen Leistungsaufnahme der X3D Chips wird es durch den höheren takt wohl vorbei sein.
AMD wird wohl mehr verlangen können als bisher, da die X3D Modelle nun in jeder Hinsicht zu bevorzugen sind.
Badesalz
2024-10-05, 20:34:55
Ich denke die Werte sind totaler Humbug.
Ein AMD Ryzen 9 9950X3D in Cinebench vor dem 9950X?Welche AGESA jeweils? :ulol:
Wie hier manche Leute wieder hypen und den Verstand abschalten ist bemerkenswert....dämlich.Ich glaub dämlich ist sich immer so hart festzulegen bevor man was handfestes im Griffel hat. Weniger absolutistische Prosa, wie bei den Erstdämlichen, und man steht hinterher wenigstens nicht wie ein Volldepp da :up:
@fondness
Haben die 7er X3D eigentlich eine niedrigere TDP? Ich mein da war was... Haben sie aber auch eine niedrigere PPT?
Wenn man 2x V-Cache verbaut, dann ist es irgendwie logisch, daß es einen auch mehr kostet. Egal wer die wobei bevorzugt. Wenn das aber 100% so wäre wie du bechreibst, dann hätte man die non-3D garnicht mehr gebracht ;) Macht man NUR X3D, kann man es bisschen tiefer kalkulieren. Hätte nur Vorteile gegenüber der Konkurrenz.
edit:
Ich glaub die PS6 wird gut :rolleyes:
Nightspider
2024-10-05, 21:37:58
AMD wird wohl mehr verlangen können als bisher, da die X3D Modelle nun in jeder Hinsicht zu bevorzugen sind.
Schon möglich.
Der Generationssprung wird trotzdem niedriger sein, als die meisten vor der Zen5 Vorstellung gehofft hatten.
Nehmen wir mal an die +10% Takt stimmen und die IPC steigt im Gaming durchschnittlichen um 5%, dann sind es trotzdem nur ~~15% schneller als der 7800X3D. In Anwendungen sind es vielleicht 20-25% im Durchschnitt aber ob jetzt viele Gamer wegen +15% aufrüsten oder höhere Preise zahlen werden bleibt fraglich.
Zur Markteinführung kam der 7800X3D auch schon 499€ und ist aktuell ab ~420 Euro erhältlich. Für 549€ und mehr zum Marktstart würde es der 9800X3D schon schwer haben. Da greifen dann erstmal nur die Enthusiasten zu und die Leute, welche die gestiegene Anwendungsleistung auch gut gebrauchen können.
AMD würde auch gut damit fahren den Einführungspreis gleich zu behalten. Intels Ruf hat gelitten und Zen5 liegt bisher wie Blei im Regal.
Ein Negativpunkt ist vielleicht auch das die verbesserte Sprungvorhersage unter Windows10 ausgebremst wird.
Wer vorerst bei Windows10 bleiben will, wegen besserer Performance als unter Windows11, bei dem liegt ein Teil des Zen5 Potentials brach.
Linmoum
2024-10-05, 21:50:06
und die IPC steigt im Gaming durchschnittlichen um 5%Warum sollte die IPC in Spielen im Vergleich zu den non-X3D sinken? Durch 24H2 sind es schon jetzt bei grob vergleichbarem Takt in Spielen >10% (7700X vs. 9700X). Naheliegend ist eher, dass der Cache hier mehr kaschieren kann und der Zuwachs sogar größer wird.
Nightspider
2024-10-05, 21:53:15
Warum sollte die IPC in Spielen im Vergleich zu den non-X3D sinken? Durch 24H2 sind es schon jetzt bei grob vergleichbarem Takt in Spielen >10% (7700X vs. 9700X). Naheliegend ist eher, dass der Cache hier mehr kaschieren kann und der Zuwachs sogar größer wird.
Zen3 und Zen4 sind auch schneller geworden durch das Windows11 Update. Von über 10% im Durchschnitt sehe ich nichts.
Leider finde ich wenige aktuelle Tests mit allen Windows Updates, 105W Mode und allen wichtigen CPUs im Vergleich.
Der neueste Test von Hardwareluxx hat den 7700X nicht dabei.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/64570-ryzen-5-9600x-und-ryzen-7-9700x-105-w-modus-im-test.html?start=8
Wenn ich 7600X mit 9600X (105W) vergleiche, sehe ich zwar teils auch kaputte Werte von Zen5 aber auch das er zwischen 2 und 12% schneller ist. Im Durchschnitt sind das ~~6% auf die kleine Spieleauswahl bezogen, wenn man die kaputten Werte nicht mitzählt.
Wenn du einen aktuellen und besseren Test hast bitte Link teilen.
Im Moment ist es tatsächlich unübersichtlich. Mein 7950x3d läuft am besten mit Agesa 1.201, mit Agesa 1.202 geht es allerdings im Bereich der Mesdungenaugkeit leicht runter. Und ich benutze Realworld Programme wie CP, Solid, kompilieren in Steinberg usw.! BTW. funktionieren DDR5-8200 und wahrscheinlich mehr ohne Trick. Mehr als 8200 macht meine CPU nicht mit, leider...
Badesalz
2024-10-06, 09:13:44
Nehmen wir mal an die +10% Takt stimmen und die IPC steigt im Gaming durchschnittlichen um 5%, dann sind es trotzdem nur ~~15% schneller als der 7800X3D. In Anwendungen sind es vielleicht 20-25% im Durchschnitt aber ob jetzt viele Gamer wegen +15% aufrüsten oder höhere Preise zahlen werden bleibt fraglich.Fantasierst du grad rum, daß ein Zen mit V-Cache in Anwendugen stärker sein wird als in Spielen?
:popcorn:
Luxx? Junge...
Darkearth27
2024-10-06, 09:29:49
Haben die 7er X3D eigentlich eine niedrigere TDP?
Kann nur für den 7800X3D sprechen und der hat eine TDP von 120w (162w PPT) also sogar höher als der 5800X3D (142w PPT).
-> gerade nachgesehen, der 7950X3D hat auch 120w TDP, also ebenfalls 162w PPT der non X3D hat 170w TDP was dann in 230 PPT enden sollte (*1.35).
Bei den neuen 9000er X3Ds erwarte ich übrigens wieder das gleiche, 120w TDP aka 162w PPT und dadurch eine Erklärung, wieso die Benchmarkwerte höher ausfallen im Multicore als bei den 9700X z.B. und den großen geht dann die Luft aus durch mehr Kerne.
Badesalz
2024-10-06, 09:42:14
Da greifen dann erstmal nur die Enthusiasten zu und die Leute, welche die gestiegene Anwendungsleistung auch gut gebrauchen können.Weil das sonst immer anders war? :usweet:
AMD würde auch gut damit fahren den Einführungspreis gleich zu behalten. Intels Ruf hat gelitten und Zen5 liegt bisher wie Blei im Regal.DIY besteht mittlerweile zu 90% aus Spielern. Das hätte man auch vor 6 Monaten herausfinden können, daß alle auf die X3D warten werden.
fondness
2024-10-06, 10:06:35
Zen3 und Zen4 sind auch schneller geworden durch das Windows11 Update. Von über 10% im Durchschnitt sehe ich nichts.
Leider finde ich wenige aktuelle Tests mit allen Windows Updates, 105W Mode und allen wichtigen CPUs im Vergleich.
Der neueste Test von Hardwareluxx hat den 7700X nicht dabei.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/64570-ryzen-5-9600x-und-ryzen-7-9700x-105-w-modus-im-test.html?start=8
Wenn ich 7600X mit 9600X (105W) vergleiche, sehe ich zwar teils auch kaputte Werte von Zen5 aber auch das er zwischen 2 und 12% schneller ist. Im Durchschnitt sind das ~~6% auf die kleine Spieleauswahl bezogen, wenn man die kaputten Werte nicht mitzählt.
Wenn du einen aktuellen und besseren Test hast bitte Link teilen.
Also ich vertraue da mehr Reviews, die auf Problematiken wie Core-Parking, Treiber etc. hingewiesen haben und sich dessen bewusst waren. Und nicht irgendwelche lustigen Youtube-Channels, die schnell ein paar Diagramme hinklatschen und vermutlich beim CPU-Wechsel nicht darauf geachtet haben. Und da sehe ich bei CB und THG zB 7-8% mehr Gaming-Leistung vor dem Patch. Das dürfte nach den Patch schon Richtung 10% gehen. Dazu noch 10% mehr Takt was im Summe schon eine ganz nette Steigerung ergibt. Beim 9950X3D auch noch ein bisschen mehr, weil beide den vollen Cache haben. Vor allem wenn man sich ansieht was Intel voraussichtlich liefert, nämlich etwas das sich wohl schon mit dem 7800X3D + Patch schwer tun könnte.
Nightspider
2024-10-06, 13:29:13
>Arrogante, dumme Badesalz Bemerkung<
Du hast also nach 2 Monaten noch nicht bemerkt das Zen5 in Anwendungen stärker ist als in Games?
Das dürfte nach den Patch schon Richtung 10% gehen.
Wegen 2-3% brauchen wir uns nicht streiten. Was ich aber auch in manchen Tests mit Windows Update gesehen habe war, das in manchen Anwendungen Zen4 sogar ein bisschen stärker davon profitiert hat als Zen5.
Natürlich gibts Messungenauigkeiten usw. aber ich warte da mal noch mehr umfangreiche Tests ab, die hoffentlich noch kommen werden mit den neuen CPUs.
Badesalz
2024-10-06, 13:37:57
(Hast dich nun dirket ausgeheult ja?)
Du hast also nach 2 Monaten noch nicht bemerkt das Zen5 in Anwendungen stärker ist als in Games?Wie anders war das mit Zen4 non-X3D?
Sonst aber nein, hab ich nicht gemerkt. Vielleicht schau ich mir aber auch zu viele RL Anwendungen an und nicht das was die s.g. Reviewer dir als Anwendung auftischen. Bis auf 7-zip vielleicht, wenn sie es nehmen. Diese Werte sind auch recht lahm.
Wegen 2-3% brauchen wir uns nicht streiten. Was ich aber auch in manchen Tests mit Windows Update gesehen habe war, das in manchen Anwendungen Zen4 sogar ein bisschen stärker davon profitiert hat als Zen5.Ja. Um 2-3%...
aber ich warte da mal noch mehr umfangreiche Tests ab, die hoffentlich noch kommen werden mit den neuen CPUs.1. Normalerweise erzählt man sowas mal, wenn man das bis dahin still und leise tat. Was mich natürlich begeistert hätte...
2. Hast du einen Tipp wem man da mittlerweile noch vertrauen könnte? Die Zen5-Geschichte enttarnte einen Sumpf ungeahnten Ausmaßes (für mich jedenfalls). Das war schon ein richtig übler Augenöffner wer da alles die schnicken Kleider fallen lies.
fondness
2024-10-06, 13:41:26
Wegen 2-3% brauchen wir uns nicht streiten. Was ich aber auch in manchen Tests mit Windows Update gesehen habe war, das in manchen Anwendungen Zen4 sogar ein bisschen stärker davon profitiert hat als Zen5.
Natürlich gibts Messungenauigkeiten usw. aber ich warte da mal noch mehr umfangreiche Tests ab, die hoffentlich noch kommen werden mit den neuen CPUs.
Ja, es mangelt definitiv an ausführlichen Tests das stimmt.
Nightspider
2024-10-06, 13:43:15
(Hast dich nun dirket ausgeheult ja?)
Bist du im realen Leben auch so arrogant und niveaulos?
Linmoum
2024-10-06, 13:48:35
Zen3 und Zen4 sind auch schneller geworden durch das Windows11 Update. Von über 10% im Durchschnitt sehe ich nichts.
Leider finde ich wenige aktuelle Tests mit allen Windows Updates, 105W Mode und allen wichtigen CPUs im Vergleich.
Der neueste Test von Hardwareluxx hat den 7700X nicht dabei.
https://www.hardwareluxx.de/index.php/artikel/hardware/prozessoren/64570-ryzen-5-9600x-und-ryzen-7-9700x-105-w-modus-im-test.html?start=8
Wenn ich 7600X mit 9600X (105W) vergleiche, sehe ich zwar teils auch kaputte Werte von Zen5 aber auch das er zwischen 2 und 12% schneller ist. Im Durchschnitt sind das ~~6% auf die kleine Spieleauswahl bezogen, wenn man die kaputten Werte nicht mitzählt.
Wenn du einen aktuellen und besseren Test hast bitte Link teilen.Es sind im PCGH-Index in Spielen +11%, die der 9700X vor dem 7700X liegt. Die Werte im Index sind vom 16.08. ohne die ganze Windows-Update-Chose. CB hatte im Launch-Review +7 %, Nachtests mit 24H2 haben einen Leistungszuwachs bei Zen5 von 5-6% im Schnitt gezeigt. Also ja, es sind im Schnitt bereits >=10% zwischen Zen4 und Zen5.
Und wie gesagt, da man anhand von Anwendungen sieht, dass Zen5 als Architektur glänzen tut, ist es zusätzlich durchaus naheliegend, dass der Cache dort, wo Zen5 bislang seine Probleme hat - nämlich in Spielen - das womöglich noch mehr wird kaschieren können.
Badesalz
2024-10-06, 13:51:57
Bist du im realen Leben auch so arrogant und niveaulos?Du magst die OnT-Anteile der Beiträge also nicht? Ok. Na dann.
Prinzenrolle
2024-10-06, 14:00:43
Ich sehe bei PCGH im aktuellsten Test 6-9%, RAM abgezogen, sind es vielleicht 4-7%.
Bei Computerbase waren es in dem einen Test 8% und in Wolfgangs Test 5%.
Im Mittel ohne RAM Vorteil vielleicht 5% mittlerweile. Je nach Test, HWU zum Beispiel auch quasi Gleichstand.
Wobei PCGH Intel CPUs momentan weit unterhalb der möglichen Spezifikationen mit harten 125W Limit testet und 13700K bis 14900K(S) alle quasi gleichschnell sind.
Dass sie mit Performance Profil und nicht mit genauso gültigem Extreme Profil testen steht nicht mal mit dabei. Saftladen.
Nightspider
2024-10-06, 14:05:38
Es sind im PCGH-Index in Spielen +11%, die der 9700X vor dem 7700X liegt. Die Werte im Index sind vom 16.08. ohne die ganze Windows-Update-Chose. CB hatte im Launch-Review +7 %, Nachtests mit 24H2 haben einen Leistungszuwachs bei Zen5 von 5-6% im Schnitt gezeigt. Also ja, es sind im Schnitt bereits >=10% zwischen Zen4 und Zen5.
Okay ich habe den PCGH CPU Index mal rausgesucht. Dort stehen wirklich 11% aber man muss auch beachten das dort nur 9 Spiele enthalten sind und zufälligerweise sind dort eben genau die Spiele drin, bei denen ich auch in anderen Test große Zuwächse sehen konnte. Ich bin mir ziemlich sicher das der Durchschnitt einige Prozente sinken würde, wenn man die Spieleauswahl auf 30-40 Spiele erhöht, wie bei HardwareUnboxed.
Und beim Windows Update bin ich mir noch nicht sicher, ob Zen5 oder Zen4 mehr davon profitiert hat.
Also warte ich lieber mal noch weitere große Tests ab. 9 Spiele im PCGH Index sind mir deutlich zu wenig.
Und wie gesagt, da man anhand von Anwendungen sieht, dass Zen5 als Architektur glänzen tut, ist es zusätzlich durchaus naheliegend, dass der Cache dort, wo Zen5 bislang seine Probleme hat - nämlich in Spielen - das womöglich noch mehr wird kaschieren können.
Hoffen wir es. Ich würde mich definitiv auch darüber freuen.
fondness
2024-10-06, 14:06:41
Wobei PCGH Intel CPUs momentan weit unterhalb der möglichen Spezifikationen mit harten 125W Limit testet und 13700K bis 14900K(S) alle quasi gleichschnell sind.
Dass sie mit Performance Profil und nicht mit genauso gültigem Extreme Profil testen steht nicht mal mit dabei. Saftladen.
Was? Sie wollen nicht in einem Setting testen, dass CPUs nachweislich schrottet? Gemein aber auch :ugly:
Prinzenrolle
2024-10-06, 14:10:20
Was? Sie wollen nicht in einem Setting testen, dass CPUs nachweislich schrottet? Gemein aber auch :ugly:
Es geht dabei nicht um deine erfundenen Gründe, warum sie etwas testen so wie sie es testen, sondern um die Tatsache, dass sie das dem Leser nicht mitteilen und der denkt. Joa 13700K und 14900K liegen nur 3% auseinander. Mal davon abgesehen, ist es Unsinn, dass die CPUs dadurch geschrottet werden, weil sie nach wie vor im GPU System einen 13900K OC einsetzen.
Wenn ich nicht weiß wie die Testsysteme laufen, bringt mir auch der Test nicht viel.
Linmoum
2024-10-06, 14:10:52
Ich sehe bei PCGH im aktuellsten Test 6-9%, RAM abgezogen, sind es vielleicht 4-7%.
Bei Computerbase waren es in dem einen Test 8% und in Wolfgangs Test 5%.
Im Mittel ohne RAM Vorteil vielleicht 5% mittlerweile. Je nach Test, HWU zum Beispiel auch quasi Gleichstand.
Wobei PCGH Intel CPUs momentan weit unterhalb der möglichen Spezifikationen mit harten 125W Limit testet und 13700K bis 14900K(S) alle quasi gleichschnell sind.
Dass sie mit Performance Profil und nicht mit genauso gültigem Extreme Profil testen steht nicht mal mit dabei. Saftladen.
Zeit ist Geld, man kann nicht alles testen. Die Testmethodik von PCGH (übrigens dieselbe wie von CB) ist genau richtig.
Davon ab geht und ging es hier überhaupt nicht um Vergleiche zu Intel, keine Ahnung, warum du jetzt mit dem Thema um die Ecke kommst.
fondness
2024-10-06, 14:12:05
Es geht dabei nicht um deine erfundenen Gründe, warum sie etwas testen so wie sie es testen, sondern um die Tatsache, dass sie das dem Leser nicht mitteilen und der denkt. Joa 13700K und 14900K liegen nur 3% auseinander.
Genausogut könnte man kritisieren, dass andere mit Extreme Profil testen und das auch nirgends mitteilen. Im Endeffekt ist das Intel-TDP-Management einfach ein Witz, jedes Mainboard stellt irgendwas ein, CPUs werden sogar kaputt deswegen.
Prinzenrolle
2024-10-06, 14:16:16
Zeit ist Geld, man kann nicht alles testen. Die Testmethodik von PCGH (übrigens dieselbe wie von CB) ist genau richtig.
Es gibt überhaupt keine Datenlage für die >10%.
Nimmt man das Mittel der Tests landet man irgendwo bei 4%, die das 3DC ermittelt hat.
Updates hin oder her, die haben das vielleicht um 1-2% verbessert.
Davon ab geht und ging es hier überhaupt nicht um Vergleiche zu Intel
Nein, aber wenn dort schon nicht angegeben ist wie getestet wurde, woher weiß ich dann, wie die AMD Prozessoren getestet wurden?
Prinzenrolle
2024-10-06, 14:22:33
Genausogut könnte man kritisieren, dass andere mit Extreme Profil testen und das auch nirgends mitteilen.
Wer ist jetzt "andere"?:rolleyes: Und um was geht es dir jetzt?
Computerbase schreibt das hinter die CPUs (https://www.computerbase.de/2024-08/amd-ryzen-9-9900x-9950x-test/3/) wie sie laufen.
PCGH erwähnt es nirgends.
mczak
2024-10-06, 15:17:42
Und wie gesagt, da man anhand von Anwendungen sieht, dass Zen5 als Architektur glänzen tut.
Naja glänzen ist auch irgendwie anders. Aber vielleicht sind wir auch zu verwöhnt von vorherigen Zen-Iterationen. Da war es nämlich so dass der neue 6-Kerner den alten 8-Kerner auch in MT-Workloads im Durchschnitt geschlagen hat (bei derselben TDP), und in Spielen und ST-Workloads lag man natürlich weit vorne (also Ryzen 5600X schlägt Ryzen 3700X, Ryzen 7600 schlägt Ryzen 5700X). Das ist diese Generation halt nicht der Fall, noch nicht mal wenn man dem 9600X 105W TDP spendiert gegenüber einem 7700. Bei manchen Benchmarks natürlich schon (z.B. die die AVX-512 verwenden), aber eben nicht im Durchschnitt. Dafür dass da die Architektur so massiv aufgebohrt wurde ist das schon etwas enttäuschend, auch wenn Zen 5 deswegen nicht schlecht ist.
fondness
2024-10-06, 15:32:00
ZEN 5 has a 3D V-Cache Secret
https://youtu.be/bPLKa4crk8A?si=LNJfms3uPtW2mtkV
Darkearth27
2024-10-06, 15:50:12
@prinzenrolle
Gibt sogar einen kompletten Artikel darüber wie PCGH die Intel CPUs testet.
https://www.pcgameshardware.de/Core-i9-14900K-CPU-279978/Specials/Intel-Raptor-Lake-Probleme-Default-Spezifikation-Tests-Reviews-1452176/
Das wird / wurde bislang so beibehalten.
mocad_tom
2024-10-06, 16:26:39
Die Frage, die Highyield hier stellt wird wirklich interessant.
Haben sie zwei Stapel aufeinandergestellt, damit sie nicht in den Core-Bereich reinragen?
Ich habe ja Anfang Juni bei der Vorstellung schon gemeint, dass die Proportionen jetzt ganz anders aussehen (eine Vermutung war ganz anderer Chip für 3D-Vcache, eine andere Vermutung war Cache unten drunter). Dass sie die TSV von 24.000 auf 9.000 eindampfen und die Hilfs-Schaltung nach innen Reinnehmen, damit habe ich aber nicht gerechnet.
Die maximale Menge an 3D Vcache ist 96MB, also 32MB im Zen5-Die+32MB im 1. OG und 32MB im 2. OG wäre so eine mögliche Spekulation, damit wäre dann noch genügend Platz um die Cores zu kühlen.
Nightspider
2024-10-06, 16:33:31
Tolle Aufnahmen von Fritzchen!
Die maximale Menge an 3D Vcache ist 96MB
Ungünstige Formulierung! Technisch gesehen ist die aktuelle (!) obere Grenze sicherlich irgendwo bei Stacks mit 12+ Schichten. Aber sowas könnten nur das Militär und Influencer bezahlen.
Haben sie zwei Stapel aufeinandergestellt, damit sie nicht in den Core-Bereich reinragen?
"AMD has long had an option in the AGESA called "X3D", for which the options are "Auto, Disable, 1 stack, 2 stacks, 4 stacks" so I would not be surprised by a 2-hi stack " ;)
fondness
2024-10-06, 16:38:12
Die Frage, die Highyield hier stellt wird wirklich interessant.
Haben sie zwei Stapel aufeinandergestellt, damit sie nicht in den Core-Bereich reinragen?
Ich habe ja Anfang Juni bei der Vorstellung schon gemeint, dass die Proportionen jetzt ganz anders aussehen (eine Vermutung war ganz anderer Chip für 3D-Vcache, eine andere Vermutung war Cache unten drunter). Dass sie die TSV von 24.000 auf 9.000 eindampfen und die Hilfs-Schaltung nach innen Reinnehmen, damit habe ich aber nicht gerechnet.
Die maximale Menge an 3D Vcache ist 96MB, also 32MB im Zen5-Die+32MB im 1. OG und 32MB im 2. OG wäre so eine mögliche Spekulation, damit wäre dann noch genügend Platz um die Cores zu kühlen.
Für mich ist noch immer der Cache als Base Die wie ich hier schon vor Monaten spekuliert habe am wahrscheinlichsten. Denn nur so lässt sich der volle Takt erklären und vermutlich können deshalb die tsvs so viel weniger sein, weil man nicht mehr alles durch routen muss, da man manches wie die Stromversorgung von den pads von unten bekommt. Wundert mich, dass er darauf nicht kommt.
Nightspider
2024-10-06, 16:43:53
Was sind das eigentlich für senkrechte Streifen in der Mitte der FPU und zwischen Integer Core und FPU?
https://youtu.be/bPLKa4crk8A?t=977
Die sehe ich bei Zen3 und Zen4 jetzt nicht. Das sieht so symmetrisch aus, das mir das noch eher ins Auge sticht, als die kleineren TSVs.
w0mbat
2024-10-06, 16:46:36
Das sind clock buffers.
@fondness: ich denke du meinst wie bei MI300? Ist mMn zu aufwändig. Sollte weiterhin SoIC sein.
fondness
2024-10-06, 16:50:39
@fondness: ich denke du meinst wie bei MI300? Ist mMn zu aufwändig. Sollte weiterhin SoIC sein.
Möglich, dann würde mich aber interessieren wie sie das Hitze Problem lösen bei vollem Takt. Der 7800X3D wird durch das zusätzliche Die jetzt schon sehr heiß trotz unter 50W. Aber ja klar ich meine wie bei MI300.
Nightspider
2024-10-06, 16:54:31
Bessere "Verklebung" des restlichen Chips außerhalb des TSV Bereichs?
TSMC wird mit Hochdruck die letzten Jahre daran gearbeitet haben die Chips so stapeln zu können, das die Wärme auch effektiv abgeführt werden kann.
Ich stelle mir da sowas wie eine Passivierung des Core Bereichs vor, danach Aufdampfen von einem guten Wärmeleiter (Kupfer) der dann mit dem Siliziumdumper auch kaltverschweißt wird über die komplette restliche Fläche, die sich über den Kernen befinden.
Über große Kupferflächen könnte man dann auch direkt den V-Cache mit Strom versorgen .
w0mbat
2024-10-06, 18:54:32
Super schöne high-res Zen 5 die shots von Fritzchens Fritz: https://www.flickr.com/photos/130561288@N04/albums/72177720320942793
mironicus
2024-10-06, 19:03:32
Warum hat man eigentlich keine NPU in Zen 5 verbaut, wenn man sie dagegen im AMD HX370 eingebaut hat? Im Taskmanager wird sie als eigene Einheit angezeigt, wie die GPU.
ChatGPT über den Nutzen von NPUs für Spiele:
"Eine NPU kann in Spielen eine Vielzahl von Aufgaben übernehmen, darunter die Verbesserung der KI von NPCs, die Optimierung von Raytracing, Echtzeit-Rendering-Verbesserungen, physikalische Simulationen und die Personalisierung des Spielerlebnisses. Durch den Einsatz von maschinellem Lernen ermöglicht die NPU intelligentere, dynamischere und realistischere Spielwelten, was zu einer umfassenderen und ansprechenderen Spielerfahrung führt."
Nightspider
2024-10-06, 19:06:09
Das wäre absolute Platzverschwendung weil nur ein Bruchteil der Kunden diese NPU nutzen würde.
Mangel76
2024-10-06, 19:07:56
Das wäre absolute Platzverschwendung weil nur ein Bruchteil der Kunden diese NPU nutzen würden.
Aber mit KI werden auch Laptops beworben und Funktionen davon abhängig gemacht. Warum soll ich Copilot und Co nicht am Desktop nutzen wollen?
Aber mit KI werden auch Laptops beworben und Funktionen davon abhängig gemacht. Warum soll ich Copilot und Co nicht am Desktop nutzen wollen?
Hält dich doch niemand ab. Ist mit einer dGPU vmtl auch schneller. Nur nicht ganz so effizient. Aber was sind ein paar dutzend Watt am Desktop?
Nightspider
2024-10-06, 19:18:18
Aber mit KI werden auch Laptops beworben und Funktionen davon abhängig gemacht. Warum soll ich Copilot und Co nicht am Desktop nutzen wollen?
Die Zen5 Chiplets werden aber nicht nur im Desktop verkauft sondern in viel höherer Stückzahl im Datacenter Bereich.
Die eigentliche Frage lautet eher, wann eine NPU in Desktop CPUs auftauchen wird und ob diese in den IO-Chip integriert wird.
Wenn AMD den IO Chip für Zen6 neu auflegt könnte dieser durchaus eine NPU enthalten um Microsofts Anforderungen zu erfüllen.
Ob die Kunden das nutzen werden ist eine ganz andere Frage, weil der Nutzen von aktuellen AI Geräten mehr sinnlose Spielerei für eine kleine Zielgruppe ist, die aktuell noch teuer von allen bezahlt wird.
Der NPU Teil von Strix Point ist sehr groß daran gemessen, das der Nutzen aktuell noch gar nicht vorhanden ist.
mironicus
2024-10-06, 19:23:00
AMD plant doch mit FSR 4 ein KI-Upsampling, da könnte eine zusätzliche NPU nützlich sein.
Nightspider
2024-10-06, 19:27:47
Aber nicht in der CPU. :|
Dafür müssen die Einheiten direkt in der GPU integriert sein um in den Renderprozess einzugreifen.
Nicht mal die NPU in Strix Point kann das.
mironicus
2024-10-06, 19:30:03
Könnte doch in RDNA4 enthalten sein.
Nightspider
2024-10-06, 19:35:34
Hier gehts um Zen5. :|
Zossel
2024-10-06, 19:55:42
Aber mit KI werden auch Laptops beworben und Funktionen davon abhängig gemacht. Warum soll ich Copilot und Co nicht am Desktop nutzen wollen?
Wenn du Duschgel YXZ benutzt sind alle Mädels geil auf dich, sagt die Werbung.
Mangel76
2024-10-07, 01:00:49
Wenn du Duschgel YXZ benutzt sind alle Mädels geil auf dich, sagt die Werbung.
Blöd ist es halt nur, wenn so eine NPU als Voraussetzung gesetzt wird, egal ob die GPU das auch könnte oder nicht. Bisher gibt es einige Funktionen nur auf ARM, später wohl für CPUs mit NPU. Ob es irgendwann im Desktop mit GPU läuft, ist bisher völlig unklar. Oder hab ich was verpasst? Kam zumindest nicht in der Werbung.
basix
2024-10-07, 09:57:52
Die eigentliche Frage lautet eher, wann eine NPU in Desktop CPUs auftauchen wird und ob diese in den IO-Chip integriert wird.
Wenn AMD den IO Chip für Zen6 neu auflegt könnte dieser durchaus eine NPU enthalten um Microsofts Anforderungen zu erfüllen.
Du gibts dir die Antwort ja schon selbst ;)
Zen 6/7 werden mit hoher Wahrscheinlichkeit bei AM5(+) bleiben und mit Zen 6 soll sich auch am IF-Fabric usw. viel ändern. Da macht ein neues IOD sehr viel Sinn. Und dazu noch der AI-Hype, wo man auch am Desktop was bieten möchte (wie z.B. den Copilot Sticker).
Das Zen 6 IOD verorte ich bei N4C (kostenoptimierte N4P Variante) und die NPU wird weniger breit als bei Strix Point sein, dafür aber höher takten (ist ja Desktop, paar Watt mehr sind nicht so tragisch). Das reduziert den Aufschlag bei der Die Size.
Ob die Kunden das nutzen werden ist eine ganz andere Frage, weil der Nutzen von aktuellen AI Geräten mehr sinnlose Spielerei für eine kleine Zielgruppe ist, die aktuell noch teuer von allen bezahlt wird.
Der NPU Teil von Strix Point ist sehr groß daran gemessen, das der Nutzen aktuell noch gar nicht vorhanden ist.
Henne-Ei Problem. Wenn die HW da ist, wird auch SW kommen die eine NPU nutzt. Gibt viele Tasks im Bereich Audio- und Video-Processing, welche sich mit einer NPU beschleunigen lassen. Somit also vieles, was man im Business-Bereich für Online-Meetings täglich braucht.
Spätestens mit MS AutoSR und was AMD in der Pipeline hat, wird eine NPU auch für Gaming von Relevanz sein. Mit einer iGPU noch mehr. Bei einer dGPU mit Matrix-Acceleration lohnt sich die NPU fürs Gaming wohl weniger, dafür aber für CPU-Offloading von gewissen Tasks (Physik, Animationen, NPCs, ...)
Blöd ist es halt nur, wenn so eine NPU als Voraussetzung gesetzt wird, egal ob die GPU das auch könnte oder nicht. Bisher gibt es einige Funktionen nur auf ARM, später wohl für CPUs mit NPU. Ob es irgendwann im Desktop mit GPU läuft, ist bisher völlig unklar. Oder hab ich was verpasst? Kam zumindest nicht in der Werbung.
Ich denke, das ist die Aufgabe der SW-Entwickler, das auf NPU wie GPU lauffähig zu halten. Nvidia pusht die Frameworks ja ebenfalls, da es auf ihren GPUs "ja so viel schneller als auf NPUs" läuft.
basix
2024-10-07, 10:05:44
Super schöne high-res Zen 5 die shots von Fritzchens Fritz: https://www.flickr.com/photos/130561288@N04/albums/72177720320942793
Nice :)
Erstaunlich, wie kompakt AMD den L3$ bekommen hat.
MSABK
2024-10-07, 10:33:07
Mal sehen was das für den 3d Cache bedeutet.
Gipsel
2024-10-07, 11:13:12
Für mich ist noch immer der Cache als Base Die wie ich hier schon vor Monaten spekuliert habe am wahrscheinlichsten. Denn nur so lässt sich der volle Takt erklären und vermutlich können deshalb die tsvs so viel weniger sein, weil man nicht mehr alles durch routen muss, da man manches wie die Stromversorgung von den pads von unten bekommt. Wundert mich, dass er darauf nicht kommt.Ich war ja aus Sicht des Taktes und der Technik auch ein Fan von Cache untendrunter. Und irgendwo würde das Änderungen an den Kontaktpads für den Cache-Die erklären (man kontaktiert ja dann gewissermaßen von der anderen Seite und benötigt keine TSVs mehr im CCD [dafür welche im Cache-Chip]). Allerdings hätte ich dann auch ein angepaßtes Layout der obersten Metallisierungs-Layer und der C4-Bumps erwartet. Dies scheint aber nicht wirklich der Fall zu sein (hier sieht man die Lötpunkte, wie das Die auf dem Substrat verlötet wird, wäre auch die Seite für den Cache, falls der untendrunter kommt):
https://www.flickr.com/photos/130561288@N04/54046497786/in/album-72177720320942793
Eventuell hat AMD dafür eine clevere Lösung gefunden und zumindest die Kontaktstreifen im Cache liegen zwischen den Bumps (gibt nur an ganz wenigen Stellen Bumps in den vermuteten Kontaktstreifen). Also völlig auszuschließen ist es wohl zu diesem Zeitpunkt nicht.
Zossel
2024-10-07, 11:37:53
Ich war ja aus Sicht des Taktes und der Technik auch ein Fan von Cache untendrunter. Und irgendwo würde das Änderungen an den Kontaktpads für den Cache-Die erklären (man kontaktiert ja dann gewissermaßen von der anderen Seite und benötigt keine TSVs mehr im CCD [dafür welche im Cache-Chip]). Allerdings hätte ich dann auch ein angepaßtes Layout der obersten Metallisierungs-Layer und der C4-Bumps erwartet. Dies scheint aber nicht wirklich der Fall zu sein (hier sieht man die Lötpunkte, wie das Die auf dem Substrat verlötet wird, wäre auch die Seite für den Cache, falls der untendrunter kommt):
https://www.flickr.com/photos/130561288@N04/54046497786/in/album-72177720320942793
Eventuell hat AMD dafür eine clevere Lösung gefunden und zumindest die Kontaktstreifen im Cache liegen zwischen den Bumps (gibt nur an ganz wenigen Stellen Bumps in den vermuteten Kontaktstreifen). Also völlig auszuschließen ist es wohl zu diesem Zeitpunkt nicht.
Zen4 lässt sich schon von oben draufkleben, allerdings nicht bzgl. Cache:
https://pics.computerbase.de/1/1/0/2/8/6-068e2d536c72f847/26-1080.f1f35a92.png
basix
2024-10-07, 11:41:24
Dazu passend: https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-827#post-41311829
Wonder when they will figure out that the world have turned upside down
davidzo
2024-10-07, 11:51:00
Hier nochmal als Direktlink:
bPLKa4crk8A
Vielleicht ist dass ja der der mythische Zen5 "Ladder Cache". In dem Fall wäre es eine neue physische Topologie bzw. neue Implementierung und keine logisch-topologische Änderung?
Was man schonmal festhalten kann ist dass durch die größere Core-Area die Energiedichte bei den Cores sinkt, was die Kühlbarkeit verbessern sollte. Das sollte positive Auswirkung auf die erlaubte TDP und Taktraten der X3D Varianten haben.
Seiner Schlussfolgerung dass ein Cache-DIE nicht über die CPU Cores gehen darf weil es dann zu thermischen Problemen kommt kann ich nicht folgen.
Derzeit sitzt dort doch eh dummy silicon damit die DIE-Höhe angeglichen ist. Das ist aus Silizium um die Wärmeausdehnung im Stapel ähnlich zu halten.
Ein aktives Cache-DIE wird sich da thermisch nicht wesentlich anders verhalten als ein Dummy-DIE imo.
Ich tippe also auf 1-Hi, aber vollflächigen Cache, entweder unter dem ganzen DIE oder nach wie vor über den Cores. Selbst wenn es oben bleibt dürfte das thermisch sogar etwas besser sein, weil ein durchgehender Top-DIE eben auch lateral besser die Wärme leitet als wenn die Fläche aus mehreren Kacheln zusammengesetzt ist. - Wobei das vollflächig schon eher 96 oder 128MB sein müssten und nicht nur 64.
fondness
2024-10-07, 12:15:02
Dazu passend: https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-827#post-41311829
Haha, schön langsam scheinen ja ein paar zu schalten. Ich bin gespannt.
BavarianRealist
2024-10-07, 15:34:08
Das Zen5-CCD ist vermutlich vor allem an die Server-Anforderungen ausgerichtet worden. Wenn es sich hier lohnt, verschiedene L3-Größen anzubieten, würde es mich nicht wundern wenn AMD hier verschiedene Alternativen anbieten - und auch im Vorfeld verschiedene L3-Die-Varrianten entwickelt haben - könnte.
So gäbe es die Möglichkeit, die L3-Chiplets gestapelt anzubieten (für größere L3), aber auch die Möglichkeit, dass AMD schlichtweg verschiedene L3-Chiplets entwickelt haben könnte.
Am 10.10. könnten wir hierzu von AMD mehr erfahren.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.