Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 5 (3/4 nm, 2024)
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[
17]
18
19
20
21
basix
2024-10-08, 14:19:36
Post von Hans de Vries über die V-Cache TSV-Geschichte:
https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-828#post-41312162
MSABK
2024-10-08, 14:58:48
Post von Hans de Vries über die V-Cache TSV-Geschichte:
https://forums.anandtech.com/threads/zen-5-speculation-epyc-turin-and-strix-point-granite-ridge-ryzen-9000.2607350/page-828#post-41312162
Was bedeutet das?
Gipsel
2024-10-08, 15:11:38
Was bedeutet das?Er meint das VCache-Die würde etwa die 2,4fache Fläche des L3 in Zen5 einnehmen und weiter obendrüber angebracht sein. Die gelb markierten Bereiche identifiziert er als eine Menge Kondensatoren und vermutet, daß "dahinter" die TSVs zur Stromversorgung des Cache Dies sitzen würden.
Ich bin noch nicht so recht überzeugt von seiner Argumentation da.
basix
2024-10-08, 18:35:33
Ich habe grob die L2/L3 Cache-Grössen von Lunar Lake und Zen 5 verglichen.
- Zen 5 packt den L3-Cache insgesamt etwas dichter als Lunar Lake, aber nicht viel (Messung ist nicht so genau inkl. Cache Kontrollogik)
- Lunar Lake hat einen deutlich dichter gepackten L2$. Der ist gleich dicht gepackt (Cache-Blöcke / SRAM-Zellen) wie der L3$
Anhand diesen Daten könnte man folgende Annahme treffen:
- AMD könnte bei Zen 6 auf 1.5 MByte L2$ gehen, ohne das der Cache-Block grösser wird. Dazu müsste man den Cache "nur" dichter packen, wie Intel bei Lunar Lake (und auch schon Raptor Lake)
Zossel
2024-10-10, 14:12:47
Grrmmll, da hätte man gleich noch einen Status "Big"-Core oder "Small"-Core mit dazu nehmen können oder einen "None"/"Null" Status ?Leerstring? :
https://lore.kernel.org/platform-driver-x86/20241010094252.3892406-1-Basavaraj.Natikar@amd.com/
fondness
2024-10-10, 22:41:22
AMD verspricht bei Zen5 Epyc 37% IPC Steigerung. Zeigt also einmal mehr, wofür die Kerne designed wurden.
basix
2024-10-10, 23:04:21
AMD verspricht bei Zen5 Epyc 37% IPC Steigerung. Zeigt also einmal mehr, wofür die Kerne designed wurden.
Für HPC und AI stimmt die Zahl.
Für Cloud und Enterprise geben sie 17% an ;)
Edit:
128C & 192C Turin Benchmarks:
- https://www.servethehome.com/amd-epyc-9005-turin-turns-transcendent-performance-solidigm-broadcom/4/
- https://www.phoronix.com/review/amd-epyc-9965-9755-benchmarks
Was soll man sagen, Intels wiedergewonnene Performance-Krone hat nicht lange gehalten. Auch das 128C Model ist ein wenig schneller als Intels 128C Gegenpart. AMD legt +50% und mehr auf die Zen 4 Vorgänger drauf.
Lehdro
2024-10-10, 23:53:33
Wendell hat auch ein Video dazu:
D-N4DuW8P0o
Er ist extrem beeindruckt, besonders von den massiven I/O Verbesserungen. Er spricht vom größten Sprung seit Zen (bezogen auf Zen 4C -> Zen 5C).
fondness
2024-10-11, 10:25:32
Schaut immer mehr nach vollem takt beim 9800X3D aus.
Hier wird ein All-Core-Turbo von 5.2Ghz (7800X3D hat 4.8Ghz) und ein Base-Clock von 4.7Ghz (7800X3D 4.2 Ghz) genannt:
https://videocardz.com/newz/amd-ryzen-7-9800x3d-teased-with-5-2-ghz-all-core-clock
Launch angeblich am 7.11.
https://x.com/9550pro/status/1844616106021196042
robbitop
2024-10-11, 10:55:50
Aber voller Takt wäre doch 5,5GHz/5,7GHz boost (9700x/9950x)?
Der 7800X3D hat 5 GHz Boost.
Wobei das max boost ist - aber AMD scheint keine All Core Boosts anzugeben.
fondness
2024-10-11, 11:00:50
5,5Ghz Single-Core Boost hat der 9700X. Mehr werden wohl nur die 12- und 16 Kerner bekommen. Wenn man all-Core schon 5,2Ghz erreicht und der Base Clock auch um 500Mhz steigt, sollte der Single-Core Boost wohl ähnlich steigen. Immerhin liegt der All-Core Boost schon höher als der maximale 7800X3D Takt. Genaueres wird wohl bald folgen wenn jetzt schon Samples herum irren.
Wendell hat auch ein Video dazu:
https://youtu.be/D-N4DuW8P0o
Er ist extrem beeindruckt, besonders von den massiven I/O Verbesserungen. Er spricht vom größten Sprung seit Zen (bezogen auf Zen 4C -> Zen 5C).
Besonders beeindruckend ist, dass er mit angepassten Compilern sogar Intel auf deren eigenem AMX-Territorium schlägt.
Was beide Hersteller im Serverbereich geschafft haben in den letzten 4 Jahren ist überirdisch.
robbitop
2024-10-11, 12:03:49
5,5Ghz Single-Core Boost hat der 9700X. Mehr werden wohl nur die 12- und 16 Kerner bekommen. Wenn man all-Core schon 5,2Ghz erreicht und der Base Clock auch um 500Mhz steigt, sollte der Single-Core Boost wohl ähnlich steigen. Immerhin liegt der All-Core Boost schon höher als der maximale 7800X3D Takt. Genaueres wird wohl bald folgen wenn jetzt schon Samples herum irren.
Kurz gegooglet. Der 7800X3D hat -200 MHz für AC Boost vs SC boost.
Dann wäre der SC Boost für den 9800X3D eventuell 5,4 GHz. Nicht ganz aber fast voller Takt. Aber mal abwarten. :)
Wären immerhin 8% mehr Takt als der 7800X3D. Mal schauen ob der VCache auch etwas mehr von der Gaming IPC "freischaltet" oder es bei den bisherigen 5% bliebe -> dann wäre der Gesamtvorsprung 13-14% vor dem 7800X3D.
MiamiNice
2024-10-11, 12:14:21
Kann man eigendlich Spaß mit den Geräten und WaKü haben? Bin am überlegen mir einen 9800 3D zu ordern und im nächsten Jahr auf den 9950X3D zu uppen sobald er raus kommt. Kann man da mittlerweile bissel was overclocken oder ist noch immer langweilig?
Theoretisch müsste doch auch bein Ryzen mit CUDIMMS noch ein wenig was gehen?
robbitop
2024-10-11, 12:20:23
Angeblich sollen die Zen 5 X3Ds übertaktbar werden.
Aber andererseits taktet AMD und Intel die Top Modelle bereits Out of the Box an der absoluten Kotzgrenze. Da ist selten wesentlich mehr drin - zumindest nicht ohne Chiller oder Stickstoff.
Die guten OC Zeiten, wo man richtig was durch OC und Wakü rausholen konnte bei den Topmodellen sind lange vorbei.
Tatsächlich scheint einzig N31 (7900 XTX) so ein Objekt zu sein, wo man noch Spaß haben kann. Out of the Box taktet die in Spielen ~2,5-2,6 GHz und ist absolut power limited. Wenn man mit einem Mod Bios oder Elmor EVC die TDP freigibt, sind >3,2 GHz (mit Custom Wakü) nicht unwahrscheinlich. Der 8auer hat 3,36 GHz mit Wakü rausgeholt. Das sind 30% OC. So wie in den guten alten Zeiten. ^^
Badesalz
2024-10-11, 12:23:02
Mal schauen ob der VCache auch etwas mehr von der Gaming IPC "freischaltet" oder es bei den bisherigen 5% bliebe -> dann wäre der Gesamtvorsprung 13-14% vor dem 7800X3D.Ausschläge in beide Richtungen gab es auch davor. Mehr als nur 1%. "Gesamtvorsprung" ist zeimlich dehnbar und sagt an sich... garnichts aus ;)
Ich hab dagegen heute mit den Resten von Meguiras PlastX die Glaskugel gereinigt und da wurden schimmerhaft min. + von 14% und max. + von 19% über dem 7800X3D sichtbar -> 1%-minFPS (4090)
@MiamiNice
Ich will ja nicht rumbölken, aber der 9800X3D ist 5090-ready. Ich denke, wenn man dagegen Spaß an solchem Klamauk hat - früher war das D&W und so - dann wird das nicht befriedigend sein.
Droht grad die Hölle einzufrieren?
basix
2024-10-11, 12:42:19
Kann man eigendlich Spaß mit den Geräten und WaKü haben? Bin am überlegen mir einen 9800 3D zu ordern und im nächsten Jahr auf den 9950X3D zu uppen sobald er raus kommt. Kann man da mittlerweile bissel was overclocken oder ist noch immer langweilig?
Theoretisch müsste doch auch bein Ryzen mit CUDIMMS noch ein wenig was gehen?
Skatterbencher ist die beste Adresse im Internet: Der 9950X lässt so einiges an Tuning zu ;)
https://www.youtube.com/watch?v=tEJiQcPA4p0
https://www.youtube.com/watch?v=Az8R5uXOYX8
MiamiNice
2024-10-11, 12:43:57
@Robbi:
Da hast Du schon recht. Aber trotzdem gabe es mit Intel bisher immer den Single Core Boost als All Core Boost mit Wakü. Mein 13900k z.b. läuft mit 6Ghz allcore + Ram OC :devil:
Ram OC bringt beim neuem Zen wahrscheinlich noch weniger als bei alten Zen. Der Cache wird immer größer und greift auch immer öfter + die Sprungvorhersage wird auch immer besser. Trotzdem vielleicht CUDIMMS in die Kiste für die Fälle in denen der Cache keinen Vorteil bringt und manuell Timings auslooten.
@Badesalz:
Da friert nur eine Hölle bei euch zu. Ich habe schon öfter AMD HW gehabt, wahrscheinlich sogar insgesamt länger als Intel HW. Ich kaufe was am meisten Gaming Power bringt. Allerdings im Gegensatz zu der Masse hier, vertraue ich eher auf eigene Tests anstatt auf CB, PCGH und Co. KG. Daher weiß ich auch, dass die OC Intels bisher die größte Gaming Power hatten und die auch noch heute haben. Das wird sich durch Error Lake und 9000 Ryzen 3D ändern. Daher gibt es dann jetzt wieder ein AMD System.
Wenn ich ein Fanboy bin, dann von Dingen die Gaming Leistung bringen. Da hat sich AMD bisher nicht so mit Ruhm bekleckert seit dem Bulli. Auch jetzt halte ich die Zens noch für Mist aufm Desktop, weil die intern von einer Serverarchitektur abstammen und eher nicht fürs Gaming geeignet sind. 3DCache halte ich nur für eine Notlösung damit man das Problem nicht richtig angehen muss. Das würde eine Trennung zwischen Server und Desktop bedeuten für AMD. Nur ist der Ryzen 9000 3D nun das schnellste Gerät für Gamer und damit ist der Drops halt gelutscht.
Skatterbencher ist die beste Adresse im Internet: Der 9950X lässt so einiges an Tuning zu ;)
https://www.youtube.com/watch?v=tEJiQcPA4p0
Das inhaliere ich mal. Danke.
The_Invisible
2024-10-11, 12:51:46
Kenne kaum jemanden der seine x3ds wirklich übertaktet, CO ist da eigentlich die Device. Vielleicht ändert sich bei den 9000ern hier was, warte auch schon gespannt...
basix
2024-10-11, 12:54:09
Jo, bin auch eher bei negativem CO-Offset. Bei Zen 5 wird das durch den Curve Shaper und mehrere CO-Offset weiter verbessert, man kann mehr einstellen.
Badesalz
2024-10-11, 12:56:39
@MiamiNice
Aus der psychologischen und sozialen Sicht ist dieses Bubble fast schon faszinierend :D
Sardaukar.nsn
2024-10-11, 12:58:51
Mein X3D läuft auch mit Kombo Strike 2, bzw CI -20. Trotzdem nervt der idle/Desktop Verbrauch von konstant 30-40 Watt. Ich hoffe da kann Intel mal was liefern, wäre nen echtes Argument.
aceCrasher
2024-10-11, 12:59:17
Kann man eigendlich Spaß mit den Geräten und WaKü haben? Bin am überlegen mir einen 9800 3D zu ordern und im nächsten Jahr auf den 9950X3D zu uppen sobald er raus kommt. Kann man da mittlerweile bissel was overclocken oder ist noch immer langweilig?
Theoretisch müsste doch auch bein Ryzen mit CUDIMMS noch ein wenig was gehen?
Nimm unbedingt ein Mainboard mit einem externen BLCK Generator für die CPU, dann kannst du auch den gelockted Maximaltakt umgehen. Zeigt Skatterbencher auch regelmäßig in seinen Videos.
Zossel
2024-10-11, 13:01:15
@MiamiNice
Aus der psychologischen und sozialen Sicht ist dieses Bubble fast schon faszinierend :D
Ob Miami wohl Spiele die unter Linux schneller laufen auch unter Linux spielt?
Wäre nur konsequent. Oder ist ihm das zu woke?
MiamiNice
2024-10-11, 13:04:48
@Badesalz:
Für mich ist es ein Hobby was mich persönlich immer weniger fasziniert weil sich immer mehr Hersteller auf langweilige Wege begeben. Ich würde gerne PC Hardware sehen, die primär und ausschließlich auf Power ausgelegt ist. Völlig unbeachtet anderer Einflüsse. Von mir aus kann ein System gerne 2 oder 3 kW verbraten, das ist völlig irrelevant für mich. Und ich unterstütze jeden Hersteller, der etwas in diese Richtung unternimmt. Man sollte IMO NV eine X86 Lizenz zukommen lassen, die machen wenigsten noch halbwegs ernst :biggrin:
Ob Miami wohl Spiele die unter Linux schneller laufen auch unter Linux spielt?
Wäre nur konsequent. Oder ist ihm das zu woke?
Ja tut er. Ich bin so oft wie es nur geht auf Linux unterwegs, dort liegen meine Wurzeln. Leider hast Du oft Probleme mit z.b. Joysticks, VR und anderen Dingen. Daher leider meist trotzdem ordinär unter Windows.
robbitop
2024-10-11, 13:14:14
Skatterbencher ist die beste Adresse im Internet: Der 9950X lässt so einiges an Tuning zu ;)
https://www.youtube.com/watch?v=tEJiQcPA4p0
https://www.youtube.com/watch?v=Az8R5uXOYX8
„einiges“ Der Typ sagt 5,9 GHz. Das sind kleine einstellige % an Gains. Kann man messen aber nicht spüren. Zumindest für mich ist das wort „einiges“ für etwas mehr beeindruckendes reserviert. X-D
robbitop
2024-10-11, 13:15:42
Nimm unbedingt ein Mainboard mit einem externen BLCK Generator für die CPU, dann kannst du auch den gelockted Maximaltakt umgehen. Zeigt Skatterbencher auch regelmäßig in seinen Videos.
Wenn der 9800x3d unlocked ist (Gerüchte sagen OC kommt zurück) braucht man das nicht mehr. :)
Sardaukar.nsn
2024-10-11, 14:05:59
Ich würde gerne PC Hardware sehen, die primär und ausschließlich auf Power ausgelegt ist. Völlig unbeachtet anderer Einflüsse. Von mir aus kann ein System gerne 2 oder 3 kW verbraten, das ist völlig irrelevant für mich. Und ich unterstütze jeden Hersteller, der etwas in diese Richtung unternimmt. Man sollte IMO NV eine X86 Lizenz zukommen lassen, die machen wenigsten noch halbwegs ernst :biggrin:
+1
Ich habe aber 100% Ökostrom ;)
Lehdro
2024-10-11, 14:07:02
Ich hab dagegen heute mit den Resten von Meguiras PlastX die Glaskugel gereinigt und da wurden schimmerhaft min. + von 14% und max. + von 19% über dem 7800X3D sichtbar -> 1%-minFPS (4090)
So, jetzt hast du es geschafft. Nur wegen deiner Performancevorhersage (:cool:) wird es ein 9800X3D bei mir.
basix
2024-10-11, 14:38:16
„einiges“ Der Typ sagt 5,9 GHz. Das sind kleine einstellige % an Gains. Kann man messen aber nicht spüren. Zumindest für mich ist das wort „einiges“ für etwas mehr beeindruckendes reserviert. X-D
Schau dir die Einzelresultate an. Kommt schwer auf die Anwendung drauf an. Das geht von <5% bis fast 40% hinauf. Letzteres ist typischerweise das, was am besten auf Memory Tuning anspricht. Nicht umsonst hat Intel MCRDIMM und AMD V-Cache. Reine Compute Cruncher wird man mit dem bisschen OC nicht zu Höhenflügen bewegen, das ist klar. Dort ist der Lolli schon lange gelutscht, ausser man würde sowas wie einen M4 Core bei 6 GHz bringen ;) Da gerade Games gut auf Speicher-Tuning ansprechen, kann das auch für die OCer hier interessant sein ;)
Und für mich hat "einiges" an Tuning auch mit den B-Noten zu tun. Über die verschiedenen CO-Offsets und Curve Shaper kann man die CPU wirklich bis zur Grenze optimieren. Für mich ist das hauptsächlich hinsichtlich Energieffizienz interessant, andere mögen das anders handhaben. CO -30 war bis anhin das höchste der Gefühle. Mit den neuen Tools kann man nochmals gut was rausholen, und das sind dann insgesamt deutlich mehr als nur ein paar Prozent, vor allem auch im Teillastbetrieb (wie z.B. Games). Man gewinnt keine Performance, aber die CPU wird deutlich sparsamer. Ist in etwa das selbe, was man bei GPUs so machen kann. Nach oben geht nicht mehr viel, da limitieren Verbrauch, Temperaturen und Spannunge/Ströme. Da bewegt man sich an physikalischen Limits. Aber nach unten (~selbe Taktfrequenz aber reduzierte Spannungen) kann man sehr viel rausholen.
Man muss hier als Enthusiast der Realität ins Auge blicken. Selbst 10-20% OC sind bei einer CPU heute fast schon utopisch (ausserhalb von Extremkühlung). Nur Memory-OC und Undervolting lässt noch gute prozentuale Verbesserungen zu.
aceCrasher
2024-10-11, 14:38:20
Wenn der 9800x3d unlocked ist (Gerüchte sagen OC kommt zurück) braucht man das nicht mehr. :)
Nicht ganz korrekt, bei den normalen Ryzens, beispielsweise einem 9700X kann man den maximaltakt per PBO auch nicht erhöhen, die FMAX Einstellung ist placebo. Klar kann man einen statischen Takt setzen aber das ist halt blödsinn.
Mit einem externen BLCK für die CPU kann man den gesamten PBO Boost-Table nach oben verschieben und die Boost-Logik beibehalten, das geht meines Wissens nicht anderweitig.
Lehdro
2024-10-11, 14:41:08
Man gewinnt keine Performance, aber die CPU wird deutlich sparsamer.
Beim 5800X3D konnte man mit CO wenigstens noch sicherstellen dass die CPU immer den maximalen Boosttakt hält (also die Leistung erhöhen, trotz weniger Verbrauch), geht das mit Zen 4/5 nicht mehr?
robbitop
2024-10-11, 14:42:14
Nicht ganz korrekt, bei den normalen Ryzens, beispielsweise einem 9700X kann man den maximaltakt per PBO auch nicht erhöhen, die FMAX Einstellung ist placebo. Klar kann man einen statischen Takt setzen aber das ist halt blödsinn.
Mit einem externen BLCK für die CPU kann man den gesamten PBO Boost-Table nach oben verschieben und die Boost-Logik beibehalten, das geht meines Wissens nicht anderweitig.
Kann man den Takt nicht einfach per Multiplikator anheben? Warum ist das Blödsinn? Funktioniert das nicht?
robbitop
2024-10-11, 14:44:40
Schau dir die Einzelresultate an. Kommt schwer auf die Anwendung drauf an. Das geht von <5% bis fast 40% hinauf. Letzteres ist typischerweise das, was am besten auf Memory Tuning anspricht. Nicht umsonst hat Intel MCRDIMM und AMD V-Cache. Reine Compute Cruncher wird man mit dem bisschen OC nicht zu Höhenflügen bewegen, das ist klar. Dort ist der Lolli schon lange gelutscht, ausser man würde sowas wie einen M4 Core bei 6 GHz bringen ;) Da gerade Games gut auf Speicher-Tuning ansprechen, kann das auch für die OCer hier interessant sein ;)
Und für mich hat "einiges" an Tuning auch mit den B-Noten zu tun. Über die verschiedenen CO-Offsets und Curve Shaper kann man die CPU wirklich bis zur Grenze optimieren. Für mich ist das hauptsächlich hinsichtlich Energieffizienz interessant, andere mögen das anders handhaben. CO -30 war bis anhin das höchste der Gefühle. Mit den neuen Tools kann man nochmals gut was rausholen, und das sind dann insgesamt deutlich mehr als nur ein paar Prozent, vor allem auch im Teillastbetrieb (wie z.B. Games). Man gewinnt keine Performance, aber die CPU wird deutlich sparsamer. Ist in etwa das selbe, was man bei GPUs so machen kann. Nach oben geht nicht mehr viel, da limitieren Verbrauch, Temperaturen und Spannunge/Ströme. Da bewegt man sich an physikalischen Limits. Aber nach unten (~selbe Taktfrequenz aber reduzierte Spannungen) kann man sehr viel rausholen.
Man muss hier als Enthusiast der Realität ins Auge blicken. Selbst 10-20% OC sind bei einer CPU heute fast schon utopisch (ausserhalb von Extremkühlung). Nur Memory-OC und Undervolting lässt noch gute prozentuale Verbesserungen zu.
Die Memory basierten Vorteile sind (mit dem für die meisten von uns interessanten) X3D mit Memorytuning deutlich reduziert. Aber ja gut man kann mit Tuning sicherlich TDP normiert den All Core Takt anheben. Wenn man zockt ist aber die Last jetzt nicht so riesig. Mit etwas CO und/oder aufmachen der TDP sollten die Allcoretaktraten so viel schlechter nicht sein.
Ja klar ist das was der Typ da macht noch besser. Aber leider sind die guten alten Zeiten mit 20-30% Takt OC leider vorbei.
aceCrasher
2024-10-11, 14:51:52
Kann man den Takt nicht einfach per Multiplikator anheben? Warum ist das Blödsinn? Funktioniert das nicht?
Nein du kannst nicht einfach den Takt per Multiplikator anheben, nicht innerhalb von PBO.
Man hat beim Übertakten nur zwei Optionen:
1. Innerhalb von PBO übertakten, dann hat man den Vorteil der Boost Logik, Single Core boost, temperaturabhängiger boost, Curve Optimizer etc. In diesem Fall ist die Maximalfrequenz durch die von AMD vorgegebene fMAX limitiert, die kann man zwar theoretisch um 200MHz anheben, das resultiert aber aus eigener Erfahrung nicht in einem höheren Takt.
Die fMAX eines 7700X liegt beispielsweise bei 5550MHz und die all-core fMAX bei 5400MHz. Es gibt außerhalb von BCLK-Overclocking keinen Weg die CPU zu einem höheren Boost-Takt als 5550MHz (ST) bzw 5400MHz (MT) zu bewegen ohne den Single-Core boost und PBO allgemein zu verlieren.
2. Man setzt einen statischen Takt per Multiplikator mit einer statischen Spannung, den kannst du dann soweit ich weiß auch höher als fMAX einstellen, man verliert dadurch aber sämtliche Boost-Funktionalität wie den Single-Core boost, diese Methode ist also fast immer langsamer, da man für Spiele und Extremlast den gleichen Takt anlegt.
Falls man ein Mainboard mit einem eBCLK hat kann man den baseclock für die CPU erhöhen um den gesamten PBO Boost-Table zu verschieben, die Spannung passt man dann mit einem positiven Curve Optimizer an. Bsp CO +10 -> +50mv am höchsten Boostpunkt, in Kombination mit eBCLK = 105MHz um fMAX um 5% zu erhöhen.
robbitop
2024-10-11, 14:54:27
Gott ist das alles unnötig kompliziert geworden...
Wie kann man herausbekommen welches Board einen eBCLK hat?
basix
2024-10-11, 14:54:41
Beim 5800X3D konnte man mit CO wenigstens noch sicherstellen dass die CPU immer den maximalen Boosttakt hält (also die Leistung erhöhen, trotz weniger Verbrauch), geht das mit Zen 4/5 nicht mehr?
Bin ich überfragt. Habe keinen Zen 5 und werde auch keinen kaufen.
Ich nehme aber an, dass das immer noch geht. CO hat ja nur Einfluss die Spannung und nicht die Taktraten. Wenn man CO weit runterdreht, dürfte die CPU den Takt ja leichter halten können. Insbesondere bei Spielen, wo die Last ja nicht so gross ist vie in Cinebench und so. Ich nehme an, dass bei Default Settings (CO = 0; 105W) der 9800X3D in Games typ. auf 5.5 GHz läuft. Bei Cinebench R24 scheint es für nur 5.2 GHz zu reichen. CO -30 reicht beim 9950X für ziemlich genau den Unterschied zwischen 5.2GHz -> 5.5GHz. Dann würde die CPU in allen Lebenslagen auf 5.5 GHz laufen. Das coole ist jetzt der Curve Shaper, den man noch oben drauf pappen kann. Wenn man Glück hat, geht total auch mehr als -30 beim CO-Offset.
Meine Vermutung:
In Games kann man CO -30 anwenden, TDP auf 65W senken und wird typ. 5.5GHz auf allen Cores sehen. Wenn man noch etwas mehr Energieeffizienz rausholen will, befasst man sich noch mit dem Curve-Shaper.
MiamiNice
2024-10-11, 14:55:54
Kann man den Takt nicht einfach per Multiplikator anheben? Warum ist das Blödsinn? Funktioniert das nicht?
Du willst idr. heute die Boost Dynamik auch mit OC erhalten. Du kommst mit 2 Kernen halt hoher als mit 4 Kernen. Ergo verschwendet man Power, wenn man einen festen Multi für die ganze CPU vorgibt und gängige Software nutzt die nicht alle Kerne auslastet. Ist ein schönerer Weg, der modernen CPUs eher entgegenkommt und die Thermik berücksichtigt.
Bei Intel macht man das heute gerne über den TVB Boost +2 mit WaKü.
€: Ui, war scheinbar etwas anderes gemeint, sry.
aceCrasher
2024-10-11, 15:01:25
Gott ist das alles unnötig kompliziert geworden...
Dein Wort in Gottes Gehörgang Robbi :biggrin:
Wie kann man herausbekommen welches Board einen eBCLK hat?
Diese hier auf jeden Fall:
- Asus ROG Gene
- Asus ROG Crosshair
- Gigabyte Aorus Master
- Gigabyte Aorus Tachyon
- ASRock B650E/X670 Taichi
Man muss im Grunde bei jedem Board nachschauen ob der Hersteller es auf seiner Website bewirbt. Meistens als "external CLK" oder "eBCLK". Leider ist das auch ein "Premium Feature" das bei den günstigeren Boards quasi nie vorhanden ist.
Hier (Link (https://www.overclock.net/threads/am5-eclk-generator-boards.1804640/)) gibts einen Thread auf overclock.net dazu.
robbitop
2024-10-11, 15:04:41
:-/
Natürlich ist so ein Cent Bauteil nur auf den sinnlos überteuerten Boards drauf. War ja klar. Macht ihr mal. X-D
Die paar piepsigen Prozent Leistung... mess aber nicht spürbar IMO.
MiamiNice
2024-10-11, 15:11:45
:-/
Die paar piepsigen Prozent Leistung... mess aber nicht spürbar IMO.
Wann wurde aus uns Nerds nur so ein Verein ;D
Vielleicht sollte man Dir in Erinnerung rufen, dass man
1. nie genug Leistung haben kann und
2. es gar keine Rolle spielt ob man diese Leistung auch benötigt.
Das wusstest Du auch mal, vor einiger Zeit :wink:
Wo ist Dein PC Masterrace geblieben?
Zossel
2024-10-11, 15:16:59
Wann wurde aus uns Nerds nur so ein Verein ;D
.... Spieler .....
robbitop
2024-10-11, 15:25:54
Wann wurde aus uns Nerds nur so ein Verein ;D
Vielleicht sollte man Dir in Erinnerung rufen, dass man
1. nie genug Leistung haben kann und
2. es gar keine Rolle spielt ob man diese Leistung auch benötigt.
Das wusstest Du auch mal, vor einiger Zeit :wink:
Wo ist Dein PC Masterrace geblieben?
(1) das Alter X-D
(2) Blagen Kinder ^^
(3) Damals (TM) gab es noch ordentlich OC Potenzial und es hat sich gelohnt. 20-30 und mehr % waren drin. Heute sind sämtliche SKUs an die Kotzgrenze getaktet und man freut sich über 5%. X-D
Gipsel
2024-10-11, 15:39:11
(2) Blagen Kinder ^^Mal ganz Offtopic, aber wenn ich das sehe, frage ich mich jedes Mal unweigerlich, wer zum Teufel irgendwann vor gut 100 Jahren (so lange gibt es das etwa) zum ersten Mal per Buchstabendreher aus dem seit dem frühen Mittelalter belegten "Balg" für ein unerzogenes Kind das erste "Blag" gemacht hat. :freak:
The_Invisible
2024-10-11, 15:45:50
(1) das Alter X-D
(2) Blagen Kinder ^^
(3) Damals (TM) gab es noch ordentlich OC Potenzial und es hat sich gelohnt. 20-30 und mehr % waren drin. Heute sind sämtliche SKUs an die Kotzgrenze getaktet und man freut sich über 5%. X-D
Hier auch so, früher war es auch einfacher mit OC, FSB/Multi und VCore erhöht, getestet und lief auch stabil weils keinen Boost/Teillast/Energiesparmodi usw gab.
Heute musst ja quasi mit jeder Kernanzahl und jeden Lastbetrieb gegentesten, ist ja selbst bei GPUs schon recht mühsam. Und RAM Timings mit den unzähligen Subtimings erwähne ich nicht mal, da bin ich froh wenn XMP/EXPO läuft.
Lese aber trotzdem gerne mit, sonst bin ich aber froh wenn ich die wenige Freizeit eine stabile Kiste habe.
Badesalz
2024-10-11, 15:54:40
+1
Ich habe aber 100% Ökostrom ;)Aber 32W idle nervt. Schon ok...
Badesalz
2024-10-11, 16:01:13
aus dem seit dem frühen Mittelalter belegten "Balg" für ein unerzogenes Kind das erste "Blag" gemacht hat. :freak:Das war nur zwischendurch so. Davor war es auch ein Blag. Das erste unerzogene Blag hat übrigens direkt Adam gemacht (Kain).
Was die OC-Fantasien angeht: Ich bestätige ;) daß 6200/6400 gear1 DDR5 auf Zen5 mit 1:1 schon bisschen bockt. Sprich, Timings.
An die Fummler halt. Das sind noch reale ganze Prozente in minFPS zu bekommen. Ja, X3D ist gemeint.
Und das ist eh die Königsklasse. Der Quark mit dem stumpfen Spaten bei Intel (in gear2 Takt prügeln) hat für mich noch nie gerockt. Das ist vom skil-level her "Novice".
Sardaukar.nsn
2024-10-11, 16:15:30
Aber 32W idle nervt. Schon ok...
Na klar, ist doch unnötig das der X3D 30-40 Watt fürs Nichtstun verbraucht. Ganz unabhängig der Kosten, finde ich das einfach kein gutes Design.
Badesalz
2024-10-11, 16:24:15
@Sardaukar
Geh mal die Liste durch. Idle/Teillast ist halt saugefährlich für CPUs :up:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13626367&postcount=1480
Zossel
2024-10-11, 17:34:59
Mal ganz Offtopic, aber wenn ich das sehe, frage ich mich jedes Mal unweigerlich, wer zum Teufel irgendwann vor gut 100 Jahren (so lange gibt es das etwa) zum ersten Mal per Buchstabendreher aus dem seit dem frühen Mittelalter belegten "Balg" für ein unerzogenes Kind das erste "Blag" gemacht hat. :freak:
Blagen plagen dich.
Zossel
2024-10-11, 17:36:32
Ns klar, ist dich unnötig das der X3D 30-40 Watt fürs Nichtstun verbraucht. Ganz unabhängig der Kosten, finde ich das einfach kein gutes Design.
Das ist einfach ein Design für Server.
basix
2024-10-11, 19:42:29
Wendel hat im letzten Turin Video gesagt, dass das Ding sehr gut runter geht im Idle. Glaube nicht dass man Server = schlechten Idle Verbrauch verbinden sollte.
fondness
2024-10-12, 07:59:33
Erste Tests des X3D von MSI
https://videocardz.com/newz/msi-leaks-ryzen-9000x3d-2-to-13-higher-gaming-performance-than-7000x3d
Allerdings scheinen die gaming Werte im gpu Limit entstanden zu sein. Anders lassen sich nämlich die Cinebench Werte kaum erklären.
robbitop
2024-10-12, 08:03:58
Da steht 1080p und eine 4090 als GPU
In Far Cry 6 war Zen 5 IIRC ziemlich stark relativ zu Zen 4.
Aber irgendwas stimmt mit den Werten nicht denke ich. Zumindest wenn die Frequenzen stimmen sollten - dann hätte man immerhin 8% Vorsprung durch Frequenz. In manchen Spielen gab es iirc auch leichte Regressionen aber im großen und Ganzen waren es 4-5% mehr Spieleleistung pro Takt. Also das Allermindeste sollten schon 13-14% sein.
Allerdings lässt das die „Hoffnung“ dass Zen 5 mehr als seine Vorgänger durch den Fehlenden VCache im Gaming ausgebremst wird (und der X3D dadurch einen besonders großen Boost bekommt) nicht gerade steigen.
dildo4u
2024-10-12, 08:10:11
Wukong ist GPU limitiert und Tombraider hat ein 300fps Limit.
FC6 skaliert OK was man optimal erwarten kann.
Sardaukar.nsn
2024-10-12, 08:10:21
Klingt doch ganz plauibel.
Der 9800x3D boostet wohl bis 5,2 Ghz und ist dann im Cinebench genau so schnell wie ein 9000er-non-X mit ebenfalls 5,2 Ghz. Single Core ist der 9800x3D +18% schneller als der 7800x3D.
In Spielen (ist ja ein expliziter Gaming CPU) fällt die Steigerung wie zu erwarten sehr gering aus. Sicher kann man da mit 720p noch etwas längere Balken erzeugen, aber das war selbst MSI wohl zu blöd. In den in der Praxis relevanten Auflösungen von 1440p bis 4k wird der neue 3XD nicht spürbar schneller sein. Wie auch.
00-Schneider
2024-10-12, 08:19:26
Ist das mit dem 3D V-Cache für alle Kerne bei den 12- und 16-Kern Varianten nun eigentlich ~relativ sicher, oder ist das weiterhin nur ein vages Gerücht?
Wenn ja, dürfte allein das dann ja einen guten Performancesprung bringen bei Games, die mehr als 8 Kerne nutzen und bei 9900X3D und 9950X3D mehr Kerne mit 3D V-Cache zur Verfügung haben.
dildo4u
2024-10-12, 08:22:16
Ist das mit dem 3D V-Cache für alle Kerne bei den 12- und 16-Kern Varianten nun eigentlich ~relativ sicher, oder ist das weiterhin nur ein vages Gerücht?
Vermutlich nicht die Performance kommt vom erhöhten Takt auf dem Chip mit 3D Cache.
AMD arbeitet weiter daran das Games gar nicht erst auf dem zweiten Chip landen.
00-Schneider
2024-10-12, 08:24:46
Vermutlich nicht die Performance kommt vom erhöhten Takt auf dem Chip mit 3D Cache.
AMD arbeitet weiter daran das Games gar nicht erst auf dem zweiten Chip landen.
Alles klar, dann brauch ich auch nicht wechseln. Das wäre ansonsten ein echtes Argument gewesen, da die CCD-Zuweisung beim 7950X3D oft nicht optimal ist.
fondness
2024-10-12, 08:32:01
Wukong ist GPU limitiert und Tombraider hat ein 300fps Limit.
FC6 skaliert OK was man optimal erwarten kann.
Okay das erklärt es eigentlich. Was für noobs ein game mit fps Limit zu testen.
Zossel
2024-10-12, 08:33:20
Vermutlich nicht die Performance kommt vom erhöhten Takt auf dem Chip mit 3D Cache.
AMD arbeitet weiter daran das Games gar nicht erst auf dem zweiten Chip landen.
Oh, da glaubt noch jemand an wundersame Scheduler mit /dev/glaskugel Technik.
Die Hersteller der Spiele müssen da ran.
fondness
2024-10-12, 08:33:57
Alles klar, dann brauch ich auch nicht wechseln. Das wäre ansonsten ein echtes Argument gewesen, da die CCD-Zuweisung beim 7950X3D oft nicht optimal ist.
Zumindest kann dir dann die Zuweisung egal sein, was bei dem tollen Windows schedular ein echter Vorteil ist. Und wieviel das zweite CCD bringt hängt wie immer vom Spiel ab.
basix
2024-10-12, 08:51:12
Das Problem der CCD-Zuweisung sollte mit dem 9950X vermutlich nicht mehr da sein, nicht? Wenn das schnellere CCD den Cache trägt, gibt es für Windows / Spiele ja kein Grund auf das andere CCD zu schedulen.
robbitop
2024-10-12, 09:00:08
Wukong ist GPU limitiert und Tombraider hat ein 300fps Limit.
FC6 skaliert OK was man optimal erwarten kann.
In 1080p mit einer 4090??
fondness
2024-10-12, 09:00:40
Hat sich schon jemand die Mühe gemacht den 8 core mit dem 16 core zu vergleichen? Der 16 Kerner ist erheblich langsamer, da ist wohl noch einiges im argen.
robbitop
2024-10-12, 09:02:43
In den in der Praxis relevanten Auflösungen von 1440p bis 4k wird der neue 3XD nicht spürbar schneller sein. Wie auch.
Wenn’s nur danach geht reichen oft jahrealte CPUs aus weil in der Praxis im GPU Limit. Trotzdem will man doch wissen wie viel mehr CPU Leistung (als eine bekannte CPU) eine neue CPU hat (das kann wenn CPU 1 mal zu lahm wird dann auch in der Praxis das entsprechende Delta zeigen) und das nicht in einem anderen Flaschenhals messen.
Hoffentlich kommt diesmal der 16C X3D mit 2x VCache dice raus (und auch in Zukunft).
dildo4u
2024-10-12, 09:09:33
In 1080p mit einer 4090??
Klar das Game kann Path Tracing.
CB nutzt Upsampling in 1080p um auf 100fps zu kommen,Nativ würde 30? FPS kosten.
https://www.computerbase.de/2024-08/black-myth-wukong-benchmark-test/3
fondness
2024-10-12, 09:15:50
Klar das Game kann Path Tracing.
CB nutzt Upsampling in 1080p um auf 100fps zu kommen,Nativ würde 30? FPS kosten.
https://www.computerbase.de/2024-08/black-myth-wukong-benchmark-test/3
Muss man ja extrem kompetent sein, um in den msi OCing Lab arbeiten zu können. ;-)
Sardaukar.nsn
2024-10-12, 09:17:38
Wenn’s nur danach geht reichen oft jahrealte CPUs aus weil in der Praxis im GPU Limit. Trotzdem will man doch wissen wie viel mehr CPU Leistung (als eine bekannte CPU) eine neue CPU hat (das kann wenn CPU 1 mal zu lahm wird dann auch in der Praxis das entsprechende Delta zeigen) und das nicht in einem anderen Flaschenhals messen.
720p soll man ja gerne messen, nehme ich zu Kenntnis. Wenn ich vom 5800x3D auf einen Nachfolger umsteige, dann möchte ich mich aber auch wissen was mich real in 4k erwartet und ob das Upgrade dann für mich Sinn ergibt.
fondness
2024-10-12, 09:24:45
720p soll man ja gerne messen, nehme ich zu Kenntnis. Wenn ich vom 5800x3D auf einen Nachfolger umsteige, dann möchte ich mich aber auch wissen was mich real in 4k erwartet und ob das Upgrade dann für mich Sinn ergibt.
Das Problem ist, dass du das mit den durchschnitts fps kaum abbilden kannst. Dazu bräuchte es mindestens mal min fps. Denn genau diese oft nur wenigen frames im CPU Limit sind es, wo man dann über eine schnellere CPU sehr dankbar ist. Ich habe das auch lange unterschätzt, es bringt aber mehr als die Balken suggerieren. Auch im weitgehenden gpu Limit.
Vom 5800x3D auf den 9800X3D könnte man schon im Bereich von 50% mehr CPU Spiele Leistung kommen, das ist schon deutlich spürbar.
00-Schneider
2024-10-12, 09:25:50
Wenn’s nur danach geht reichen oft jahrealte CPUs aus weil in der Praxis im GPU Limit.
Sind die Frametimes mit einer schnellen CPU nicht trotzdem konstanter*? Auch im GPU-Limit?
*weniger Stutter
Zossel
2024-10-12, 09:44:51
Sind die Frametimes mit einer schnellen CPU nicht trotzdem konstanter*? Auch im GPU-Limit?
*weniger Stutter
Wahrscheinlich würde ein sinnvoll eingestellter Frame-Limiter dafür mehr bringen. Alte Regel: Wenn ein Bottleneck beseitigt wurde kommt danach der nächste zum Vorschein.
Und solange man an einen Bottlenack hängt wird man quasi immer Head-of-Line-Blocking oder Tail-Latency artige Effekte bekommen. (Ab einer gewissen Komplexität ist quasi alles schwingfähig)
Badesalz
2024-10-12, 09:45:11
Ist das mit dem 3D V-Cache für alle Kerne bei den 12- und 16-Kern Varianten nun eigentlich ~relativ sicher, oder ist das weiterhin nur ein vages Gerücht?Die CB-Werte einerseits und die von FC6 andererseits lassen für mich eigentlich keine andere Erklärung zu.
edit:
Steht da irgendwo was das ist? avg.?
Sardaukar.nsn
2024-10-12, 10:01:22
Vom 5800x3D auf den 9800X3D könnte man schon im Bereich von 50% mehr CPU Spiele Leistung kommen, das ist schon deutlich spürbar.
Sinnvollerweise haben sich ja viele noch zum Ende von AM4 einen 5800x3D zugelegt. Natürlich wird man irgendwann mal auf einen Nachfolger wechseln, dabei geht dann darum einen guten Zeitpunkt für de Upgrade zu finden. Bin auf die Benchmarks gespannt.
Neurosphere
2024-10-12, 10:16:02
https://wccftech.com/amd-ryzen-9000x3d-3d-v-cache-cpu-gaming-performance-leak-ryzen-7-9800x3d-ryzen-9-9950x3d/
AMD Ryzen 9000X3D “3D V-Cache” CPU Gaming Performance Leaks Out: Ryzen 7 9800X3D 11% Faster Than 7800X3D, Ryzen 9 9950X3D 13% Faster Than 7950X3D
Badesalz
2024-10-12, 10:22:36
Vom 5800x3D auf den 9800X3D könnte man schon im Bereich von 50% mehr CPU Spiele Leistung kommen, das ist schon deutlich spürbar.War das früher nicht ein völlig normales Vorgehen, dßa je nach dem im welchen turnus man sich selbst befand, man bei CPUs eine Generation immer ausgelassen hat, WENN es um sinnig ging?
Real, wählen alle so ihre Einstellungen, daß sie in einem für sie grad so in nicht mehr nervigen GPU-Limit liegen. Betrifft so in etwa 93% des Themas. Jedes Mal aber wenn eine neue CPU-Gen ansteht scheint es mir, als wenn nur die 7% der Gamer existieren würden. Irgendwie seltsam :freak:
horn 12
2024-10-12, 10:23:10
Oh, dies schmerzt!
Für mich Grund genug noch weiterhin beim 5800X3D und der 7900XTX MBA zu bleiben!
MSABK
2024-10-12, 10:27:52
Naja, habt ihr da jetzt +30% erwartet? Ist schon ok der Chip. Wahrscheinlich wird der 7800x3d schnell eingestellt und dann gibt es den 9800x3d als Ersatz. Wird gegen Intel langen und dann ist mindestens 1,5 Jahre ruhe auf dem Markt.
edit:
hier sind ja bereits die MSI folien zur Performance
https://www.3dcenter.org/news/news-des-11-oktober-2024
und computerbase hat das Thema auch grade nochmal zusammengefasst und um die Einordung zu Arrowlake erweitert
https://www.computerbase.de/news/prozessoren/msi-laesst-blicken-erste-spiele-benchmarks-mit-ryzen-9000x3d.89949/
Blase
2024-10-12, 19:14:38
Passt hier imho grade gut rein...
2DfGNPiNTuM
MfG Blase
ChaosTM
2024-10-12, 20:16:48
War das früher nicht ein völlig normales Vorgehen, dßa je nach dem im welchen turnus man sich selbst befand, man bei CPUs eine Generation immer ausgelassen hat, WENN es um sinnig ging?
Real, wählen alle so ihre Einstellungen, daß sie in einem für sie grad so in nicht mehr nervigen GPU-Limit liegen. Betrifft so in etwa 93% des Themas. Jedes Mal aber wenn eine neue CPU-Gen ansteht scheint es mir, als wenn nur die 7% der Gamer existieren würden. Irgendwie seltsam :freak:
Intel hat uns 7-8 Jahre lang mit +5%/Jahr abgespeist bis Ryzen kam.
Die waren anfangs auch nicht sehr gut, aber es hat mittelfristig zu enormen Leistungssteigerungen geführt, weil Intel sich was überlegen musste.
Scheinbar hat man wieder mal ein Plateau erreicht, wo beide nicht mehr weiter kommen.
Nightspider
2024-10-12, 20:24:52
Scheinbar hat man wieder mal ein Plateau erreicht, wo beide nicht mehr weiter kommen.
Wie kommt man nur auf die Idee sowas zu sagen?
Das ist meiner Meinung nach genauso Blödsinn, wie vor 10 Jahren, als gesagt wurde die IPC kann nicht mehr gesteigert werden.
Zen5 hat einen großen Schritt gemacht bei Anwendungen und HPC Usecases.
AMD könnte auch Gamer CPUs entwickeln ohne AVX512 Gedöhns, schnellerer RAM Anbindung mit neuem IO Die usw usw.
Aber mit Gamern kann man eben nicht so viel Geld verdienen wie mit EPYC CPUs.
rentex
2024-10-12, 20:27:16
@Nightspider +1
ChaosTM
2024-10-12, 20:38:14
Wie kommt man nur auf die Idee sowas zu sagen?
Das ist meiner Meinung nach genauso Blödsinn, wie vor 10 Jahren, als gesagt wurde die IPC kann nicht mehr gesteigert werden.
Zen5 hat einen großen Schritt gemacht bei Anwendungen und HPC Usecases.
AMD könnte auch Gamer CPUs entwickeln ohne AVX512 Gedöhns, schnellerer RAM Anbindung mit neuem IO Die usw usw.
Aber mit Gamern kann man eben nicht so viel Geld verdienen wie mit EPYC CPUs.
Weil es momentan die Realität ist.
Wie ich weiter oben schon gesagt habe, braucht es neue Ansätze und die sind im Spiele Bereich momentan nicht vorhanden bzw. noch nicht umgesetzt.
Solche Plateaus sind da um überwunden zu werden. Ich hab niemals behauptet, das es nicht weiter gehen kann. Siehe "wieder mal". Das impliziert, das es irgendwann sicher weiter gehen wird.
genau lesen und sich nicht auf semantischen Kleinigkeiten einschießen..
Badesalz
2024-10-12, 20:39:36
Zen5 hat einen großen Schritt gemacht bei Anwendungen und HPC Usecases.Was für Anwendugnen denn? Jedes Mal stell ich diese Frage, wenn jemand dieses Kokolores von sich gibt, und jedes Mal bleibt es unbeantwortet.
edit:
Und warum wolltest du den Beitrag von Chaos nicht einfach lesen, sondern nur interpretieren? Kann man das nachvollziehen?
Nightspider
2024-10-12, 21:00:55
braucht es neue Ansätze
Bei Hardware gibt es dutzende Ansätze für Leistungssteigerungen aber Gamer sind nun mal nicht die Zielgruppe von Zen5 gewesen.
Wir bekommen dafür die neuste V-Cache Generation und auf diesem Wege (Packaging) ~10-15% mehr Leistung.
und die sind im Spiele Bereich momentan nicht vorhanden
Warte, redest du jetzt von Hardware oder Software?
Solche Plateaus sind da um überwunden zu werden.
Es ist unsinnig von einem Plateau zu sprechen, weil die IPC in Spielen bei einer Generation mal nur einen Sprung von 4% macht.
Ich hab niemals behauptet, das es nicht weiter gehen kann
Hat ja auch keiner gesagt.
basix
2024-10-12, 21:12:11
Was für Anwendugnen denn? Jedes Mal stell ich diese Frage, wenn jemand dieses Kokolores von sich gibt, und jedes Mal bleibt es unbeantwortet.
Die richtigen Benchmarks anschauen du musst ;)
https://www.phoronix.com/review/amd-9600x-9700x-105w/7
https://www.phoronix.com/review/amd-epyc-9965-9755-benchmarks/14
https://www.servethehome.com/amd-epyc-9005-turin-turns-transcendent-performance-solidigm-broadcom/4/
- Ein 64C 9575F schlägt im Schnitt einen 96C 9754 / 9684X um ca. 20% und mehr (mit und ohne V-Cache).
- Ein 128C 9755 ist +58% schneller als ein 96C 9754
- Ein 9700X ist +23% schneller (mit 105W TDP) als ein 7700X und +15% mit 65W TDP
Zossel
2024-10-12, 21:20:58
AMD könnte auch Gamer CPUs entwickeln ohne AVX512 Gedöhns, schnellerer RAM Anbindung mit neuem IO Die usw usw.
Aber mit Gamern kann man eben nicht so viel Geld verdienen wie mit EPYC CPUs.
Du kannst bei AMD analog zu Sony so etwas in Auftrag geben und dann verkaufen.
Badesalz
2024-10-12, 21:28:09
@basix
Ja. Schon klar :usweet: Wenn ICH aber Anwendungen schreibe, dann mein ich halt Anwendungen.
Weiß denn hier keiner mehr was eine Anwendung ist? :usweet: Habt ihr NUR Spiele auf den SSDs?
basix
2024-10-12, 21:33:45
Falls man Python-Skripts nutzt, ist Zen 5 eine Wucht ;)
https://www.phoronix.com/review/ryzen-9600x-9700x/10
Web-Browsing ist auch sehr schnell:
https://www.phoronix.com/review/ryzen-9600x-9700x/3
ChaosTM
2024-10-12, 21:54:26
Bei Hardware gibt es dutzende Ansätze für Leistungssteigerungen aber Gamer sind nun mal nicht die Zielgruppe von Zen5 gewesen.
Wir bekommen dafür die neuste V-Cache Generation und auf diesem Wege (Packaging) ~10-15% mehr Leistung.
Warte, redest du jetzt von Hardware oder Software?
Es ist unsinnig von einem Plateau zu sprechen, weil die IPC in Spielen bei einer Generation mal nur einen Sprung von 4% macht.
Hat ja auch keiner gesagt.
@ Nightspider
du hast von Gipsel gelernt.
Man zerlege einen Post in kleine Teile und Unterstelle tw. völlig idiotische, völlig aus dem Kontext gerissene Sachen.
Einfach in Ruhe durchlesen und dann antworten.
Nightspider
2024-10-12, 23:33:10
Einfach in Ruhe durchlesen und dann antworten.
Tut mir leid aber auch nach dem 3. mal lesen erschließt sich mir aus deinem Beitrag kein zusätzlicher Kontext.
Badesalz
2024-10-13, 09:43:32
Falls man Python-Skripts nutzt, ist Zen 5 eine Wucht ;)
Was ist mit 7-zip? Oder Faststone Viewer? usw. :wink:
fondness
2024-10-13, 10:56:39
Wie kommt man nur auf die Idee sowas zu sagen?
Das ist meiner Meinung nach genauso Blödsinn, wie vor 10 Jahren, als gesagt wurde die IPC kann nicht mehr gesteigert werden.
Zen5 hat einen großen Schritt gemacht bei Anwendungen und HPC Usecases.
AMD könnte auch Gamer CPUs entwickeln ohne AVX512 Gedöhns, schnellerer RAM Anbindung mit neuem IO Die usw usw.
Aber mit Gamern kann man eben nicht so viel Geld verdienen wie mit EPYC CPUs.
So ist es, Zen5 bringt 37% mehr IPC in HPC/AI-Anwendungen vs. Zen4. Der Zen5 EPYC ist der größte Leistungssprung in der Serversparte seit Zen 1.
ChaosTM
2024-10-13, 11:25:15
Es ging auch nur um Spiele. ;)
fondness
2024-10-13, 11:31:34
Es ging auch nur um Spiele. ;)
Schon klar, aber das war halt offensichtlich ein Kompromiss zugunsten der Server-Sparte. Aber immerhin gibts einen X3D mit vollem Takt, ist ja auch nicht nichts. ;)
ChaosTM
2024-10-13, 11:48:49
Au den bin ich schon gespannt. Vielleicht legt der ja mehr drauf als die Vorgänger..
][immy
2024-10-13, 12:01:19
Falls man Python-Skripts nutzt, ist Zen 5 eine Wucht ;)
https://www.phoronix.com/review/ryzen-9600x-9700x/10
Web-Browsing ist auch sehr schnell:
https://www.phoronix.com/review/ryzen-9600x-9700x/3
Hui, leider bietet dell nach wie vor kein Ryzen bei den Laptops die von meiner Firma eingesetzt werden. Bei mir steht bald ein neuer an, wird wohl leider Intel 14xxx
Hakim
2024-10-13, 12:11:25
Wenn es denn wirklich bei den 2-11% bleibt und die CPU dafür höher taket, könnte die 7800X3D die effizienteste CPU bleiben, P/W? In Spielen wohl gemerkt
fondness
2024-10-13, 12:13:22
Wenn es denn wirklich bei den 2-11% bleibt und die CPU dafür höher taket, könnte die 7800X3D die effizienteste CPU bleiben, P/W? In Spielen wohl gemerkt
Naja man kann sicher beim 9800X3D die TDP reduzieren. Aber default wird sicher der 7800X3D eine höhere perf/Watt haben.
DeadMeat
2024-10-13, 12:47:21
Die TDP für Spiele zu reduzieren wird vermutlich nicht zuviel bringen außer du gehst auf <=60w ppt, denn die x3d erreichen ihr Limit nie (in Spielen).
basix
2024-10-13, 13:07:48
[immy;13629548']Hui, leider bietet dell nach wie vor kein Ryzen bei den Laptops die von meiner Firma eingesetzt werden. Bei mir steht bald ein neuer an, wird wohl leider Intel 14xxx
Die Ryzen HX 370 Resultate sehen nicht ganz so gut aus wie bei den Desktop Parts. Weiss aber nicht woran das liegt. Ein Teil wird AVX512 sein (Numpy) doch ich vermute es ist primär Speicher (Latenz). Das ist generell ein Problem bei Notebook CPUs: https://www.phoronix.com/review/amd-ryzen-ai-9-hx-370/9
Ein Intel 14xxx wird ähnlich schnell sein wie ein Zen 5 Ryzen. Evtl. sogar leicht schneller, je nach Anwendung. Das ist nicht tragisch vom Unterschied her. Der Intel wird einfach deutlich mehr saufen, was schon ein Nachteil ist. Bei Zen 5 kriegt man die selbe Performance in einem leichteren Notebook mit längerer Akkulaufzeit.
Ich warte momentan auch darauf, dass es die Corporate Dinger mit Zen 5 gibt. Dann wechsle ich. Ich bin beruflich noch auf einem i7 9850H unterwegs (Skylake 6C), da ist ein HX 370 / 365 ein riesen Sprung ;)
Was ist mit 7-zip? Oder Faststone Viewer? usw. :wink:
Such dir entsprechende Benches im Internet ;) Ich kann ja nicht jedwede beliebige Anwendung hier posten. Je nach Anwendungsgebiet (CAD, Python, Web Browsing, ...) ist Zen 5 ein schönes Upgrade. Für andere Sachen weniger. Das war aber bei allen früheren CPU-Generationen auch schon so. Nicht alles skaliert gut mit neuen Cores. Da macht es (auf der Arbeit) mehr aus, wenn das System nicht mit irgendwelchen Corporate SW Sachen zugemüllt ist (was bei mir für Networking, Security und Office schwer der Fall ist). Da hat man also auf System und SW Ebene viel mehr Potential für Performance-Gewinne. Python und Web Browsing brauche ich viel und läuft lokal, deswegen ist das für mich interessant.
7-Zip und generell Packer sind aber eh Bandwidth Bound, das wird erst mit DDR6 wieder deutlich schneller werden.
Die TDP für Spiele zu reduzieren wird vermutlich nicht zuviel bringen außer du geht auf <=60w ppt, denn die x3d erreichen ihr Limit nie (in Spielen).
Jo, sollte nicht viel bringen. Hier ist ein 9700X bei max. 80W unterwegs: https://www.techpowerup.com/review/amd-ryzen-7-9700x/23.html
Also mit 65W TDP (89W PPT) wird man in den meisten Fällen keinen Unterschied sehen im Gaming.
Mit <60W TDP und/oder Underclocking kann man vermutlich aber noch einiges an Effizienz rausholen. Ein 7800X3D liegt im Schnitt bei 46W und ein 9700X bei 71W im obigen Link.
iamthebear
2024-10-13, 14:02:54
Die TDP zu reduzieren wird in den meisten Fällen sowieso nicht erreicht werden (typische Gaming Last im GPU Limit).
Man müsste eher den maximalen Takt reduzieren.
basix
2024-10-13, 14:28:02
Die TDP zu reduzieren wird in den meisten Fällen sowieso nicht erreicht werden (typische Gaming Last im GPU Limit).
Man müsste eher den maximalen Takt reduzieren.
Das meine ich ;) Taktreduzierung ist nötig, wenn man den Verbrauch wirklich senken will.
Evtl. kann man mit 45W Eco Mode in etwa das auch erreichen, was ein 7800X3D schafft. Sind 60W PPT oder so. Kann aber auch sein, dass die CPU dann ständig im 60W Limit hängt.
Badesalz
2024-10-14, 07:00:31
Such dir entsprechende Benches im Internet ;) Die kenn ich ;) Daher auch meine unterschwellige Frage :wink:
Mars81
2024-10-14, 09:50:19
Das meine ich ;) Taktreduzierung ist nötig, wenn man den Verbrauch wirklich senken will.
Evtl. kann man mit 45W Eco Mode in etwa das auch erreichen, was ein 7800X3D schafft. Sind 60W PPT oder so. Kann aber auch sein, dass die CPU dann ständig im 60W Limit hängt.
Ist es bei Spielen nicht sinniger, die Framerate zu limitieren?Man muss dann auch nichts umstellen, falls man die volle Prozessorleistung benötigt (z.B. beim benchen ;-) ).
latiose88
2024-10-14, 10:17:06
Man kann jedoch auch beides machen so wie ich es gemacht hatte. Die Hardware kann mehr egal ob CPU oder gpu und habe die fps auf z. b 120 fps gedeckelt. weniger fps wie 85 oder gar sogar 60 fps auf einen 60 Hz Bildschirm führten zu rucklern auch wenn das game alt ist. scheinbar braucht man bei egoshooter eben mehr als 60 fps um flüssig zu zocken. Gerade da wo es schnell zur Sache geht wie counterstrike source oder sowas. Aber auch andere egoshooter führten bei 60 fps Limit zu rucklern.
Dann noch gpu Speichertakt sowie Kerntakt gesenkt und bei cpu hypertrading abgeschaltet und takt auf festen Wert wie 3,5 GHz oder gar nur 3 GHz allcore. Fertig ist das sparsame System auch wenn es vorher eigentlich mehr als die meiste Hardware frisst.
man kann also jedes System zur Sparsamkeit zwingen wenn man wirklich will.
Ich weiß die meisten Menschen machen das nicht so. Ich habe das eiskalt durch gezogen. So wurde also aus einer 75 Watt gpu eine rund 30-35 Watt und einer 150 Watt CPU weil ist ja schon ne ältere Generation zu einer rund 40 Watt oder moment der zeigt ja 30 Watt an.
Was ich noch gemacht habe die ram riegel sind eigentlich ddr4 2400 mhz und ich habe daraus 2133 mhz gemacht.
ich habe also alles gedrosselt. Wenn schon dann macht man das ganz weil so halbherzig bringt das nicht so viel.
Das Mainbaord kann ich leider nicht drosseln. Was ich noch machen kann sind alle USB und SATA die ich nicht brauche abzuschalten bzw besser auch noch PCI express. Damit ich da noch ein paar Watt raus holen kann.
Mit dieser Methode kann man also selbst eine Workstation zur Sparsamkeit zwingen.
Macht zwar kein Sinn aber ist machbar.
Der PC ist seid dem super leise und super kühl. zeigt mir unter last was von 40 grad bei gpu und cpu an.
weniger geht fast nicht mehr.
Wobei wenn es möglich wäre auch noch die Lüfter geschwindigkeit drosseln. Dann wäre der PC nicht nur kühl und stromsparend sondern auch noch silence also leise.
Die meisten würden das als schmerzhaft empfinden wenn sie sowas lesen würden.
Der ganz neue System wird nicht gedrosselt weil ich eine zwei Teilung mache. Das wäre dann die andere Variante. Wenn man mehrere PCs hat kann man eben auch beides machen. Da wo ich mich jeden Tag aufhalte und nutze,ist die für leichte Sachen der sparsame Mini PC und für richtig harte Sachen nen Monster PC. Dieser wird nur dann eingeschaltet wenn er Arbeit bekommt. Aber nicht nur ein wenig sondern richtig ackern muss.
Damit löse ich alle Probleme die ich bisher so hatte nämlich der hohe Stromverbrauch.
ich ziehe das ganau so durch. Mich wollten welche es ansprechen wegen 30 Watt pro Stunde und das bei 24 Stunden. Das es sich nicht lohnen würde. Es sind jedoch fast 100 € pro Jahr. Wenn der Mini PC 350€ gekostet hat lohnt es sich aber sehr schnell. So viele Jahre sind es ja nicht.
basix
2024-10-14, 13:00:18
Ist es bei Spielen nicht sinniger, die Framerate zu limitieren?Man muss dann auch nichts umstellen, falls man die volle Prozessorleistung benötigt (z.B. beim benchen ;-) ).
Wenn man ins Frame Limit kommt ;)
Gibt Spiele, die sind auch mit Volldampf bei 60-80fps unterwegs, weit weg von meinem eingestellten 142fps Framelimit. Und 60-80fps ist nicht die Framerate, wo ich auf 60fps limitiere. Das ist mir zu ruckelig ;)
Zossel
2024-10-14, 13:19:15
7-Zip und generell Packer sind aber eh Bandwidth Bound, das wird erst mit DDR6 wieder deutlich schneller werden.
Solange das Window in den Cache passt sollte die DRAM Geschwindigkeit eine untergeordnete Rolle spielen.
basix
2024-10-14, 14:25:45
Review des Beelink SER9 mit HX370:
https://wccftech.com/review/beelink-ser9-amd-ryzen-ai-9-hx-370-mini-pc-review-fastest-igpu-on-the-market/
Hat einige Spiele Benchmarks drin und ich bin schon ein bisschen beeindruckt, dass man eine GTX 1060 konsistent mit 10-20% Vorsprung schlägt. Wenn AMD bei der nächsten Generation mit LPDDR6 und doppelter Bandbreite kommt, könnte man in 1080p im selben Performance-Bereich landen wie eine RTX4060 (eine RTX 4060 ist ca. 2.5x schneller als eine GTX1060). Ein bisschen mehr Takt, ein bisschen mehr IPC (RDNA4/5) und das Lösen der Speicherbandbreiten-Bremse via LPDDR6 und es könnte hinhauen. DAS wäre eine super coole Mini-PC-Basis (Zen 6 ist dann ja auch dabei). Und natürlich auch für Mobile-Notebooks. Und erscheint das H1/2026 wäre das gerade Mal +3 Jahre nach dem Release der RTX4060 und hätte keine 8GB Bremse.
fondness
2024-10-14, 14:31:47
Review des Beelink SER9 mit HX370:
https://wccftech.com/review/beelink-ser9-amd-ryzen-ai-9-hx-370-mini-pc-review-fastest-igpu-on-the-market/
Hat einige Spiele Benchmarks drin und ich bin schon ein bisschen beeindruckt, dass man eine GTX 1060 konsistent mit 10-20% Vorsprung schlägt. Wenn AMD bei der nächsten Generation mit LPDDR6 und doppelter Bandbreite kommt, könnte man in 1080p im selben Performance-Bereich landen wie eine RTX4060 (eine RTX 4060 ist ca. 2.5x schneller als eine GTX1060). Ein bisschen mehr Takt, ein bisschen mehr IPC (RDNA4/5) und das Lösen der Speicherbandbreiten-Bremse via LPDDR6 und es könnte hinhauen. DAS wäre eine super coole Mini-PC-Basis (Zen 6 ist dann ja auch dabei). Und natürlich auch für Mobile-Notebooks. Und erscheint das H1/2026 wäre das gerade Mal +3 Jahre nach dem Release der RTX4060 und hätte keine 8GB Bremse.
Ja, bei der tdp fährt das Ding die 2.9ghz takt voll aus. Wird zwar völlig an der Bandbreite verhungert aber ein bisschen was bringt mehr Takt immer. Schade, dass AMD nicht zumindest ldppr5x 8533 ermöglicht
robbitop
2024-10-14, 14:37:31
Review des Beelink SER9 mit HX370:
https://wccftech.com/review/beelink-ser9-amd-ryzen-ai-9-hx-370-mini-pc-review-fastest-igpu-on-the-market/
Hat einige Spiele Benchmarks drin und ich bin schon ein bisschen beeindruckt, dass man eine GTX 1060 konsistent mit 10-20% Vorsprung schlägt. Wenn AMD bei der nächsten Generation mit LPDDR6 und doppelter Bandbreite kommt, könnte man in 1080p im selben Performance-Bereich landen wie eine RTX4060 (eine RTX 4060 ist ca. 2.5x schneller als eine GTX1060). Ein bisschen mehr Takt, ein bisschen mehr IPC (RDNA4/5) und das Lösen der Speicherbandbreiten-Bremse via LPDDR6 und es könnte hinhauen. DAS wäre eine super coole Mini-PC-Basis (Zen 6 ist dann ja auch dabei). Und natürlich auch für Mobile-Notebooks. Und erscheint das H1/2026 wäre das gerade Mal +3 Jahre nach dem Release der RTX4060 und hätte keine 8GB Bremse.
IF$ für die APUs und ab gehts. Weniger Geiz und mehr Bums.
Laut Thephawx (der hat das ermittelt) rennen die AMD APUs bei grob 50% des Maximaltaktes schon in's Bandbreitenlimit.
Undertaker
2024-10-14, 15:24:15
Den (angeblichen) RTX 4060 Konkurrenten gibt es doch in Kürze mit Strix Halo. Selbst wenn man da leistungsmäßig nahe kommt, was nach dem zuletzt leider oftmals deutlich übertriebenen Leistungsversprechen zumindest kritisch hinterfragt werden muss, reden wir hier jedoch über eine teure 256 Bit Anbindung und TDPs im deutlich dreistelligen Bereich für volle Performance. Nach den Preisen von Strix Point fürchte ich für Strix Halo Geräte in Richtung 2.000 Euro und mehr. Mit den zahlreichen 800-1.000 Euro Plastikbombern mit RTX 4060, die den Massenmarkt dominieren, wird man wohl nur schwer konkurrieren können.
fondness
2024-10-14, 15:28:13
Den (angeblichen) RTX 4060 Konkurrenten gibt es doch in Kürze mit Strix Halo. Selbst wenn man da leistungsmäßig nahe kommt, was nach dem zuletzt leider oftmals deutlich übertriebenen Leistungsversprechen zumindest kritisch hinterfragt werden muss, reden wir hier jedoch über eine teure 256 Bit Anbindung und TDPs im deutlich dreistelligen Bereich für volle Performance. Nach den Preisen von Strix Point fürchte ich für Strix Halo Geräte in Richtung 2.000 Euro und mehr. Mit den zahlreichen 800-1.000 Euro Plastikbombern mit RTX 4060, die den Massenmarkt dominieren, wird man wohl nur schwer konkurrieren können.
Ageh, sei doch nicht immer so negativ wenn es um AMD geht. :)
Strix Halo hat 2,5x ALUs von Strix, ~2,3x Bandbreite + Infinity Cache, das sollte allemal für die GTX4060 reichen bei mit hoher Wahrscheinlichkeit besserer Perf/Watt. TDP geht bei 55W los für den gesamten SoC. Und die Preise sind wie üblich nur am Anfang so hoch wo die Stückzahlen noch niedrig sind, Kosten liegen mit Sicherheit unter denen einer dGPU.
dildo4u
2024-10-14, 15:46:57
Würde mich Wundern wenn Strix Halo unter 32GB kommt Strix hat ja schon 24GB al Minimum.
Es wird so schwer Mainstream Preise zu erreichen, es gibt Tonnen 4060 Laptops unter 1k und die 5060 wird direkt dort ansetzen.
MSABK
2024-10-14, 15:50:28
Ageh, sei doch nicht immer so negativ wenn es um AMD geht. :)
Strix Halo hat 2,5x ALUs von Strix, ~2,3x Bandbreite + Infinity Cache, das sollte allemal für die GTX4060 reichen bei mit hoher Wahrscheinlichkeit besserer Perf/Watt. TDP geht bei 55W los für den gesamten SoC. Und die Preise sind wie üblich nur am Anfang so hoch wo die Stückzahlen noch niedrig sind, Kosten liegen mit Sicherheit unter denen einer dGPU.
Ist aber nunmal Realität. Niemand kauft ein 2000+€ Gerät wenn er schon für 1000€ ein rtx4060 Gerät mit dlss bekommt.
Der mobile Markt für AMD ist aktuell tot, die machen nur das minimal nötigste. Ich weiß nicht an welche Zielgruppe Strix Halo gerichtet ist. Sicher nicht Gsmer.
dildo4u
2024-10-14, 15:51:54
Einfach gucken wie wenig Strix Geräte es gibt Halo ist noch mal weniger die werden alles Absetzen was sie produzieren.
fondness
2024-10-14, 15:55:01
Ist aber nunmal Realität. Niemand kauft ein 2000+€ Gerät wenn er schon für 1000€ ein rtx4060 Gerät mit dlss bekommt.
Der mobile Markt für AMD ist aktuell tot, die machen nur das minimal nötigste. Ich weiß nicht an welche Zielgruppe Strix Halo gerichtet ist. Sicher nicht Gsmer.
Klar kann man einen Plastikbomber mit einem High-End-Gerät vergleichen. Und ich wiederhole es auch gerne nochmal wenn du es schon ignorieren willst: Die Preise werden sinken wenn die Stückzahlen steigen.
latiose88
2024-10-14, 16:03:41
Also die wenigsten werden da 2000 € ausgeben. Bevor man so hohen Preis zahlt, dann kann man gleich in ein Laptop investieren und hätte mehr davon. Ich kann es wenigstens durch die Gegend tragen. Und so viel Strom wird man bei AMD auch nicht sparen können. Da ist das schöne Geld nur unnötig verbrannt. Also ich will schon das meiste für das Geld haben. AMD wird mich also so nicht erreichen. Wenn mehr so denken, wird AMD nicht viel Geld damit verdienen. Weiß also auch nicht wen diese Hardware erreichen will.
mczak
2024-10-14, 16:06:01
Würde mich Wundern wenn Strix Halo unter 32GB kommt Strix hat ja schon 24GB al Minimum.
Es gibt durchaus auch Strix Point Notebooks mit 16GB. Keine Ahnung ob das überhaupt eine Vorgabe von AMD ist, aber weniger wäre definitiv nicht sinnvoll (wobei IIRC auch bei Phoenix/Hawk gab's schon nichts darunter).
[/quote]
Es wird so schwer Mainstream Preise zu erreichen, es gibt Tonnen 4060 Laptops unter 1k und die 5060 wird direkt dort ansetzen.
Von den Produktionskosten her sollte es doch möglich sein dass Strix Halo Notebooks nicht allzu teuer werden. Aber klar solange Notebooks mit Strix Point nicht günstiger werden wird das wohl schwierig mit akzeptablen Preisen für Strix Halo...
Undertaker
2024-10-14, 16:36:08
Die Frage sind zum einen die Produktionskosten mit 256 Bit LPDDR5-Bestückung und einem massiven Die mit 16 Kernen, zum anderen aber auch die Produktausrichtung. Mit 16 Kernen und nach der heftigen Strix Point Bepreisung (der Buschfunk sagt Verdoppelung gegenüber dem Vorgänger) wird AMD hier wohl eine nochmal deutlich höhere Positionierung anstreben. Mit einer High-End-CPU und Mittelklasse-GPU, die 2025 wohl eher im Bereich einer künftigen RTX 5050 liegt, droht man dann ein bisschen im Niemandsland zwischen den günstigeren 5050/4060 Notebooks mit ähnlicher Spieleleistung und High-End-Geräten mit xx70er/80er GeForce zu landen, die dann wiederum bei der GPU-Leistung davonziehen. Ob man da rein über die VRAM-Karte punkten kann, wenn die Rohleistung nicht für die Oberklasse reicht und der Gaming-Kunde derzeit extrem Nvidia-treu kauft?
basix
2024-10-14, 16:38:40
IF$ für die APUs und ab gehts. Weniger Geiz und mehr Bums.
Laut Thephawx (der hat das ermittelt) rennen die AMD APUs bei grob 50% des Maximaltaktes schon in's Bandbreitenlimit.
Ja, IF$ wäre eine Lösung. Da es H2/2025 aber LPDDR6 geben wird, ist IF$ erstmal nicht nötig. Und AMD wird es danken und anstatt eines IF$ eine fettere NPU verbauen ;)
IF$ sehe ich gerade wegen LPDDR6 bei der nächsten APU Generation noch nicht. Ökonomische Gründe & Kosten für den IF$. Allenfalls aber bei der übernächsten Generation aber auch dort nicht zwingend, wenn +30% LPDDR6X Bandbreite für +30% GPU-Performance ausreichen sollten. LPDDR6(X) ist da schon ein Geschenk ;)
Wo IF$ schon cool wäre: Energieeffizienz. NPU, GPU und Multimedia Engines könnten darauf zugreifen. Kosten und LPDDR6(X) könnten uns hier allerdings einen Strich durch die Rechnung machen. Wobei 16MB IF$ <10mm2 gross sind, evtl. sogar ~5mm2 gross sein könnte im absoluten Best Case in N3(E oder P)
Den (angeblichen) RTX 4060 Konkurrenten gibt es doch in Kürze mit Strix Halo. Selbst wenn man da leistungsmäßig nahe kommt, was nach dem zuletzt leider oftmals deutlich übertriebenen Leistungsversprechen zumindest kritisch hinterfragt werden muss, reden wir hier jedoch über eine teure 256 Bit Anbindung und TDPs im deutlich dreistelligen Bereich für volle Performance. Nach den Preisen von Strix Point fürchte ich für Strix Halo Geräte in Richtung 2.000 Euro und mehr. Mit den zahlreichen 800-1.000 Euro Plastikbombern mit RTX 4060, die den Massenmarkt dominieren, wird man wohl nur schwer konkurrieren können.
Strix Point und dessen Nachfolger sind in viel günstigeren Geräten zu finden als Strix Halo. Und mit RDNA5 und FSR4 und whatnot wird das Feature-Set auch auf RTX 4060 Niveau liegen und wer weiss, evtl. gar nichtmal so weit weg von GB207 Mobile zu liegen kommen was die Performance angeht. Das wäre ein riesen(!) Deal für AMD.
fondness
2024-10-14, 16:45:53
Die Frage sind zum einen die Produktionskosten mit 256 Bit LPDDR5-Bestückung und einem massiven Die mit 16 Kernen, zum anderen aber auch die Produktausrichtung. Mit 16 Kernen und nach der heftigen Strix Point Bepreisung (der Buschfunk sagt Verdoppelung gegenüber dem Vorgänger) wird AMD hier wohl eine nochmal deutlich höhere Positionierung anstreben. Mit einer High-End-CPU und Mittelklasse-GPU, die 2025 wohl eher im Bereich einer künftigen RTX 5050 liegt, droht man dann ein bisschen im Niemandsland zwischen den günstigeren 5050/4060 Notebooks mit ähnlicher Spieleleistung und High-End-Geräten mit xx70er/80er GeForce zu landen, die dann wiederum bei der GPU-Leistung davonziehen. Ob man da rein über die VRAM-Karte punkten kann, wenn die Rohleistung nicht für die Oberklasse reicht und der Gaming-Kunde derzeit extrem Nvidia-treu kauft?
Es gibt kein massiven Die mit 16 Kernen, die CPUs sind auf Chiplets. Dementsprechend wird es auch nur ein Chiplet mit 8 Kernen für Gamer geben. Die Produktionskosten werden mit Sicherheit unter einer dGPU-Kombi liegen. Der 16 Kerne mit massiv Speicher ist ein Apple M4 PRO Konkurrent. Aber klar kannst du auch den gleichen Blödsinn einfach immer wieder schreiben. :)
Undertaker
2024-10-14, 16:49:01
Es gibt kein massiven Die mit 16 Kernen, die CPUs sind auf Chiplets. Dementsprechend wird es auch nur ein Chiplet mit 8 Kernen für Gamer geben. Die Produktionskosten werden mit Sicherheit unter einer dGPU-Kombi liegen. Aber klar kannst du auch den gleichen Blödsinn einfach immer wieder schreiben. :)
Es soll Modelle mit voller GPU und nativen 8 Kernen geben? Das war mir tatsächlich neu, könnte ich auf den mir bekannten Folien so nicht finden :) Bei Strix Point bekommst du die größte GPU ja leider auch nur beim Topmodell.
Magst du deine Quelle verlinken? :)
Edit: Scheint leider eine Ente zu sein, 20% GPU-Abstrich bei 8 Kernen. Ob das dann überhaupt noch für eine 4060 reicht?
https://www.computerbase.de/2024-09/amd-strix-halo-ryzen-ai-max-plus-395-genehmigt-sich-96-gb-videospeicher/
fondness
2024-10-14, 16:52:57
Es soll Modelle mit voller GPU und nativen 8 Kernen geben?
Hat niemand behauptet, das ist jetzt deine Nebelkerze mangels Argumenten. :)
Das war mir tatsächlich neu, könnte ich auf den mir bekannten Folien so nicht finden :)
Es gibt keine Folien von AMD dazu, weitere Nebelkerze. :)
Magst du deine Quelle verlinken? :)
Haha ein echter Komiker, laute Bullshit-Behauptungen aufstellen und dann von anderen eine Quelle verlangen. :D
Undertaker
2024-10-14, 16:54:48
Ich habe während deines rants schon eine Quelle verlinkt, alles gut. :) Nur noch 32 CUs für den 8-Kerner.
MSABK
2024-10-14, 16:54:54
Man muss bedenken dass alles was mit einer AMD dGPU im Notebookmarkt zu tun hat quasi nicht existent ist. Über die VRAM-Menge verkaufen sich nicht einmal die Desktop-Karten.
fondness
2024-10-14, 16:56:23
Ich habe während deines rants schon eine Quelle verlinkt, alles gut. :) Nur noch 32 CUs für den 8-Kerner.
Selbst falls das stimmen sollte wohl verschmerzbar; die GPU ist auch mit 32CUs noch immer doppelt so dick wie alles was man sonst so bekommt. Und ein 8 Core Chiplet ohne c-Cores ist für Games optimal. Definitiv das Modell, nachdem ich Ausschau halten werde. Das ganze auf 55W limitiert und man hat das perfekte Gaming-NB mit bester Perf/Watt.
Undertaker
2024-10-14, 17:23:48
Die Skalierung wird sicher spannend, für den Angriff auf die 4060 wird oben ja von 110 Watt gesprochen. Die 4060er läuft schon bei 80-90 Watt rapide ins Limit. Ob das selbst inkl. CPU in puncto Effizienz für Strix Halo gegen die 4000er Geräte reicht, von den künftigen RTX 5000er noch gar nicht gesprochen? Aber entscheidender wird sicher der Preis, da müsste es für die massentaugliche Gaming-Ware bei <800 Euro für 8 Kerne und 32 CUs losgehen. Inkl. Image-Bonus von Nvidia wohl eher <<700 Euro.
fondness
2024-10-14, 17:29:09
Was interessiert mich eine 4060? Mir geht keiner ab wenn ich da jetzt ein paar fps mehr oder weniger habe. Zumal das ganze was da jetzt durch die Gegend schwirrt von wegen 110W eh nur Kafeesatzleserei ist. Mein Favorit sind die angeblichen Benchmarks die 1 Jahre vor dem Launch aufgetaucht sind. ;D Ich will maximale Effizienz in einem leisen und kompakten Notebook. Und das bekomme ich sicher nicht mit ineffizienter dGPU.
Undertaker
2024-10-14, 17:34:54
Für diese Annahme müssten sich die oben verlinkten Leistungs- und Performancewerte natürlich noch einmal drastisch verbessern, um auch 2025 konkurrenzfähige Effizienzwerte zur dann aktuellen dGPU-Konkurrenz zu liefern. Aber hoffen wir darauf, das AMD da endlich wieder näher zur RTX-Serie kommt. :)
fondness
2024-10-14, 17:37:23
Nicht wirklich, dazu brauche ich mir nur die Effizienzwerte aktueller APUs anzusehen. Es ist die dGPU-Konkurrenz, die abgehängt ist. Was auch logisch ist, eine iGPU beseitigt einiges an Ineffizienzen wie PCIe-Bus über den man massenhaft Daten kopieren muss, doppelten Speicher, kein gemeinsamen Powermanagement, etc.
Und irgendwelche lustigen "oben verlinkten Leistungs- und Performancewerte" eines Produktes, fast 1 Jahre bevor es gelauncht wurde sind natürlich lächerlich, das du dich darauf beziehst ist unter deinem Niveau. Zu dem Zeitpunkt gab es noch nicht mal Treibersupport.
Zossel
2024-10-14, 17:40:57
Von den Produktionskosten her sollte es doch möglich sein dass Strix Halo Notebooks nicht allzu teuer werden. Aber klar solange Notebooks mit Strix Point nicht günstiger werden wird das wohl schwierig mit akzeptablen Preisen für Strix Halo...
OEMs lieben es weniger Teile zu verbauen. Das sollte jeder wissen der schon mal was mit der Fertigung von Elektronik zu tun hatte.
dildo4u
2024-10-14, 17:46:57
Dafür musst du für Strix Halo ein komplett neues Mainboard/Kühlung bauen was der Endkunde zahlt.
Die Generation danach könnte aber interessant werden.
Undertaker
2024-10-14, 17:57:29
Nicht wirklich, dazu brauche ich mir nur die Effizienzwerte aktueller APUs anzusehen. Es ist die dGPU-Konkurrenz, die abgehängt ist. Was auch logisch ist, eine iGPU beseitigt einiges an Ineffizienzen wie PCIe-Bus über den man massenhaft Daten kopieren muss, doppelten Speicher, kein gemeinsamen Powermanagement, etc.
Das sollte es Strix Halo eigentlich leicht machen, genau, problematisch ist wohl das generelle Effizienzproblem der letzten AMD-GPU-Architekturen im Vergleich zur Nvidia-Konkurrenz. Natürlich gab es bislang auch keine APUs, die überhaupt in der Leistungsklasse einer aktuellen Ada-GPU lagen, insofern könnte man da wenn überhaupt nur gegen uralt-dGPU-Saurier vergleichen.
Mal ganz unten im Lineup geschaut, kommt eine RTX 4050 bei 30 Watt auf ca. 5.100 GPU-Punkte in Time Spy. Wie viele Punkte macht denn Strix Point bei 45 Watt, wenn wir mal 15 Watt für den CPU-Bedarf ansetzen? Von dort könnte man dann mal ein bisschen nach oben extrapolieren. :)
fondness
2024-10-14, 18:11:34
Das sollte es Strix Halo eigentlich leicht machen, genau, problematisch ist wohl das generelle Effizienzproblem der letzten AMD-GPU-Architekturen im Vergleich zur Nvidia-Konkurrenz. Natürlich gab es bislang auch keine APUs, die überhaupt in der Leistungsklasse einer aktuellen Ada-GPU lagen, insofern könnte man da wenn überhaupt nur gegen uralt-dGPU-Saurier vergleichen.
Mal ganz unten im Lineup geschaut, kommt eine RTX 4050 bei 30 Watt auf ca. 5.100 GPU-Punkte in Time Spy. Wie viele Punkte macht denn Strix Point bei 45 Watt, wenn wir mal 15 Watt für den CPU-Bedarf ansetzen? Von dort könnte man dann mal ein bisschen nach oben extrapolieren. :)
Bei 45W bist du längst im Bandbreitenlimit. Mit 28W für den gesamten SoC im ASUS Zenbook S16 bist du bei 3768. Bei noch weniger TDP steigt die Effizienz weiter.
Undertaker
2024-10-14, 18:16:45
Bei 45W bist du längst im Bandbreitenlimit. Mit 28W für den gesamten SoC im ASUS Zenbook S16 bist du bei 3768. Bei noch weniger TDP steigt die Effizienz weiter.
Du bist beim Gesamtscore, oder? Graphics finde ich da nur 3421. Aber oha, wenn das schon bandbreitenlimitiert ist, wäre selbst eine Verdoppelung auf 256 Bit weit von einer RTX 4060 entfernt. :(
fondness
2024-10-14, 18:17:44
Du bist beim Gesamtscore, oder?
Keine Ahnung ich kenn mich mit dem Zeug nicht aus, ist von hier:
https://www.notebookcheck.com/AMD-Radeon-890M-Grafikkarte-Benchmarks-und-Spezifikationen.848128.0.html
Graphics finde ich da nur 3421. Aber oha, wenn das schon bandbreitenlimitiert ist, wäre selbst eine Verdoppelung auf 256 Bit weit von einer RTX 4060 entfernt. :(
Strix Halo hat Infinity Cache im Gegensatz zu Strix ;)
latiose88
2024-10-14, 21:55:09
Hm wow die Punkte sind aber niedrig,Selbst eine gtx 1650 schlägt alle APUS.Also noch ist diese GPU nicht geschlagen.Das ist viel zu schlecht für die Rohleistung.
MSABK
2024-10-14, 22:03:06
Sobald man von low/medium auf high geht in den Details brechen die Apus ein.
latiose88
2024-10-14, 22:39:26
ja darum wird ne APU auch niemals so starke GPU schlagen können,es sei denn man drosselt eine gtx 1650,dann ist die APU stärker.Sagen wir mal 20-30 % gedrosselt kann auch eine APU gpu diese dann schlagen.Eine keine Ahnung APU gegen eine 35-40 Watt gedeckelte gtx 1650.Denke ich mal.
bbott
2024-10-14, 23:42:01
Aber 32W idle nervt. Schon ok...
Zen 6 fixt das hoffentlich ;)
Nightspider
2024-10-15, 04:38:11
Wird es im 2. Halbjahr 2025 einen Strix Nachfolger geben?
Zen5 mit RDNA4 in N3E wäre eine Möglichkeit. Aber gut möglich das man erst 2026 einen Strix Nachfolger bringt wenn die Fertigung weiter ist.
Mit Strix Halo kommen ja zumindest für den hochpreisigen Markt potentere Lösungen.
Wie hoch takten eigentlich die Zen5c Kerne in Strix Point?
Bei Turin Dense gehen sie auf 3,7Ghz. Zen4c lag maximal bei 3,1Ghz in EPYC CPUs, wenn ich mich nicht irre.
dildo4u
2024-10-15, 05:36:27
Im 2 Halbjahr 2025 wirst du die erste Version erst ohne Probleme kaufen können.
Intel große APU soll erst 2026 kommen erst dann muss AMD wieder Kontern.
Auf der Nvidia Seite wird Low End vermutlich keine Modelle über 8 GB Vram haben das wäre ein alleinstellungmerkmal für Strix Halo Geräte um 2k.
latiose88
2024-10-15, 07:35:36
Ja würde mich auch wundern wenn es in naher Zukunft mehr als 8 GB vram bei low end geben wird. villeicht ja 10 Jahre später irgendwann wird es auch in lowend mehr zu kaufen geben. Man kann halt nicht Jahrzehnte lang den Markt komplett igronierrn und die gpu und so kann man auch sehr klein herstellen bzw machen.
fondness
2024-10-15, 10:52:48
Mal wieder ein Hint eines bekannten Chiphell Leakers:
https://i.postimg.cc/155Fd1Mx/AMD-Ryzen-7-9800-X3-D-3-D-V-cache-CPU.png (https://postimg.cc/bdWdGMKL)
- Release 25. Oktober (da will man wohl Intel in die Suppe spucken)
- Verfügbarkeit Anfang November
- hoher Takt
- Preis vermutlich hoch
- Und wieder der Hinweis auf den 9950X3D zu warten....
https://x.com/harukaze5719/status/1846083644244599250
Prinzenrolle
2024-10-15, 11:08:16
Den hohen Takt braucht man auch, ansonsten wäre es ja wie Zen 5 kein Update.
Aber soviel ich gehört hab soll das Ding ganz schön heizen.
Badesalz
2024-10-15, 11:12:21
Ja? Wieviel soll er denn heizen?
Der heizt genau so wie ein 5800X oder ein 7700X. Kann man also vernachlässigen. Ist eben nicht mehr so sparsam wie der 5800X3D und 7800X3D, welche ja deshalb so sparsam waren, weil deren Takt eingeschränkt wurde. Das fällt einfach weg.
Prinzenrolle
2024-10-15, 11:24:28
Ja? Wieviel soll er denn heizen?
Die Wanne wird warm, für das Badesalz.^^
latiose88
2024-10-15, 11:27:46
Ja und der gratis Stromschlag ebenso oder geht man her stellt über die CPU das Wasser und lässt es dann warm machen und kippt es dann in die Badewanne, haha, der war gut.
fondness
2024-10-15, 11:27:46
Der heizt genau so wie ein 5800X oder ein 7700X. Kann man also vernachlässigen. Ist eben nicht mehr so sparsam wie der 5800X3D und 7800X3D, welche ja deshalb so sparsam waren, weil deren Takt eingeschränkt wurde. Das fällt einfach weg.
So ist es. Eher sogar weniger, weil mehr Cache weniger Speicherzugriffe bedeutet. Von Prinzenrolle kommt wie immer heiße Luft, dass man darauf überhaupt noch eingeht.
aceCrasher
2024-10-15, 11:39:01
Ja und der gratis Stromschlag ebenso oder geht man her stellt über die CPU das Wasser und lässt es dann warm machen und kippt es dann in die Badewanne, haha, der war gut.
Einfach der Radiator der WaKü in die badewanne hängen, dann kannste auch ohne Stromschlag das Wasser heizen :wink:
Zossel
2024-10-15, 12:55:38
So ist es. Eher sogar weniger, weil mehr Cache weniger Speicherzugriffe bedeutet. Von Prinzenrolle kommt wie immer heiße Luft, dass man darauf überhaupt noch eingeht.
Um dann in der selben Zeit mehr zu rechnen, was wiederum die Amper skillt.
Badesalz
2024-10-15, 13:07:07
Die Wanne wird warm, für das Badesalz.^^Immer schön reinfassen my Friend :up: Am besten noch zeitnah bevor weitere Fakeinfos die Tasta verlassen ;)
MiamiNice
2024-10-15, 13:12:21
Was nimmt sich den ein 3d Ryzen aus der Leitung? 120 Watt? Das reicht vielleicht für ein Omlet direkt auf dem HS aber sicher nicht um eine Wanne zeitnah zu erwärmen ;D
Badesalz
2024-10-15, 13:16:11
Braucht er doch eh nicht. Der kocht aktuell schon innerlich genug :wink:
Thomas Gräf
2024-10-15, 16:57:53
Mal wieder ein Hint eines bekannten Chiphell Leakers:
- Release 25. Oktober (da will man wohl Intel in die Suppe spucken)
- Verfügbarkeit Anfang November
- hoher Takt
- Preis vermutlich hoch
- Und wieder der Hinweis auf den 9950X3D zu warten....
Hmm doch 2x3D?
Wohlmöglich auch noch mehr Takt wie bei den normalen 16 Kerner üblich?
Welches Wunder erwartet uns da... :confused:
fondness
2024-10-15, 17:03:51
Keine Ahnung. Aber auffällig ist es schon. Auch dass die Dinger so viel später kommen ist seltsam. 2x3D wurde schon ein paar mal geleaked (macht auch Sinn wenn der Takt nicht mehr sinkt), das ist aber eigentlich kein Grund für eine deutliche Verzögerung. Und deshalb muss man wohl auch nicht extra warten...
Nightspider
2024-10-15, 17:09:40
Etwa doch gedrehte CCDs mit einem großen Cross-V-Cache über beide CCDs als Brücke und wo alle Kerne auf den riesigen L3 zugreifen können und mit besseren Latenzen zwischen den 16 Kernen? :D
Prinzenrolle
2024-10-15, 17:18:37
Immer schön reinfassen my Friend :up: Am besten noch zeitnah bevor weitere Fakeinfos die Tasta verlassen ;)
Temperatur am HS korreliert nicht unbedingt mit der Wärmeabgabe.
Trotz der 90W immer noch ein kleines Stück effizienter als ein 245K zum Zocken.
Effizienz-King bleibt der 7800X3D.
Braucht er doch eh nicht. Der kocht aktuell schon innerlich genug :wink:
Ein erwachsener Mensch erzeugt im Ruhezustand rund 100Watt Leistung, von daher könntest du schon recht haben.:biggrin:
Badesalz
2024-10-15, 19:33:05
Ich meine ein 30jähriger Kerl auf der Couch kommt auf 60-65W :wink:
Effizienz ist nur in Mobile eine Religion. Im nicht-office-Desktop zählen für die meisten am Ende die absoluten Zahlen. Für wieviel Watt gibts wieviel FPS und welche Schmerzgrenze hat man sich bei TDP/PPT gesetzt. Fertig.
@all
Ja Leute. Zum 5ten. Kein einseitiger V-Cache mehr. Kommt ihr klar damit? :wink:
raffa
2024-10-15, 20:29:12
Keine Ahnung. Aber auffällig ist es schon. Auch dass die Dinger so viel später kommen ist seltsam. 2x3D wurde schon ein paar mal geleaked (macht auch Sinn wenn der Takt nicht mehr sinkt), das ist aber eigentlich kein Grund für eine deutliche Verzögerung. Und deshalb muss man wohl auch nicht extra warten...
Gibt keinen echten release Druck. Nur einen kleinen von Intel jetzt, und der wird gekontert mit dem 9800X3D.
Radeonfreak
2024-10-15, 20:33:17
@all
Ja Leute. Zum 5ten. Kein einseitiger V-Cache mehr. Kommt ihr klar damit? :wink:
Ich wette dagegen.
Zossel
2024-10-15, 20:40:33
Gibt keinen echten release Druck. Nur einen kleinen von Intel jetzt, und der wird gekontert mit dem 9800X3D.
Ich finde die Schlagzahl mit der AMD die verschiedenen Zen5 basierten Produkte raus haut recht ordentlich. Insbesondere das die Serverteile gleich mit Zenxc@3nm gekommen sind finde ich bemerkenswert.
Wann soll eigentlich die Monster-APU kommen?
Badesalz
2024-10-15, 20:56:30
Ich wette dagegen.Schon mitbekommen...
Was ist denn nun dein Einsatz? (keine Schweinereien :|)
Altehardware
2024-10-15, 21:27:59
maximal wird der 9800x3d um die 10% schneller in spu limitierenden Szenen
Etwa cs2 oder far cry 6 und was gerne cpu limitierend ist ue5 spiele ab der rtx4080 super.
anbei etwa remnant 2 macht das gerne.
ich muss anmerken das zwischen 7800x3d und rx7700x bis zu 30% lagen und vs 5800x3d um 20%
gegen den r7 7800x3d ist man auf gleichen Taktniveau von 4,8ghz das gute die cpu ist noch effizienter als der 7800x3d.
also ist das am ende ne P/L frage aktuell wäre die optimale gaming cpu der r5 7600x3d ~300€
Dagegen ist der r7 9800x3d bei 500€ und nur +15% schneller ne harte Nuss
OgrEGT
2024-10-15, 21:36:48
Etwa doch gedrehte CCDs mit einem großen Cross-V-Cache über beide CCDs als Brücke und wo alle Kerne auf den riesigen L3 zugreifen können und mit besseren Latenzen zwischen den 16 Kernen? :D
I like :up:
Sardaukar.nsn
2024-10-15, 22:44:54
also ist das am ende ne P/L frage aktuell wäre die optimale gaming cpu der r5 7600x3d ~300€
P/L und X3D schließt sich aus. Der 7600 für 160-180€ ist in der Generation der Champion. Erst wenn 1000€+ Grafikkarten im Spiel sind könnte man auch stärkere CPUs empfehlen.
Perdakles
2024-10-16, 08:18:54
Ist eben nicht mehr so sparsam wie der 5800X3D und 7800X3D, welche ja deshalb so sparsam waren, weil deren Takt eingeschränkt wurde. Das fällt einfach weg.
Das ist nur ein (wichtiger) Teil der Wahrheit. Die X3D sind auch deshalb sparsamer weil sie seltener auf den RAM zugreifen müssen, da die Cache-Hit-Rate höher als bei nicht X3D Varianten ist.
Undertaker
2024-10-16, 08:53:50
Das ist nur ein (wichtiger) Teil der Wahrheit. Die X3D sind auch deshalb sparsamer weil sie seltener auf den RAM zugreifen müssen, da die Cache-Hit-Rate höher als bei nicht X3D Varianten ist.
Wäre ziemlich spannend, das mal genau zu vergleichen. Wurde mal irgendwo ein X3D vs. non-X3D bei gleichem Takt verglichen und die Leistungsaufnahme in verschiedenen Szenarien (niedrige Teillast fände ich auch spannend) gemessen?
latiose88
2024-10-16, 12:24:55
Ich Messe das bei meiner Anwendung mit 2 teilast Sachen, dazu generell ne sehr gute hitrate. Ich habe besser als bei den meisten anderen Anwendung ehwl ob spielen oder nicht als vergleich.
und da brachte in der tat der bessere RAM oder cache kaum noch Vorteile. Wenn keines der beiden mehr limitert, dann wird es gewiss der Chip selbst sein der sehr stark limitiert.
OgrEGT
2024-10-17, 07:02:35
Waren nicht ursprünglich B850 Mainboards zur CES mit den 9000X3D erwartet worden? Jetzt kommt zumindest der 9800X3D wohl schon im November vom B850 fehlt allerdings jede Spur...
Klar kann man auch B650 nutzen... wenn man schon einen hat... bei Plattformwechsel würde ich schon gerne die Ausstattung USB4 oder PCIE5 bei den neuen Boards abwarten...
Das ist nur ein (wichtiger) Teil der Wahrheit. Die X3D sind auch deshalb sparsamer weil sie seltener auf den RAM zugreifen müssen, da die Cache-Hit-Rate höher als bei nicht X3D Varianten ist.
Da das IOD eh kaum Strom braucht halte ich das für ne Legende.
OgrEGT
2024-10-17, 08:02:08
Irgendwoher muss aber die Mehrleistung in Spielen bei weniger Leistungsaufnahme kommen... wenn man sonst baugleiche CPUs mit einander vergleicht..
Freestaler
2024-10-17, 08:19:00
"RacetoIdle" gewinnt wohl der x3d vs. NonX3d. Damit kann er sich intern mehr stilllegen. Denkt da nicht in Sekunden sondern nanosekunden.
Schnitzl
2024-10-17, 14:57:32
bei mind. einem ist hier wohl ne Sicherung durchgebrannt???
mal grob aufgeräumt
davidzo
2024-10-17, 15:09:12
Ich finde die Schlagzahl mit der AMD die verschiedenen Zen5 basierten Produkte raus haut recht ordentlich. Insbesondere das die Serverteile gleich mit Zenxc@3nm gekommen sind finde ich bemerkenswert.
Wann soll eigentlich die Monster-APU kommen?
Ja, das hat mich auch gewundert dass Zen5c diesmal gleichzeitig kommt. Sogar noch vor Zen5x3d. Daran sieht man wie sehr der Fokus von AMD heute auf Datacenter liegt und nicht auf Consumer. Zen5c zu priorisieren könnte durchaus mit der Entscheidung zusammen fallen Big Navi4x zu streichen, das waren ja ebenfalls 3nm Projekte.
Von Sarlak hört man verdächtig wenig. Wir können imo froh sein wenn das überhaupt noch auf den Markt kommt. Der derzeitige Trend von PC/Notebook Verkäufen hilft AMD sicher nicht dabei Kunden für eine solche APU zu finden und ARL-Halo kommt ja scheinbar auch nicht mehr auf den Markt.
Ich kann mir vorstellen dass AMD die APU ähnlich spekulativ entwickelt hat wie damals "Van Gogh, "Dragon Crest", die jahrelang in den Roadmaps als "premium formfactor" aufgeführt wurden. Letztendlich kaum nur Van Gogh auf den Markt weil AMD mit Valve einen Kunden dafür gefunden hatte. Gegenüber den Roadmaps war das aber stark verspätet und vom angeblichen CVML Befehlssatz bzw, Beschleuniger (Vorgänger einer NPU?) hat man nie wieder etwas gehört.
robbitop
2024-10-17, 15:28:35
Bzgl Zen Halo / Sarlak kamen doch IIRC kürzlich wieder Leaks. In Bezug auf die Nomenklatur und auch die Specs bestätigen sich immer wieder.
AMD hatte mit RDNA3 bis dato praktisch kein Notebookmarktanteil. Mit Strix Halo könnte sich das ggf ändern.
MSABK
2024-10-17, 15:35:09
Bzgl Zen Halo / Sarlak kamen doch IIRC kürzlich wieder Leaks. In Bezug auf die Nomenklatur und auch die Specs bestätigen sich immer wieder.
AMD hatte mit RDNA3 bis dato praktisch kein Notebookmarktanteil. Mit Strix Halo könnte sich das ggf ändern.
Daran habe ich so meine Zweifel. Strix Point Geräte sind schon so teuer. Da wird Strix Halo leider nichts am Marktanteil ändern. Der Markt ist mit rtx4060 Geräten geflutet und da wird ein HighEnd Produkt wie StrixHalo nicht viel ändern.
robbitop
2024-10-17, 15:54:09
Kommt auf den Preis an. Wenn man die potenziellen Kostenvorteile eines so stark integrierten SoCs (vs kleinem SoC + dGPU + extra RAM) nicht nutzen kann oder zu gierig ist -> tja dann lohnt es sich halt nicht.
Nvidia verschenkt sein Silizium ja auch nicht gerade. Man sollte also performancenormiert schon potenziell günstiger werden können.
davidzo
2024-10-17, 17:35:01
Nvidia verschenkt sein Silizium ja auch nicht gerade. Man sollte also performancenormiert schon potenziell günstiger werden können.
Für die meisten Konsumenten ist es relativ egal was dabei preis/performancetechnisch herauskommt oder ob es leichte Effizienzvorteile gibt. Die kaufen einfach Nvidia wenn sie ein Gaming-Notebook suchen.
Ich denke worauf AMD hier pokert bzw. pokern muss ist die AI-Blase.
Durch unified Memory hat man hier einen nicht zu unterschätzenden Vorteil. Da kommt eine nvidia dGPU mit nur 6 oder 8GB VRAM nicht in Frage. Trotzdem hat sich AMD möglicherweise verschätzt.
Wer sich Nvidias Aktienkurs vor 24-36Monaten so angeschaut hat hätte erwartet dass AI bald nicht nur ein Programmiererspielzeug und eine Investorenblase ist, sondern der eigentliche große AI-Markt bald der Konsumermarkt sein wird. Die Investitionen in mobile NPUs, Microsoft Copilot, Apple Intelligence etc. schienen gerechtfertigt.
Aktuell bleibt der Impact vom AI PCs aber noch aus, bzw. Konsumenten scheinen sogar beinahe abgeschreckt davon zu sein. Die PC Verkäufe nehmen trotz der neuen Features weiter zyklusbedingt ab, nicht zu.
Damit haben wohl weder Microsoft noch AMD gerechnet.
Zusätzlich hat AMD das Problem dass ihre NPU Hardware zwar scheinbar gut ist, aber ihre Software noch nicht ready. Während nvidia Tensorflow, pytorch quasi der etablierte Standard ist und Intel mit OpenVino gute Anfänge zeigt und Qualcomm mit SNMP immerhin in einigen Benchmarks die NPU nutzen kann ist bei AMD immer noch eine große Lücke bei der Softwareunterstützung. Wird die NPU mal Windows ML unterstützen oder kommt AMD mit was eigenem?
Auch nicht hilfreich ist dass AMDs RDNA3 GPU IP grundsätzlich weniger AI-optimiert ist als die aktuellen Nvidia und Intel Architekturen, d.h. in low precision-Formaten wie int4 die für inferencing genutzt werden nicht den besten Durchsatz hat. Das wäre gerade für eine Monster-APU für AI doch besser gewesen.
Wird Sarlak als Highend AI-PC also viele Käufer finden? Das bezweifle ich stark. Mit der aktuellen Konjunktur im PCmarkt sowie nvidias Dominanz bei den Notebooks muss man sich jetzt an den AI-PC Strohhalm halten und hoffen dass Microsoft etwas mithilft die Monster APU zu verkaufen.
Ich bin da noch skeptisch ob das für AMD aufgeht, auch wenn ich ein großer Fan der Idee einer Monster-APU bin. Immerhin ist es gut für den Konsumenten, wir bekommen mehr Auswahl und endlich die Big-APU von der so viele hier im 3DC geträumt haben.
Ich schätze der SOC war wie das Gegenstück von Intel was jetzt nicht mehr kommt mal als Apple M4pro/Max Gegenstück in der Windowswelt gedacht. AI war zum Entwicklungsbeginn wenn überhaupt nur ein Nebenkriegsschauplatz.
fondness
2024-10-18, 12:00:03
Das Ryzen AI MAX 300 Namensschema für Strix Halo ist durch den neuen AMD Chipsatztreiber bestätigt:
https://videocardz.com/newz/amd-confirms-ryzen-ai-max-300-naming-for-strix-halo
Man lehnt sich also vom Namen klar an Apple an.
robbitop
2024-10-18, 12:32:31
Fehlt noch ein Ultra und ein Pro ^^
latiose88
2024-10-18, 12:54:40
Ja stimmt dann würde man an Intel sich anlehnen. hm finde das kopieren nicht so gut also von den Namen her so. Aber leicht zu merken ist das schon das stimmt. Nun es bleibt dennoch spannend bei AMD.
Exxtreme
2024-10-18, 15:22:47
Hier ein paar Benchmarks, wie schnell AVX512 sein kann:
https://lemire.me/blog/2024/08/03/converting-ascii-strings-to-lower-case-at-crazy-speeds-with-avx-512/
Zossel
2024-10-18, 17:41:45
Hier ein paar Benchmarks, wie schnell AVX512 sein kann:
https://lemire.me/blog/2024/08/03/converting-ascii-strings-to-lower-case-at-crazy-speeds-with-avx-512/
Das dürfte etwas mehr real life haben: (Vom selben Typen)
https://simdjson.org/
fondness
2024-10-18, 19:18:19
16 core ccx bestätigt
https://x.com/9550pro/status/1847325412097216548?t=motiUTrkawuw-so4dkeluw&s=19
Der_Korken
2024-10-18, 19:29:59
16 core ccx bestätigt
https://x.com/9550pro/status/1847325412097216548?t=motiUTrkawuw-so4dkeluw&s=19
Clickbait :D
Dachte schon es geht um den 9950X3D :tongue:
Für Zen5C war das ganze schon absehbarer durch die vor Ewigkeiten geleakte Folie mit Zen 4, 5 und 6 drauf.
robbitop
2024-10-18, 19:40:06
Für Epyc mit Zen5c ist das schon seit Tagen bestätigt.
Mal schauen ob jmd die Latency Ladder ausmisst.
Gipsel
2024-10-18, 20:16:28
Für Epyc mit Zen5c ist das schon seit Tagen bestätigt.
Mal schauen ob jmd die Latency Ladder ausmisst.
Genau.
https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/4/6/8/6/8/2/1/Epyc_9005_SoC_Die-91b2491f1f089e8d.png?org_if_sml=1&q=70&width=1080
BlacKi
2024-10-18, 20:17:11
vidz postet von brutalen 35% durch ein MB feature für die x3d prozessoren.
der hate in den comments ist brutal. AI generated? https://videocardz.com/newz/gigabyte-x3d-turbo-mode-boosts-performance-for-unannounced-ryzen-9000x3d-by-up-to-35
Radeonfreak
2024-10-18, 20:29:28
vidz postet von brutalen 35% durch ein MB feature für die x3d prozessoren.
der hate in den comments ist brutal.
Zurecht. Weils Quatsch ist. Vielleicht ein OC Button von Speicher von 4800 MHZ auf 6000+, PBO off auf On und von 70 Watt auf 140. :rolleyes:
BlacKi
2024-10-18, 20:30:16
ist aber untypisch für das kommentarsegment von vidz
Der_Korken
2024-10-18, 21:17:38
vidz postet von brutalen 35% durch ein MB feature für die x3d prozessoren.
der hate in den comments ist brutal. AI generated?
Hohn und Sarkasmus, mehr hat so eine lächerliche Ankündigung auch nicht verdient. Man muss eine Stock-CPU schon gut sabotieren, um sie so langsam zu bekommen, dass ausoptimierte Settings da +35% bringen.
Lehdro
2024-10-18, 23:02:14
ist aber untypisch für das kommentarsegment von vidz
Hä? Die Fanboywars dort sind völlig normal, ebenso der Hate/Kritik an etwas so dumm Beworbenem wie diesem Marketingstunt. Sich darüber zu wundern wäre ungefähr so wie sich über den durchschnittlichen Twittercomment zu wundern...
bbott
2024-10-19, 00:37:58
vidz postet von brutalen 35% durch ein MB feature für die x3d prozessoren.
der hate in den comments ist brutal. AI generated? https://videocardz.com/newz/gigabyte-x3d-turbo-mode-boosts-performance-for-unannounced-ryzen-9000x3d-by-up-to-35
Klar AMD lässt einfach so mal bis zu 35% liegen und GB findet diese und schaltet dies frei...
bbott
2024-10-19, 00:41:04
Joke These: Zen 5 ist eigentlich Zen 6 AMD hat ihn gedrosselt, um ihn als Zen 5 zu verkaufen und in 2 Jahren nochmal als Zen 6! LOL! Und GB hat Zen 5 zu Zen 6 freigeschaltet?! *ggg
BlacKi
2024-10-19, 08:49:20
up to steht da. und mein eindruck war immer, das sich in deren kommentarsektion eher pro amd positioniert. deshalb wundert mich der hate.
Zossel
2024-10-19, 09:31:11
Mal schauen ob jmd die Latency Ladder ausmisst.
Warum sollte das niemand auf dieser Welt mit >8E9 Menschen tun?
robbitop
2024-10-19, 09:46:06
Weil Epyc nur 8e1 Menschen zur Verfügung steht. ^^
Kleiner Scherz aber ehrlich: wie viele Menschen mit Zeit und Neugier steht sowas zur Verfügung? Relativ wenigen. Und wer davon misst genau sowas? Und wer von dieser Teilmenge veröffentlicht es? Ich hoffe wenigstens einer ^^
Zossel
2024-10-19, 10:46:53
Weil Epyc nur 8e1 Menschen zur Verfügung steht. ^^
Kleiner Scherz aber ehrlich: wie viele Menschen mit Zeit und Neugier steht sowas zur Verfügung? Relativ wenigen. Und wer davon misst genau sowas? Und wer von dieser Teilmenge veröffentlicht es? Ich hoffe wenigstens einer ^^
So ein Zeug kann heutzutage in der Cloud mieten. und der Test von Chips & Cheese braucht nur wenige Minuten.
Sowohl der Typ von Chips & Cheese und auch der Typ von Phoronix lassen Benchmarks auf gemieteten Cloud-Instanzen laufen.
Das kannst auch du für wenig Geld machen.
Nightspider
2024-10-19, 10:53:59
Hat schon einer das 16C CCD abgeschliffen und nach verdächtigen TSVs gesucht? :D
Fritzchen die shots when? ^^
V-Cache wäre jetzt weniger kompliziert auch möglich mit Zen5c als bei Zen4c aber wahrscheinlich benötigen die Anwendungen, die so viele Cores benötigen, nicht so viel L3 Cache.
Zossel
2024-10-19, 11:55:43
V-Cache wäre jetzt weniger kompliziert auch möglich mit Zen5c als bei Zen4c aber wahrscheinlich benötigen die Anwendungen, die so viele Cores benötigen, nicht so viel L3 Cache.
Datenbanken lieben IMHO beides gleichzeitig und noch viel mehr von allen.
Wie beim Döner :-)
MiamiNice
2024-10-19, 12:30:42
vidz postet von brutalen 35% durch ein MB feature für die x3d prozessoren.
der hate in den comments ist brutal. AI generated? https://videocardz.com/newz/gigabyte-x3d-turbo-mode-boosts-performance-for-unannounced-ryzen-9000x3d-by-up-to-35
Das Gerücht mit dem AMD OC Feature hält sich hartnäckig. Es soll bei allen Ryzen 9000 per Bios Update nachgereicht werden. Ich vermute Gigabyte schaltet es schlich als erstes frei, weil es AMD irgendwie mit der NDA oder ähnlichem versaut hat.
fondness
2024-10-19, 12:37:05
Das Gerücht mit dem AMD OC Feature hält sich hartnäckig. Es soll bei allen Ryzen 9000 per Bios Update nachgereicht werden. Ich vermute Gigabyte schaltet es schlich als erstes frei, weil es AMD irgendwie mit der NDA oder ähnlichem versaut hat.
Das ist kein Gerücht wenn es gigabyte per Presseaussendung mitteil. Die Frage ist nur was das sein soll. Vermutlich großteils Marketing.
davidzo
2024-10-19, 13:31:13
Das ist kein Gerücht wenn es gigabyte per Presseaussendung mitteil. Die Frage ist nur was das sein soll. Vermutlich großteils Marketing.
Naja, die Frage ist immer mit welchem Zustand das verglichen wird.
Wenn man einfach nur RAM reinsteckt läuft mit DDR 5600. DDR5-7500 sind +35%. Dafür muss man aber erstmal so schnellen RAM bekommen, mit CUdimm sollte dies aber möglich sein und der i/o DIE unterstützt ja zumindest LPDDR-7500 so dass ein OC auf normalen DDR5-7500 oder mit CUdimm erstmal nicht so abwegig scheint. In Bandbreitentests kommen so +35% Durchsatz raus, ohne viel realworld-effekt natürlich.
Alternativ ist das ein timing-ding, da ist es auch relativ easy gegenüber einer schlechten default konfig + 35% in irg endeinem edgecase szenario zu bekommen. Man erinnere sich an den ersten Zen5 Microcode mit dem Zen5 in Latenzbenchmarks schlecht abschnitt, was AMD dann gefixt hat aber ohne eine Auswirkungen auf reallife benchmarks.
Also ich würde das getrost ignorieren, weil solche Auto-OC tools sowieso nicht für Enthusiasten interessant sind welche die Spielräume schon lange selber ausgelotet haben. Ich erwarte da nichts neues von MSI, nur dieselben lamen auto-OC profile, XMP/AMP, RAM-OC, Allcore Turbo lock, etc. alle mit fragwürdiger Stabilität und CPU-Lebendauer.
Zossel
2024-10-19, 14:07:25
Also ich würde das getrost ignorieren, weil solche Auto-OC tools sowieso nicht für Enthusiasten interessant sind welche die Spielräume schon lange selber ausgelotet haben. Ich erwarte da nichts neues von MSI, nur dieselben lamen auto-OC profile, XMP/AMP, RAM-OC, Allcore Turbo lock, etc. alle mit fragwürdiger Stabilität und CPU-Lebendauer.
Also ganz gewöhnliche Aufmerksamkeitsökonomie (https://www.google.com/search?q=Aufmerksamkeits%C3%B6konomie).
basix
2024-10-19, 15:18:44
Zwei Ideen meinerseits zu dem Gigabyte Zen 5 "Auto-OC" Thema:
- 1/2C Boost wird massiv gepusht, da Zen 5 noch Reserven im Silizium hat? z.B. 6.5 GHz peak
- Aggressives L3 Caching / Prefetching sowie intelligentere Wahl, was auf dem L3-Cache bleiben soll (was beim X3D mehr bringt, weil mehr Kapazität vorhanden ist?). Keine Ahnung, evtl. etwas wie HBCC auf Vega aber für den CPU L3-Cache
Das würde auch zur Antwort von 1usmus passen, dass nur Spiele mit wenigen Threads davon profitieren würden. Entweder taktet man Zen 5 an die Kotzgrenze und/oder erhöht die Datenlokalität auf einem CCD, was die effektive Speicherlatenz reduziert. Beides hilft bei der Gaming-Performance.
RAM-OC scheint mir nicht schlüssig zu sein, wenn die X3D CPUs von dem Feature mehr profitieren sollen (+35%) als die non-X3D Varianten (+20%).
Und noch was: Es gab ja Gerüchte von neuen Features bei den X3D CPUs. Evtl. macht Gigabyte hier einfach Gebrauch davon.
Zen 5 X3D wird ein spannender CPU-Release ;)
Nightspider
2024-10-19, 15:24:12
Bauer und Co hätten sicherlich schon herausgefunden wenn Zen5 noch Taktpotential gehabt hätte.
Linmoum
2024-10-19, 15:25:59
Üblicher Marketing-BS, von dem am Ende nichts als heiße Luft übrig bleiben wird. Wie immer.
basix
2024-10-19, 16:02:21
Bauer und Co hätten sicherlich schon herausgefunden wenn Zen5 noch Taktpotential gehabt hätte.
Vermutlich, ja. Bleibt also noch das Thema intelligentere Cache Ausnutztung.
iamthebear
2024-10-19, 18:07:13
Afaik ist das nur ein Scheduler Fix für Dual CCD Varianten und Spielen, die das falsche CCD nutzen.
Also selbes Theater wie beim 7950X3D
Der_Korken
2024-10-19, 19:18:13
Ich lach mich schlapp, wenn dieses magische Setting einfach den non-3D-Cache-CCD deaktiviert so wie bei den ersten Threadrippern der "Game Mode".
Freestaler
2024-10-20, 07:18:43
Gemäss Info soll aber auf der 9600 20% zulegen. Der hat aber nur ein CCD. Wie soll das dann gehen? Also ich denke, nur CCD bei 2 CCD stilllegen allein ist es nicht.
fondness
2024-10-20, 17:42:26
Base clock 4.7ghz und damit 300 MHz höher als beim 9700X. TDP mit sehr hohen 120W. Der 9800X3D geht wohl in die vollen.
https://videocardz.com/newz/amd-ryzen-7-9800x3d-leak-lists-4-7-ghz-base-clock-and-120w-tdp-confirmed-by-motherboard-maker
rentex
2024-10-20, 17:46:39
120W...irre.
dildo4u
2024-10-20, 17:52:46
Hat AMD Intel überschätz der Takt ist Absurd, das sollte sher gute Chips erfordern.
Linmoum
2024-10-20, 17:54:04
120W...irre.Inwiefern? Der 7800X3D hat auch schon 120W TDP.
Gipsel
2024-10-20, 17:55:35
Hat AMD Intel überschätz der Takt ist Absurd, das sollte sher gute Chips erfordern.
Nur für sehr hohe Boostclocks ist das so. 4,7GHz sollten quasi alle Dies erreichen können. Base clock ist quasi nur an das Powerlimit gekoppelt.
Die hohe TDP scheint aber zu implizieren, daß das Temperaturproblem mit dem VCache-Die deutlich kleiner wurde.
rentex
2024-10-20, 18:20:43
Inwiefern? Der 7800X3D hat auch schon 120W TDP.
Also praktisch kein Fortschritt im Verbrauch.
OgrEGT
2024-10-20, 18:24:36
Also praktisch kein Fortschritt im Verbrauch.
Wir müssen die Leistungsaufnahme unter realen Bedingungen abwarten...
ChaosTM
2024-10-20, 18:25:37
Mein 7800X3D lauft seit ein paart Wochen mit "nur" 65watt.
Gibt es einen Unterschied in Spielebechmarks* ? nope
dafür ist es deutlich leiser
add.: 720p CPU benchmarks kümmern mich nicht
*selbst bei den minimalen Bildraten gibt es keinen Unterschied
dildo4u
2024-10-20, 18:31:34
Also praktisch kein Fortschritt im Verbrauch.
Den meisten haben die Temperaturen gestört nicht ob das Ding 50 oder 100 Watt bei Cinebench nimmt.
Real nimmt das Ding dann 70 statt 50 Watt in Games.
Tesseract
2024-10-20, 18:32:57
spiele nutzen das power limit in der regel doch sowieso nicht aus. 120 TDP sind real... 105W limit? ich habe AMDs bescheuerte formel nicht im kopf.
das finde ich eigentlich nicht ungewöhnlich viel.
Der_Korken
2024-10-20, 18:58:44
spiele nutzen das power limit in der regel doch sowieso nicht aus. 120 TDP sind real... 105W limit? ich habe AMDs bescheuerte formel nicht im kopf.
das finde ich eigentlich nicht ungewöhnlich viel.
PPT = 1,35 * TDP
Also hätte der 9800X3D sogar 162W Limit, genauso wie die 3D-Modelle von Zen 4.
Nightspider
2024-10-20, 19:04:32
120W...irre.
Geht das wieder los....irre.
Also praktisch kein Fortschritt im Verbrauch.
Es gibt Fortschritt bei der Effizienz.
Wenn dir nur Verbrauch wichtig ist kannst du den 9800X3D ja 10-15% langsamer takten lassen und hast wieder den King beim Verbrauch.
spiele nutzen das power limit in der regel doch sowieso nicht aus. 120 TDP sind real... 105W limit? ich habe AMDs bescheuerte formel nicht im kopf.
das finde ich eigentlich nicht ungewöhnlich viel.
This!
fondness
2024-10-20, 19:14:45
PPT = 1,35 * TDP
Also hätte der 9800X3D sogar 162W Limit, genauso wie die 3D-Modelle von Zen 4.
170W. Aber wie schon erwähnt kommt es natürlich darauf an, was real verbraucht wird, was vermutlich deutlich unter der TDP liegt. Alles was man sagen kann ist, dass die CPU real nicht abgeriegelt wird sondern defacto voll ausgefahren wird.
fondness
2024-10-20, 19:29:35
9800X3D mit neuem stepping C0
https://x.com/9550pro/status/1848026123009130687?t=hYcquMsTUqLEb8YuaCb0Vw&s=19
Tesseract
2024-10-20, 19:41:52
PPT = 1,35 * TDP
Also hätte der 9800X3D sogar 162W Limit, genauso wie die 3D-Modelle von Zen 4.
stimmt, das war in die andere richtung. dann wird man das limit aber wohl auch in non-gaming all-core workloads kaum erreichen. das ist dann, wie schon gesagt wurde, ein de facto "unlimited"-limit.
Nightspider
2024-10-20, 20:15:59
9800X3D mit neuem stepping C0
https://x.com/9550pro/status/1848026123009130687?t=hYcquMsTUqLEb8YuaCb0Vw&s=19
Jepp, war schon letzte Seite im videocardz Link und wollte ich eigentlich auch noch erwähnen.
Könnte aber auch nur das Stepping für V-Cache Kompatibilität sein und ab Takt nichts ändern, so wie in der Vergangenheit auch schon.
reaperrr
2024-10-20, 21:02:35
Könnte aber auch nur das Stepping für V-Cache Kompatibilität sein und ab Takt nichts ändern, so wie in der Vergangenheit auch schon.
Naja, grundsätzlich würde ich an AMD's Stelle dafür nicht jedes Mal ein extra Stepping machen wollen, wenn es nicht unbedingt sein muss.
Da wird in B0 irgendwas noch nicht so gewesen sein, wie es sein sollte, und wenn man eh schon einen Respin macht, kann man vielleicht auch gleich einige andere Kleinigkeiten verbessern, die beim B0-Testen aufgefallen sind.
Dass sie darauf keine schnelleren non-X3D-SKUs rausbringen heißt nicht, dass C0 nicht vielleicht im Durchschnitt 50-100 MHz höher taktet, bloß merkt man das als Endanwender vielleicht nie, weil die besten Chips alle in die X3D-Chiplets gehen und 9600 & Co. nur die miesesten Rest abbekommen.
w0mbat
2024-10-20, 21:23:13
Wenn es ein neues Stepping gibt, wird das früher oder später in allen SKUs auftauchen. AMD wird nicht endlos zwei Steppings gleichzeitig produzieren. Sobald mal neue Masken braucht, gibt es einen Wechsel.
amdfanuwe
2024-10-21, 04:13:16
Neues Stepping heißt ja nicht, dass man alle Masken neu braucht.
BlacKi
2024-10-21, 08:35:04
170W. Aber wie schon erwähnt kommt es natürlich darauf an, was real verbraucht wird, was vermutlich deutlich unter der TDP liegt. Alles was man sagen kann ist, dass die CPU real nicht abgeriegelt wird sondern defacto voll ausgefahren wird.wenn man es kühlen kann. denn die x3ds haben im vergleich zu den normalen ein temperaturproblem und werden dort wohl auch je nach kühllösung massiv in den taktraten und damit in den resultaten schwanken.
ich befürchte ja, das die cpu dauerhaft im templimit sitzen wird. und ohne angepasste lüfterkurve damit auch laut sein wird.
Der_Korken
2024-10-21, 09:34:31
https://www.computerbase.de/news/prozessoren/amd-ryzen-7-9800x3d-4-7-bis-5-2-ghz-takt-und-120-watt-tdp-ab-rund-520-us-dollar.90035/
In den letzten 48 Stunden hat sich das Bild zum neuen Spiele-Prozessor nahezu komplettiert. Demnach wird der Basistakt bei 4,7 GHz liegen, der Turbo-Takt wurde erneut mit 5,2 GHz benannt. Diese Zahl tauchte zuvor bereits auf.
->
OK, das passt zu den Werten, die ich noch im Kopf hatte. Bisher habe ich nur eine V/f-Kurve von Zen 5 gesehen (Link zum Nachbarthread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13592505#post13592505)) und dort wären mit 1,2V max. 5,25Ghz drin beim 9700X. Der 9950X3D schafft vielleicht 200Mhz mehr, aber für das Masseprodukt 9800X3D würde ich eher 5,2Ghz Boost für realistisch halten. Das sind gerade mal 4% mehr als der 7800X3D bzw. 2 Prozentpunkte mehr als bei 9700X vs 7700X. Ich würde die Erwartungen lieber klein halten.
Bleibt wohl bei 1,2V max. und somit 5,2Ghz wie man aus der V/f-Kurve schon zu Release ableiten konnte.
Nightspider
2024-10-21, 09:51:54
5,2 Ghz wären bisschen schade und würden jetzt nicht die geleakten Benchmark Werte erklären.
fondness
2024-10-21, 10:25:53
5.2ghz war der all core turbo. Deshalb ist das Ding in Cinebench auch schneller wie ein 9700X. Single core turbo vermutlich 5.4ghz.
Sardaukar.nsn
2024-10-21, 10:46:18
X3D Turbo Mode wohl für alle Hersteller, nicht nur Gigabyte: https://x.com/9550pro/status/1848182325378736139?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1848182 325378736139%7Ctwgr%5E%7Ctwcon%5Es1_c10&ref_url=
Nightspider
2024-10-21, 10:56:24
Könnte bei den Dual CCD X3D CPUs vielleicht der gesamte L3 Cache des 2. CCDs als L4 Cache für das 1. CCD genutzt werden, ohne das die Kerne genutzt werden?
"Ladder Cache" ?
Wäre zwar deutlich langsamer als der L3 und relativ klein als L4 aber immer noch schneller als der RAM.
Wäre sogar besser umsetzbar wenn meine verrückte Idee umgesetzt und die CCDs gedreht und die "V-Cache Bar" über beide CCDs gehen würde.
Der_Korken
2024-10-21, 11:00:37
Könnte bei den Dual CCD X3D CPUs vielleicht der gesamte L3 Cache des 2. CCDs als L4 Cache für das 1. CCD genutzt werden, ohne das die Kerne genutzt werden?
"Ladder Cache" ?
Wäre zwar deutlich langsamer als der L3 und relativ klein als L4 aber immer noch schneller als der RAM.
Wäre sogar besser umsetzbar wenn meine verrückte Idee umgesetzt und die CCDs gedreht und die "V-Cache Bar" über beide CCDs gehen würde.
Letzteres wäre imho essentiell, denn ansonsten hätte man das schon seit Zen 1 haben können. Offensichtlich lohnt sich das in dieser Form aber nicht. Wenn man zwei CCDs auf einen Cache-Die baut, dann könnte man aber auch gleich einen 16er CCX daraus bauen. Dadurch wären die 12- und 16-Kerner auch tatsächlich attraktiver als die 8-Kerner, selbst wenn man nur selten mehr als 8 Kerne braucht.
robbitop
2024-10-21, 11:17:22
Aber die Inter CCX Latenzen geben das bis dato gar nicht her oder? Der Zugriff auf den anderen CCX kostet bis dato IIRC immer grob 80 ns. RAM Latency bei gutem RAM ist im 5x-6x ns Bereich.
In Zukunft (angeblich zu Zen 6) werden die CCDs und das IOD näher zusammenrücken und mit INFO-R zusammengelegt. Da könnten die Latenzen genug sinken für sowas.
Es wird mMn sowieso nur noch ein 16C CCD sein. Es gibt ja 8C, 16C und 32C CCDs, warum sollte man 2 CCD verbauen? Das ergibt keinen Sinn. Selbst wenn das 8+8 sind ist das immer noch besser als 2 CCDs. Ne es wird ziemlich wahrscheinlich ein IOD + 1 CCD geben, die per 2,5D-Stacking miteinander verbunden sind. Dadurch sinkt die Latenz enorm und man hat nur noch 1 CCX und X3D über alles. Das wird der große Fortschritt bei Zen6.
Das Ganze hat außerdem den Vorteil, dass das CCD wieder in die Mitte des Packages rutschen wird. Für Mobil hat man einfach 2 weitere IODs, damit fallen alle anderen APUs auch flach, was enorm Entwicklung einspart.
Nightspider
2024-10-21, 11:29:10
Weil das Zen5c CCD deutlich geringere Taktrate hat
Das wird aber sicherlich nur das 32c CCD betreffen. Bei 16C rechne ich mit 16 großen Kernen oder 8+8c.
Man muss ja bedenken, dass die 32c CCDs als 2,5D-Nachfolger für Turin Dense gedacht sind und die 16c CCDs für Turin voll. Die sind also auf keinen Fall nur c.
robbitop
2024-10-21, 11:42:55
Es wird mMn sowieso nur noch ein 16C CCD sein. Es gibt ja 8C, 16C und 32C CCDs, warum sollte man 2 CCD verbauen? Das ergibt keinen Sinn. Selbst wenn das 8+8 sind ist das immer noch besser als 2 CCDs. Ne es wird ziemlich wahrscheinlich ein IOD + 1 CCD geben, die per 2,5D-Stacking miteinander verbunden sind. Dadurch sinkt die Latenz enorm und man hat nur noch 1 CCX und X3D über alles. Das wird der große Fortschritt bei Zen6.
Das Ganze hat außerdem den Vorteil, dass das CCD wieder in die Mitte des Packages rutschen wird. Für Mobil hat man einfach 2 weitere IODs, damit fallen alle anderen APUs auch flach, was enorm Entwicklung einspart.
Meinst du mit 16er CCDs auch 16er CCX?
Ich sehe das noch nicht kommen. Warum:
(1) mit einem 16er CCD wird die SKU Gestaltung nach unten hin ggf etwas schwierig - geht low end dann bei 8C los?
(2) Wenn 16er CCX gemeint sind -> die Latenz steigt an und damit sinkt die Performance. Für die Hyperscaler, welche die 16er Zen5c CCX nehmen ist das kaum relevant. Für Spiele und Desktopanwendungen schon.
Ich würde vermuten, dass die Teilnehmeranzahl im CCX nicht so bald so stark steigt. Kann mich aber auch irren.
Ggf. mischt man zukünftig ja auch im Desktop die c Cores mit den normalen Cores. Und ggf. hat man dann ein 16er (oder 12er) CCD mit 2x CCX. Ähnlich zu Strix. Mal schauen. Ich bin jedenfalls von 16er non C CCX noch nicht so überzeugt.
Nightspider
2024-10-21, 12:25:20
Redet Hot jetzt von Zen6 ?
Ich dachte hier gings gerade um Zen5 +V-Cache.
War schon Zen6 gemeint.
Irgendwann muss es einen Fortschritt geben, einen echten Fortschritt und das ist nunmal ein 16c CCX. Wir sehen den ja jetzt schon anhand der c-Variante von Turin. Damit würde ich beim 16C CCX/D von Zen6 auch rechnen. Dann gibts hal ne neue Topologie, die etwas günstiger ist. MMn wird es für mobil ein 4+4c-CCX/CCD geben, was dann den Löwenanteil abdeckt und auch für mobil wäre ein 8+8c-CCX/D sinnvoll. Ich erinnere daran, dass bei Zen3 auch keiner damit gerechnet hat, dass man plötzlich 8C-CCX anbietet.
Man wird auch im Serverbereich noch schnelle Kerne benötigen, daher wird nur das große 32C-CCD mMn rein aus c-Kernen bestehen, die anderen beiden aber nicht.
Außerdem würde ich damit rechnen, dass das kleine 8C-CCD wieder nur abgespechte Kerne ohne AVX512 bekommen dürfte.
Der_Korken
2024-10-21, 12:40:30
Man wird mittelfristig vor allem den L3 vom Compute-Die runterbekommen wollen. Mit Zen 5 hat AMD zwar nochmal ordentlich Nicht-SRAM-Fläche wegoptimiert, aber in 3nm oder 2nm werden die übrig gebliebenen Zellen quasi gleich groß bleiben, während die Kerne drumherum schrumpfen. Wenn man den L3 komplett in einen eigenen Die auslagert und unter die Kerne stapelt, könnte man 16 Kerne z.B. auch als 4x4 Grid anordnen ohne dass die dann den Datenleitungen im Weg wären (die verlaufen ja alle im Cache-Die). Dadurch wäre die Grundfläche klein und kompakt und somit auch der L3-Cache "OK schnell" (im Vergleich zum 2x8 Layout, das sich aktuell ergeben würde).
Nightspider
2024-10-21, 12:43:54
Das wäre dann das erste echte 3D-Design, auf das wir schon lange warten.
Aber ob das schon mit Zen6 kommt oder erst mit Zen7?
War schon Zen6 gemeint.
Wäre dann vielleicht gut wenn du dazuschreibst von was du redest, weil es paar Sekunden davor noch um Zen5 ging. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.