PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Zen 5 (3/4 nm, 2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21

dildo4u
2024-07-30, 15:48:19
Ja denke es ist wie bei PS5 am Ende performt die nicht wirklich anders als RDNA2 Karten mit 10 Tflops.

Nightspider
2024-07-30, 16:18:40
AI ist leider einfach zu wichtig für die IHVs als checklist feature

Wäre ja für Gaming Devices irrelevant. :)


Valve hat mal gesagt, dass die Technologie für die sich ein Steam Deck 2 lohnen würde noch nicht verfügbar ist. Valve baut auf 15W als Maximum da das für die Akkulaufzeit und den Formfaktor sehr sehr gut passt. Und damit sich der Sprung auch lohnt, müsste es schon ordentlich Mehrleistung in diesem Envelope sein. Ich sage mal eine arbiträre Zahl: Faktor 2.

Die Aussagen stammen ja von 2023 und wir steuern gerade auf 2025 zu.

Die Zen Architektur ist jetzt 3 Generationen weiter als im SteamDeck und bietet viel mehr Perf/Watt.

RDNA4 ist bald fertig und wird hoffentlich auch deutlich besser dastehen als RDNA2.

N3E statt N6.

Und es klang ja auch danach als ob Valve tendenziell eine größere APU bestellen wird, weil sie überrascht waren, wie gut sich die teuren Varianten verkauft haben und die Leute scheinbar bereit sind auch etwas tiefer in die Tasche zu greifen.

Man sagte ja auch 2-3 Jahre, also 2025 oder 2026.

Gibt ja jetzt schon spiele die wegen der CPU ruckeln. Mit 8 Zen5 Compact Cores wäre man schon bei Faktor 2-3 Mehrleistung CPU seitig.

Mal sehen wann Sony die PS5 Pro bringt wenn sie erst im November kommt kann man verstehen warum Strix nur 3.5 hat ansonsten kein Plan was AMD macht.

$$$$$

AMD fokussiert sich auf HPC und CDNA3/4.

während Strix Point klar auf den High-End bis Premium-Notebookmarkt abzielt

Übertreib mal nicht.


Was die Leute gerne kaufen wollen, sieht man am krassen Start von Strix Point, sehr gute Verfügbarkeit und trotzdem sehr hohe Nachfrage.

Die letzten 1,5 Jahre waren auch entäuschend.

Phoenix hat ja schon derbe mit RDNA3 enttäuscht vor 1,5 Jahren.

aufkrawall
2024-07-30, 16:30:36
Phoenix hat ja schon derbe mit RDNA3 enttäuscht vor 1,5 Jahren.
Das Feature war halt, dass die CPU der GPU weniger Strom klaut. Insofern war es dann doch ein interessantes Produkt vs. den ganzen anderen Schlonz auf dem Markt.
Hast in CP77 unter Linux einen glatten Frame Time Graphen und mitunter immer noch mehr fps als mit Meteor Lake. Geht immer noch schlechter.

HOT
2024-07-30, 16:30:41
Nightspider
So ein Quatsch, Phoenix hat mit nicht-Verfügbarkeit enttäuscht. Wo hat denn RDNA3 von Phoenix enttäuscht? Das ist doch genau da rausgekommen wo es rauskommen sollte. Es gibt ja bis Strix Point keine bessere interne Grafik als bei Hawk Point. Manche legen aber auch absurde Maßstäbe an...

robbitop
2024-07-30, 16:42:04
Wäre ja für Gaming Devices irrelevant. :)

Zumindest für Standard APUs ist der Markt der Gaming Handhelds zu klein. Entsprechend wenn man sich bei Standard APUs bedienen will, muss man den Ballast mitschleppen. Bei Custom APUs sieht es natürlich anders aus.


Die Aussagen stammen ja von 2023 und wir steuern gerade auf 2025 zu.

Man darf nicht vergessen, dass Valve als Custom SoC Kunde tief mit AMD zusammenarbeitet und sicherlich Kenntnis über die Roadmaps von CPU und GPU IP Blöcken kennt und zwar relativ längerfristig. Entsprechend sollte es keinen Unterschied in der Aussage machen, da man sicherlich bis 2026 vorausschauen kann, was bis dahin an IP blocks verfügbar sein wird und auch welche Nodes.


Die Zen Architektur ist jetzt 3 Generationen weiter als im SteamDeck und bietet viel mehr Perf/Watt.
Die tun sich aber in besonders niedrigen TDPs alle etwas schwer. So groß ist der Fortschritt in einem engen TDP Limit eben nicht.


RDNA4 ist bald fertig und wird hoffentlich auch deutlich besser dastehen als RDNA2.

Mal sehen wie gut RDNA4 wird. RDNA3 war ja nun nodenormiert (was nicht ganz geht aber mit N33 vs n23 immerhin fast) nicht so der riesen Fortschritt.


N3E statt N6.
Das sollte was bringen. Der "custom chip" Vorsprung, den VG in niedrigen TDPs ist würde ja auch in einem neuen SoC einfließen mit neuerem Node und neueren IP Blocks. Das wird schon alles besser werden. Aber ich frage mich aktuell ob Valve nochmal custom machen wird oder dann einfach eine APU von der Stange nehmen wird (und man dann diesen Vorteil nicht hat).


Und es klang ja auch danach als ob Valve tendenziell eine größere APU bestellen wird, weil sie überrascht waren, wie gut sich die teuren Varianten verkauft haben und die Leute scheinbar bereit sind auch etwas tiefer in die Tasche zu greifen.

Man sagte ja auch 2-3 Jahre, also 2025 oder 2026.

Gibt ja jetzt schon spiele die wegen der CPU ruckeln. Mit 8 Zen5 Compact Cores wäre man schon bei Faktor 2-3 Mehrleistung CPU seitig.



Mag ja alles sein aber größere APUs brauchen auch mehr Strom und das wiederum kostet Batterielaufzeit und Bauraum. Valve hat sich (richtigerweise wie ich finde) auf die 15W eingeschossen. Und da geht eben so viel mehr aktuell nicht. Mal schauen was Strix da so herausholt. Aber auf den ersten Blick (im Notebookcheckreview) waren das IIRC auch nur 17% ggü dem Vorgänger. Und der ist IIRC in 15W ja noch sehr mit eingezogenen Beinen unterwegs, so dass er nicht so dramatisch schneller ist als Van Gogh. Die Geschwindigkeit kommt dann erst mit ein paar Watt mehr IIRC.

Nightspider
2024-07-30, 16:42:12
So ein Quatsch, Phoenix hat mit nicht-Verfügbarkeit enttäuscht. Wo hat denn RDNA3 von Phoenix enttäuscht?

Das Thema hatten wir im Forum schon oft genug.

Ist natürlich ein Streitthema aber auch wenn einige Phoenix nicht als Enttäuschung empfanden, so gab es auf der anderen Seite genug die von Phoenix enttäuscht waren.

robbitop
2024-07-30, 16:44:13
Nightspider
So ein Quatsch, Phoenix hat mit nicht-Verfügbarkeit enttäuscht. Wo hat denn RDNA3 von Phoenix enttäuscht? Das ist doch genau da rausgekommen wo es rauskommen sollte. Es gibt ja bis Strix Point keine bessere interne Grafik als bei Hawk Point. Manche legen aber auch absurde Maßstäbe an...
Naja der Sprung von Rembrandt auf Phoenix war für einen Fullnodeshrink letztes Jahr IIRC relativ klein. Insbesondere in kleinen TDPs. Und dieses Jahr war er auch nicht so riesig.
Bei N33 kann man auch halbwegs sehen, dass man aus Perf/W Sicht (fast) nodenormiert auch kaum besser geworden ist als RDNA2. So ein richtig guter Wurf war RDNA3 IMO nicht. Umso mehr Hoffnung und Potenzial für RDNA4. ^^

Badesalz
2024-07-30, 16:56:47
So sehe ich das zurzeit: Intel hat 50% mehr iGPU-Performance bei LL vs. MTL offiziell angegeben, allerdings wichtig bei LL TDPs von 17-30W - und genau dort bricht MTL aktuell weg.Sehr scharfsinnig :up: THX.

Und da war imho der Strix 2,6x (2,8x?) so schnell wie 155H. Weswegen ich auch nicht ganz verstehe warum robi meint, bei 15W passiert da nicht soviel.

Nightspider
So ein Quatsch, Phoenix hat mit nicht-Verfügbarkeit enttäuscht.Das hatte ja auch nicht wirklich einen techischen Hintergrund. Er hat deinen Beitrag nur als Vehicel genutzt, um 2x nacheinander zu schreiben wie enttäuschend Phoenix sein soll. Mehr nicht.

HOT
2024-07-30, 17:10:34
Naja der Sprung von Rembrandt auf Phoenix war für einen Fullnodeshrink letztes Jahr IIRC relativ klein. Insbesondere in kleinen TDPs. Und dieses Jahr war er auch nicht so riesig.
Bei N33 kann man auch halbwegs sehen, dass man aus Perf/W Sicht (fast) nodenormiert auch kaum besser geworden ist als RDNA2. So ein richtig guter Wurf war RDNA3 IMO nicht. Umso mehr Hoffnung und Potenzial für RDNA4. ^^

Da würd ich aber Rembrandt mit Hawk Point vergleichen. Mein Problem mit Phoenix und Strix Point ist, dass AMDs Planungen mit den APUs zu optimistisch war. MMn muss AMD ne 2. Revision immer einplanen bei APUs heute und kann nicht mehr davon ausgehen, dass die als Rev. A1 oder A2 auf den Markt kommen, da liegt das eigentliche Problem. Die Exekution ist in Stocken geraten, bei Phoenix, aber auch bei Strix. AMDs riesiges Glück war, dass Intel es noch schwerer hat.
Allerdings fällt das mit Medusa usw. ja eh weg, weil dann offenbar ja alle AMD-Produkte auf Chiplets basieren werden.

robbitop
2024-07-30, 17:19:55
Aha und welche Rev 2 bekommt Rembrandt dann? ;)
Und so viel besser ist Hawk jetzt auch nicht als Phoenix. RDNA2 war ggü RDNA1 ein echt guter Sprung. Genauso wie RDNA1 vs GCN. Aber RDNA3 war daran gemessen einfach meh.

HOT
2024-07-30, 17:44:15
Was hatr das mit Rembrandt zu tun?

robbitop
2024-07-30, 18:59:30
Was hatr das mit Rembrandt zu tun?
Ist der Referenzpunkt ggü Phoenix/Hawk Point weil der Vorgänger.
Ich habe Phoenix mit Rembrandt verglichen und du warfst ein, dass man mit Hawk vergleichen muss weil eine Art Rev 2. Entsprechend müsste Rembrandt nach der Logik "alles braucht eine Rev 2" auch eine Rev 2 bekommen.

HOT
2024-07-30, 19:02:47
Ich frag noch mal: Bezug? Ich seh keinen. Hawk Point ist das komplett fertige Produkt, Rembrandt war offensichtlich eh schon perfekt und rund. Phoenix hatte offensichtlich noch ein paar Probleme, die gefixt wurden.

Nightspider
2024-07-30, 19:07:48
Das du mit Hawk Point angekommen bist hat einfach nicht viel Sinn ergeben.

Wir schweifen immer mehr ab.

robbitop
2024-07-30, 19:10:10
Ich frag noch mal: Bezug? Ich seh keinen. Hawk Point ist das komplett fertige Produkt, Rembrandt war offensichtlich eh schon perfekt und rund. Phoenix hatte offensichtlich noch ein paar Probleme, die gefixt wurden.
Ohne Referenzpunkt kann man das wohl kaum wissen, wie perfekt Rembrandt oder Phoenix war. Ein refresh bringt immer ein wenig was. Insofern halte ich von deiner rev 2 Logik nicht all zu viel - und selbst wenn ist sie für den Endkunden auch ziemlich irrelevant.

Ich denke das ist hier jetzt zu OT. Entweder woanders oder EoD zu dem subtopic.

Badesalz
2024-07-30, 19:11:24
Ähm... Sorry in die Runde, weil grad nach einem Sinn gefragt wurde: Was von einer Diskussion über AMDs iGPUs ergibt Sinn in einem Thread über Zen5?

Wir haben mind. 2 paasende Threads dafür. Merkt nur keiner.

Altehardware
2024-07-31, 05:50:06
Das Hauptproblem bei apu ist die Anbindung zum Systemram und dessen Bandbreite
Letztere ist mit ddr5 gar nicht so schlecht bleibe die Anbindung von nur 128bit
Das lässt sich mit 256bit cam2 Modul lösen in dual channel also 512bit
Das wird der letzte Nagel bei den entry gpu und vermutlich letzte Nagel ab 2028 bei mid class gpu werden

Die frage ist kommt strix halo am desktop auf am5 oder nicht ich glaube nicht
Der Nachfolger am6 wird es werden mit dann 120cu 96-104cu aktiv an 256bit cam2 angebunden
ab a18 node sogar 512bit möglich 2028 auf am6+
Die apu dürften dann 120cu haben mit dann doppelte alu per cu (128)
die Taktraten werden spannend sicher ist das die a18 cpu cow werden und das Si unter dem Die sitzt mit dann n3 node

KarlKastor
2024-07-31, 06:44:34
Warum soll das eine Frage sein? Was will man mit so einer fetten GPU an einem 128 Bit Speicherinterface?
Der kommt ganz sicher nicht für AM5.
Und AM6 wird da wohl auch nichts ändern. Warum sollte man den Mainstreamsockel für 512 Bit auslegen? Völlig absurd.

Neurosphere
2024-07-31, 06:57:51
Ich würde mich freuen CAMM bei den neuen Boards zu sehen und mir auch holen. Nicht weil ich glaube das es so viel besser ist, aber einfach mal was neues und ich hoffe auf gute Kühlmöglichkeiten mit Wasser.

OgrEGT
2024-07-31, 07:01:39
https://videocardz.com/newz/alleged-amd-strix-halo-appears-in-the-very-first-benchmark-features-5-36-ghz-clock
Demnach hätte Strix Halo 32MB MALL$ und 256bit Speicherinterface...

Wuge
2024-07-31, 08:57:26
Ich würde mich freuen CAMM bei den neuen Boards zu sehen und mir auch holen. Nicht weil ich glaube das es so viel besser ist, aber einfach mal was neues und ich hoffe auf gute Kühlmöglichkeiten mit Wasser.

Naja aber 512 Bit in nem LGA sockel wird nicht passieren, wenn das technisch überhaupt sinnvoll ist. CAMM macht ja nur das DRAM Modul kompakter, nicht den Sockel und das Routing.

Wenn dann RAM für die GPU direkt aufs CPU package und nur für die CPU noch den System RAM nutzen.

robbitop
2024-07-31, 08:57:37
https://videocardz.com/newz/alleged-amd-strix-halo-appears-in-the-very-first-benchmark-features-5-36-ghz-clock
Demnach hätte Strix Halo 32MB MALL$ und 256bit Speicherinterface...

Das ist doch schon lange bekannt.

Nightspider
2024-07-31, 10:09:45
Also wenn ich bei Paint die Strix Point CUs über die CPU Kerne klatsche, dann kriege ich exakt (!) 40 CUs incl 32MB Cache unter.

Strix Point ist 225mm² groß.

Wenn Strix Halo also nur ein etwas größere NPU und etwas mehr IO Kram bekommt, könnten im gleichen Prozess schon um die 250mm² realistisch sein.

Mit den relativ günstigen, kleinen Zen5 Chiplets könnte Strix Halo ein Produkt mit tollem Preis/Leistungs-Verhältnis werden oder AMD zumindest gute Margen bescheren.

Sollte Strix Halo tatsächlich in N3E kommen, was ich noch immer etwas bezweifel, dann könnte der GPU-IO bei schätzungsweise um die 210-220mm² herauskommen.

MSABK
2024-07-31, 10:23:09
Strix Point ist bei Asus schon so teuer, wie teuer wird dann Strix Point Halo erst werden.

dildo4u
2024-07-31, 10:27:39
2000€ dafür muss es halt wie eine 4070 performen, wäre immer noch billiger als Razor Balde/ Asus G14/G16 mit OLED plus 4070.

Nightspider
2024-07-31, 10:31:34
1500 für 14" OLED und 1700 für 16" OLED Display, 24GB LPDDR5, Ryzen AI 9 HX 370 und 1TB SSD find ich jetzt nicht sooo teuer dafür, das die Geräte erst vor 2 Sekunden vorgestellt wurden und noch keine Konkurrenz im Preisvergleich auftaucht.

fondness
2024-07-31, 10:33:17
https://videocardz.com/newz/alleged-amd-strix-halo-appears-in-the-very-first-benchmark-features-5-36-ghz-clock
Demnach hätte Strix Halo 32MB MALL$ und 256bit Speicherinterface...

Was nach wie vor niemand auf dem Schirm hat ist, dass AMD auch ein Chiplet mit 16 Zen5c Cores in 3nm zur Verfügung hat. Würde 8xZen5+16xZen5c für nicht unwahrscheinlich halten.

dildo4u
2024-07-31, 10:35:12
Damit wäre die Single Core Performance viel zu gering Gameing wäre ein kompletter Reinfall.

fondness
2024-07-31, 10:37:23
Damit wäre die Single Core Performance viel zu gering Gameing wäre ein kompletter Reinfall.

Sinnerfassend lesen und so? :ugly:
Ein 8 Core Zen 5 Chiplet für Single-Threaded-Performance (da könnte man sogar noch 3D Cache drauf packen) und ein 16c Zen5c Chiplet für Perf/Watt. Strix hat 4x Zen 5 und 8x Zen5c, wäre also eine exakte Verdoppelung.

dildo4u
2024-07-31, 10:42:35
Wäre ein Komplett nutzloser Cinebench Beschleuniger.
Du fährst überall besser eine AI/RTX Fähige GPU zu nutzen auch was offline Rendering angeht.

fondness
2024-07-31, 10:57:06
Wäre ein Komplett nutzloser Cinebench Beschleuniger.
Du fährst überall besser eine AI/RTX Fähige GPU zu nutzen auch was offline Rendering angeht.

Damit wird man kaum schneller sein als mit 16 Zen 5 Cores, siehe Strix der mit den 4x Zen 5 und 8x Zen5c auch kaum schneller ist als Phoenix mit 8x Zen 4, die c-Cores takten deutlich niedriger und haben weniger L3. Aber man wird wesentlich energieeffizienter sein, noch dazu wo das Zen5c-Chiplet in 3nm ist.

mocad_tom
2024-07-31, 12:32:01
Habt ihr euch die Configs von Strix Point bei Geizhals angeschaut?

Warum gibt es da 4 Konfigs mit iGPU und 14 Konfigs mit nvidia?

https://geizhals.de/?cat=nb&xf=6751_31


Wird für AI dann die NPU verwendet, oder die dGPU?

Ich denke ein Spekulations-Thread für Unified-RAM-Monster würde Sinn machen und Diskussionen sollten dort hin ausgelagert werden.

Weil eine NPU mit unified RAM mit 32GB(zukünftig vllt 64GB) könnte eine 16GB 4080 komplett niederwalzen in bestimmten AI-Anwendungen.

Undertaker
2024-07-31, 15:07:15
Warum gibt es da 4 Konfigs mit iGPU und 14 Konfigs mit nvidia?


Ist das tatsächlich so überraschend? Absolut betrachtet ist die iGPU halt immer noch LowEnd und schon eine RTX 4050 >Faktor zwei schneller, ohne die Laufzeit im Officebetrieb zu verschlechtern. Kostet halt vielleicht 10% Aufpreis beim Gesamtgerät, aber das ist in Relation schon echt wenig. Bleibt vielleicht noch der Platzbedarf/Gewicht für den Chip plus Kühlung, aber auch das geht bei >13 Zoll eher im Rauschen unter.

dildo4u
2024-07-31, 15:19:23
US Preise bestätigt 9950X $599, 9900X $449, 9700X $359, 9600X $279

https://wccftech.com/amd-ryzen-9000-zen-5-desktop-cpu-prices-confirmed-9950x-599-9900x-449-9700x-359-9600x-279/


Habt ihr euch die Configs von Strix Point bei Geizhals angeschaut?

Warum gibt es da 4 Konfigs mit iGPU und 14 Konfigs mit nvidia?

https://geizhals.de/?cat=nb&xf=6751_31

Wird für AI dann die NPU verwendet, oder die dGPU?

Ich denke ein Spekulations-Thread für Unified-RAM-Monster würde Sinn machen und Diskussionen sollten dort hin ausgelagert werden.

Weil eine NPU mit unified RAM mit 32GB(zukünftig vllt 64GB) könnte eine 16GB 4080 komplett niederwalzen in bestimmten AI-Anwendungen.

Na ich würde sagen alle Windows Funktionen per NPU, Produktion wie Adobe per GPU.

Ich tippe drauf das wo man bisher GPU oder CPU auswählen kann die NPU dazu kommt.

AMD hatte paar Werte zum Speedup.
Wenn wir von Generierten Videos reden sollte das massiv Zeit sparen mit einer 4070.

https://wccftech.com/amd-talks-ai-capabilities-rdna-3-gpus-xdna-npu-radeon-rx-7900-xt-up-to-8x-faster-ryzen-7-8700g/

Leonidas
2024-07-31, 15:31:08
Ryzen 9000 SKU|3DC-Prognose|Realität
9950X|$579|$599
9900X|$439|$449
9700X|$349|$359
9600X|$269|$279

Prognose siehe hier:
https://www.3dcenter.org/news/news-des-2930-juni-2024

][immy
2024-07-31, 15:34:28
Ryzen 9000 SKU|3DC-Prognose|Realität
9950X|$579|$599
9900X|$439|$449
9700X|$349|$359
9600X|$269|$279

Prognose siehe hier:
https://www.3dcenter.org/news/news-des-2930-juni-2024
Da wird es noch interessant wo die x3d Modelle landen werden.
Ich schätze aktuell mal alles geht dann ein Tier hoch.

Der_Korken
2024-07-31, 15:52:49
360$ für den 9700X sieht für mich nach DOA aus. AMD will, dass die Leute sich die 2-CCD-Modelle holen, auch wenn sie für die Kerne keine Verwendung haben. Ich selber bin in gewisser Weise auch in die "Falle" getappt und habe mir für damals für einen vermeintlichen kleinen Aufpreis 12 statt 8 Kerne geholt, von denen ich bis heute nicht wirklich profitiert habe. Und sehr wahrscheinlich auch nicht mehr werde, bevor die CPU ersetzt wird.

Dino-Fossil
2024-07-31, 16:09:30
Wie nach jedem Launch pendeln sich die Straßenpreise schon auf das Niveau ein, dass der Markt hergibt. Wenn sie aktuell zu teuer sind, wartet man eben ein bisschen. Die 7000er waren auch "bald"(tm) weit unter dem ursprünglichen Listenpreis zu bekommen.

Immerhin sind sie schonmal etwas billiger, als die 7000er bei Launch, oder täusche ich mich?

DeadMeat
2024-07-31, 16:24:18
zwischen 20 und 100 dollar bei den großen günstiger,

gedi
2024-07-31, 21:38:17
Ist das tatsächlich so überraschend? Absolut betrachtet ist die iGPU halt immer noch LowEnd und schon eine RTX 4050 >Faktor zwei schneller, ohne die Laufzeit im Officebetrieb zu verschlechtern. Kostet halt vielleicht 10% Aufpreis beim Gesamtgerät, aber das ist in Relation schon echt wenig. Bleibt vielleicht noch der Platzbedarf/Gewicht für den Chip plus Kühlung, aber auch das geht bei >13 Zoll eher im Rauschen unter.

Eine 4050 Schlepptop wohl kaum. Das Asus-Notebook sollte eigentlich noch nicht einmal die halbe Wahrheit widerspiegeln. Problem hier, ist der Platz und die TDP.

Undertaker
2024-07-31, 22:33:15
Eine 4050 Schlepptop wohl kaum. Das Asus-Notebook sollte eigentlich noch nicht einmal die halbe Wahrheit widerspiegeln. Problem hier, ist der Platz und die TDP.

Was, den Faktor 2 bei der Leistung? Wenn ich den Faktor 2,5 bis 3 der 4050 ggü. einer 780M sehe, wird da auch best Case für die 890M nicht wirklich mehr als die halbe Leistung herausspringen. Ist auch die Frage, inwieweit die Leistung der 890M am obersten Ende des TDP-Spektrums tatsächlich von Interesse ist, da leidet dann wohl auch die Effizienz zu sehr.

latiose88
2024-08-01, 00:59:48
@dildo4u
zeit spart ne gpu beim umwandeln schon ein aber nur bis zu einer bestimmten Grenze dann ist Ende. Ich habe das Limit gesehen weil ich den Fehler gemacht hatte das eine rtx 3050 die doppelte Leistung beim umwandeln hat gegenüber der gtx 1650. Das ende bis nix mehr geht habe ich erreicht. War nicht die doppelte Leistung und am Ende ist gpu umwandeln auch zu 20 % von der CPU abhängig. Das muss man sich eben akzeptieren das es so ist.

bei zeit mag die gpu zwar gut sein aber wenn es darum geht kleinere Videos mit gewisser Qualität dann kann die gpu einpacken. cpu mag zwar immer langsamer als gpu sein, das macht aber nix.

dildo4u
2024-08-01, 06:08:48
Hängt das nicht damit zusammen wie potent die Videoengine ist?
Für KI Aufgaben nutzt man die ganze GPU.

Topaz AI skaliert nach oben.

https://www.pugetsystems.com/labs/articles/topaz-video-ai-5-1-consumer-gpu-performance-analysis

latiose88
2024-08-01, 06:40:47
Hängt das nicht damit zusammen wie potent die Videoengine ist?


Topaz AI skaliert nach oben.



ich schreibe von vidoeumwandeln.h264 und da bringt die ki garnix und die gpu auch nicht. Mag zwar sehr schnell sein aber das war es auch schon was die gpu an Vorteil hat. Ich setzte auch wenn gpu schneller ist weiterhin auf cpu umwandeln. Die Video Datei Größe ist halt um einiges kleiner als unter gpu. Daran kann ich nix machen weil so einstellbar wie bei cpu ist es halt leider nicht unter gpu.
wenn du damit kein Problem hast kannst du es ja weiter so nutzen aber ich eben nicht. Zen 5 ich komme.

HOT
2024-08-01, 07:08:04
Hängt das nicht damit zusammen wie potent die Videoengine ist?
Für KI Aufgaben nutzt man die ganze GPU.

Topaz AI skaliert nach oben.

https://www.pugetsystems.com/labs/articles/topaz-video-ai-5-1-consumer-gpu-performance-analysis

Fast alle Investitionen werden in Gaming und CPUs gemacht. Klar ist da viel Umsatz und wenig Gewinn, die beiden Sparten bezahlen die komplette Entwicklung...

Die Gaming-Sparte ist aus zwei Günden nicht mehr gut dabei:
- Die Radeon-Produktion wurde zusammengestrichen zugunsten der APUs
- PS5 verkauft sich vor der PS5 Pro nicht mehr gut und die XBox verkauft sich nicht, solange die ganzen Spiele nicht draußen sind

Undertaker
2024-08-01, 07:37:26
GPU-Produktion künstlich zusammengestrichen? Die gesamte Modellpalette ist ohne Einschränkungen lieferbar. Das Problem liegt auf der Absatzseite, die Produkte werden nicht gekauft.

Badesalz
2024-08-01, 07:38:06
bei zeit mag die gpu zwar gut sein aber wenn es darum geht kleinere Videos mit gewisser Qualität dann kann die gpu einpacken.
Nachdem mit Turing der nvenc immernoch nicht an CPU-encoding rankommt halte ich das Zeug nur noch für ein Streamer-Feature.

Entweder geht das prinzipiell nicht besser (wertiger) oder man möchte das einfach nicht, daß es nur 2x-3x schneller als eine CPU encodiert, mit mind. der gleichen Quali.
Jedes Jahr läuft irgendein Thread auf reddit, ob es möglich ist die Quali von GPU-encoding so zu machen, daß es an CPU-encoding rankommt und jedesmal endet es mit einem "nope".

latiose88
2024-08-01, 08:17:55
@badesalz

das liegt eben daran das der Umfang der Einstellung bei gpu sehr eingeschränkt ist. Würde es die selben einstellmoglichkeiten haben wie bei cpu dann würde die gpu nicht mehr so schnell sein und es würde die Vorteile verlieren die eine gpu so hätte. Am Ende würde also gpu und cpu gleich schnell sein.
naja mir egal, Zen 5 ist die Rettung.
Es gab aber mal nen hybrid Modus so sich gpu und cpu gegenseitig ergänzen aber der scheint wohl kein Standard zu sein. Dann hätte man die Vorteile von beiden. Weil die gpu dann die CPU unterstützen würde. Naja nen echten Vorteil gäbe es ja nicht weil die CPU am Ende ja eh es verkleinern muss.
von daher hätte die gpu nur sehr wenig zu tuen, kann man so sagen.
Darum gibt es ja auch keinen offiziellen hybrid Modus für alle CPUs und gpus und so.
Nun mir dann egal, dann bleibe ich eben auf der CPU.

Badesalz
2024-08-01, 08:27:28
edit:
Sorry. Das ist/war nur ein Plugin für Adobe CS.

Auch "nur" 4x schneller.... Kann mir aber nicht vorstellen, daß sie da miesere Quali machen als das Original (??) Prinzipiell würde es also schon gehen (?)
https://www.nvidia.com/de-de/drivers/IO-62559/

latiose88
2024-08-01, 08:52:05
@badesalz
meinte damit alle Einstellung wie bei cpu umwandeln und gleichzeitig auch die zuhilfe name der gpu zur höheren Geschwindigkeit. Das Videos klein bleiben wie bei cpu eben aber die geschwindigkeit wie bei gpu.
eben das beste aus beiden Welten.
im Moment kann man ja nur eingeschränkt wälen bei gpu und cpu. Mit allen vor und Nachteilen die eines der beiden eben so hat.
dass nutzt mir halt nix weil ich das Tool was da gepostet hast eben nicht benutze.

ich habe nur die Wahl zwischen h264 mp4 CPU umwandeln und nvmc h264 gpu umwandeln und kein hybrid aus beiden bei h264.
das geht ja nur bei Intels cpu mit onboard gpu.
aber das reicht mir eben nicht aus.
Das heißt nun wenn Zen 5 also am5 babe auf Zen 6 zu warten. Eben um das maximum an CPU Leistung zu bekommen.
irgendwann spielt es keine Rolle mehr weil cpu so weit aufgeholt hat das es auch keine Rolle mehr spielt.
denn 2 parallel kostet auch bei gpu an Leistung. So unbesiegbar ist also eine gpu nicht. Und ja das packt es schon sehr gut 2x h264 und so.

Badesalz
2024-08-01, 09:12:13
Ich interessierte mich kurz für die generellen/prinzipiellen Sachen dabei. Das war auf der einen Seite nicht dazu geeignet Tipps auszusprechen wie auf der anderen es stark ich-bezogen auszulegen...

Aber ok. GPU-Encoding bleibt halt schlecht. Kann man machen nix :) thx.

dildo4u
2024-08-01, 09:30:39
HEVC ist nicht Praktisch mit CPU da viel zu langsam seine Weisheiten beziehen sich vermutlich auf 264 und die alten Nvidia Encoder.

Hier gibt Werte zur Bildqualität diverser Codecs.

https://www.tomshardware.com/news/amd-intel-nvidia-video-encoding-performance-quality-tested

Badesalz
2024-08-01, 10:08:00
Werte, zu Bildqualität? DAS nenn ich mal Weisheiten ;)
(welche Geige ob 264 oder 265? Lässt sich jeweils für sich betrachten)

und die alten Nvidia Encoder.Da tat sich mit dem Turing ja einiges, wie erwähnt. Das ist aber mit CPU immernoch mieser.

fondness
2024-08-01, 10:37:51
Neue Gerüchte zu Strix Halo: https://videocardz.com/newz/amd-strix-halo-zen5-apu-leak-shows-307mm%25c2%25b2-die-with-rdna3-5-graphics-compared-to-rtx-4070-80w

Die Size angeblich 307mm², es soll drei TDP Stufen mit 55W, 85W und 120W geben. Auch 8533er LPDDR5X wird unterstützt.

AMD vergleicht Strix Halo laut Quelle mit einem Intel Laptop mit 4070 (und ist natürlich der Meinung zu gewinnen).

dildo4u
2024-08-01, 10:45:20
Bei 80 Watt für die GPU und mit Intel CPU.
Mit Zen 5 könnte man der 4070 vermutlich mehr Strom geben, die skalieren bis 100watt ganz gut.


Strix Halo Kühlung

https://i.ibb.co/B6VMDtp/Bildschirmfoto-vom-2024-08-01-10-54-44.png (https://ibb.co/t2Mrf4G)

https://videocardz.com/newz/asus-preparing-rog-z13-flow-2025-a-gaming-tablet-with-amd-110w-strix-halo-apu

fondness
2024-08-01, 11:01:00
Strix Halo Kühlung

https://i.ibb.co/B6VMDtp/Bildschirmfoto-vom-2024-08-01-10-54-44.png (https://ibb.co/t2Mrf4G)

https://videocardz.com/newz/asus-preparing-rog-z13-flow-2025-a-gaming-tablet-with-amd-110w-strix-halo-apu

LOL, ein 13" Tablet mit Strix Halo. Das wird natürlich möglich, weil man extrem viel Platz spart ohne dGPU, welche man in einen potenteren Kühler stecken kann.

basix
2024-08-01, 11:05:52
Neue Gerüchte zu Strix Halo: https://videocardz.com/newz/amd-strix-halo-zen5-apu-leak-shows-307mm%25c2%25b2-die-with-rdna3-5-graphics-compared-to-rtx-4070-80w

Die Size angeblich 307mm² [...]

Wenn ich die Die Size sehe und dazu ca. 100mm2 für den GPU Hotspot, dann ist das nie und nimmer N3E, sondern N4P.

Die Shader Arrays in Strix Point sind ~24mm2 gross und ~32mm2 inkl. SE Frontend. STX Halo hat 2x SE mit 20 anstatt 16 CU. Würde nach Adam Riese 76mm2 für STX Halo machen. Dazu noch das GPU Frontend inkl. L2$ mit ca. 15mm2 für STX Halo und 32MByte IF$ mit <20mm2 (IF$ wird aber sicher nicht sehr warm werden, also nicht innerhalb des Hotspots liegen). Die ca. 90mm2 für die GPU würde sehr gut mit dem gezeigten Hotspot übereinstimmen. In N3E müsste das viel kleiner sein.

--> Garantiert N4P für STX Halo IOD. N3E war mMn schon immer nicht naheliegend gewesen

fondness
2024-08-01, 11:09:14
Wenn ich die Die Size sehe und dazu ca. 100mm2 für den GPU Hotspot, dann ist das nie und nimmer N3E, sondern N4P.

Die Shader Arrays in Strix Point sind ~24mm2 gross und ~32mm2 inkl. SE Frontend. STX Halo hat 2x SE mit 20 anstatt 16 CU. Würde nach Adam Riese 76mm2 für STX Halo machen. Dazu noch das GPU Frontend inkl. L2$ mit ca. 15mm2 für STX Halo und 32MByte IF$ mit <20mm2 (IF$ wird aber sicher nicht sehr warm werden, also nicht innerhalb des Hotspots liegen).

--> Garantiert N4P für STX Halo IOD

Hat jemand was anderes erwartet? Lisa wurde ja sogar bei den letzten Quartalszahlen dazu befragt warum nicht 3nm und die Antwort war 3nm ist viel zu teuer und mache nur für high-margin-Produkte Sinn. Dazu zählt Strix Halo sicher nicht.

basix
2024-08-01, 11:09:48
Viele (z.B. in Anandtech Forum) gehen von N3E aus.

STX Halo könnte man allerdings als High Margin Produkt ansehen (für Consumer Verhältnisse). Sieht man sich Data Center Produkte an, dann ist aber wohl eher dort die hohe Marge zu verorten (Epyc Turin-D sowie Instinct)

dildo4u
2024-08-01, 11:12:24
Hätte das Ding dann nicht deutlich mehr CU?
Habe gerade geguckt eine 7600XT hat 32CU aber vermutlich deutlich mehr Takt da nicht TDP beschränkt, da erwarte ich nur das Level für Halo@80 Watt.

Badesalz
2024-08-01, 11:13:57
LOL, ein 13" Tablet mit Strix Halo.
Komplett Banane :freak:

basix
2024-08-01, 11:17:09
Hätte das Ding dann nicht deutlich mehr CU?
Habe gerade geguckt eine 7600XT hat 32CU aber vermutlich deutlich mehr Takt da nicht TDP beschränkt, da erwarte ich nur das Level für Halo@80 Watt.

Entweder mehr CU oder deutlich geringere Die Size. Aber wie gesagt: N3E Träumereien waren hier noch nie sinnvoll begründet.

Ca. 7600XT als Referenz-Performance zu nehmen ist wohl nicht grundverkehrt. Mehr CU, geringerer Takt, effizienterer Speicher, etwas effizientere GPU generell. Ob das bei 80W TDP allerdings schon klappt, wenn die CPU noch dabei ist? Wird evtl. knapp. Bei 115W sollte es aber schon reichen.

dildo4u
2024-08-01, 11:23:53
AMD setzt drauf das Nvidia erstmal keine Blackwell unter der 5080 hat?

MSABK
2024-08-01, 11:54:49
Sieht interessant aus. Anscheinend gibt es einen Markt für das Rog X13, sonst würde der nicht wieder kommen.

Wenn die non Asus-Geräte so bei 1600€ landen wäre das mega. Vermute aber eher 1800€+.

dildo4u
2024-08-01, 12:09:57
Vergleichst du die Preise immer mit anderen Geräten die OLED haben?

Asus ist hier das billigste bis auf das MSI Geräte mit einem Intel 13620h.


https://geizhals.de/?cat=nb&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=11295_03+05+17+-+RTX+4060%7E83_OLED

Nightspider
2024-08-01, 12:11:46
Warum so riesig?

Oder 307mm^2 erscheint mir zu groß.
Da sind doch nicht mal CPU Cores drin?

robbitop
2024-08-01, 12:14:17
Viele (z.B. in Anandtech Forum) gehen von N3E aus.

STX Halo könnte man allerdings als High Margin Produkt ansehen (für Consumer Verhältnisse). Sieht man sich Data Center Produkte an, dann ist aber wohl eher dort die hohe Marge zu verorten (Epyc Turin-D sowie Instinct)
Jo weil MLID immerwieder 3 nm sagt. :)
Aber ggf liegt der auch falsch - was für so ein Produkt, wie fondness sagt, auch Sinn macht.

Warum so riesig?

Oder 307mm^2 erscheint mir zu groß.
Da sind doch nicht mal CPU Cores drin?
Da ist ja noch der IOD Kram drin, der leider kaum mit modernen nodes shrinkt.

dildo4u
2024-08-01, 12:16:57
Warum so riesig?

Oder 307mm^2 erscheint mir zu groß.
Da sind doch nicht mal CPU Cores drin?
Steht doch da IOD eine normale GPU muss kein USB bereitstellen.

BavarianRealist
2024-08-01, 12:35:56
Bei 307mm² für den IOD frage ich mich, ob der überhaupt in N4 ist, oder nicht eher auf N6 basiert wie die neuen RDNA3/4 für PS5pro? Nur die NPU müsste man dann noch für N6 entwickeln, sofern diese nicht auch schon für den neuen PS5pro-SoC entwickelt worden ist.

Bei Strix-Halo, die eine TDP=120Watt hat, stelle ich mir die Frage, ob der Effizienz-Unterschied zwischen N6 und N4 hier so dramatisch wäre?

Vergleiche ich nämlich den PS5-SoC in N6 ("Oberon"), so hat der mit 40 CUs in RDNA2 gerade mal 260mm² und ohne die Zen2-CPU-Teil sogar nur 225mm², und das in N6! Navi33 mit 32 RDNA3-CUs hat nur 206mm² in N6.

Gehe ich vom Strix-Die mit 230mm² aus, dann frage ich mich, wieso der um 70mm² wachsen soll, wenn hier 12 zusätzliche WGPs rein kommen, die in etwa die Fläche der dortigen Zen5-CPU-Kerne haben dürften. Es käme etwas Fläche für den GPU-Cache und für die Controller zum Zen5-Die hinzu, was aber kaum 70mm² ausmachen dürfte.

Was jedoch möglich wäre, dass die GPU in Strix-Halo nicht die von Strix sondern schon die zukünfige für RDNA4 mit der gesteigerten RayTracing-Leistung ist und daher größer ausfällt.

fondness
2024-08-01, 12:52:38
Bei 307mm² für den IOD frage ich mich, ob der überhaupt in N4 ist, oder nicht eher auf N6 basiert wie die neuen RDNA3/4 für PS5pro? Nur die NPU müsste man dann noch für N6 entwickeln, sofern diese nicht auch schon für den neuen PS5pro-SoC entwickelt worden ist.

Bei Strix-Halo, die eine TDP=120Watt hat, stelle ich mir die Frage, ob der Effizienz-Unterschied zwischen N6 und N4 hier so dramatisch wäre?

Vergleiche ich nämlich den PS5-SoC in N6 ("Oberon"), so hat der mit 40 CUs in RDNA2 gerade mal 260mm² und ohne die Zen2-CPU-Teil sogar nur 225mm², und das in N6! Navi33 mit 32 RDNA3-CUs hat nur 206mm² in N6.

Gehe ich vom Strix-Die mit 230mm² aus, dann frage ich mich, wieso der um 70mm² wachsen soll, wenn hier 12 zusätzliche WGPs rein kommen, die in etwa die Fläche der dortigen Zen5-CPU-Kerne haben dürften. Es käme etwas Fläche für den GPU-Cache und für die Controller zum Zen5-Die hinzu, was aber kaum 70mm² ausmachen dürfte.

Was jedoch möglich wäre, dass die GPU in Strix-Halo nicht die von Strix sondern schon die zukünfige für RDNA4 mit der gesteigerten RayTracing-Leistung ist und daher größer ausfällt.

6nm kann man sicher ausschließen. Was man vs Strix nicht vergessen sollte ist auch das doppelt so breite 256 bit SI, was ordentlich Fläche kostet. Bzw dürfte generell die I/O Kapazitäten bei Strix halo größer ausfallen wie bei Strix. Das zusammen mit dem 32MB infinity Cache und den infinity links Richtung CPU kann schon die ~80mm2 kosten.

dildo4u
2024-08-01, 12:59:15
Bei 307mm² für den IOD frage ich mich, ob der überhaupt in N4 ist, oder nicht eher auf N6 basiert wie die neuen RDNA3/4 für PS5pro? Nur die NPU müsste man dann noch für N6 entwickeln, sofern diese nicht auch schon für den neuen PS5pro-SoC entwickelt worden ist.

Bei Strix-Halo, die eine TDP=120Watt hat, stelle ich mir die Frage, ob der Effizienz-Unterschied zwischen N6 und N4 hier so dramatisch wäre?

Vergleiche ich nämlich den PS5-SoC in N6 ("Oberon"), so hat der mit 40 CUs in RDNA2 gerade mal 260mm² und ohne die Zen2-CPU-Teil sogar nur 225mm², und das in N6! Navi33 mit 32 RDNA3-CUs hat nur 206mm² in N6.

Gehe ich vom Strix-Die mit 230mm² aus, dann frage ich mich, wieso der um 70mm² wachsen soll, wenn hier 12 zusätzliche WGPs rein kommen, die in etwa die Fläche der dortigen Zen5-CPU-Kerne haben dürften. Es käme etwas Fläche für den GPU-Cache und für die Controller zum Zen5-Die hinzu, was aber kaum 70mm² ausmachen dürfte.

Was jedoch möglich wäre, dass die GPU in Strix-Halo nicht die von Strix sondern schon die zukünfige für RDNA4 mit der gesteigerten RayTracing-Leistung ist und daher größer ausfällt.
Hast du in der Rechnung die NPU?Die Konsolen SOC haben noch keine NPU.

basix
2024-08-01, 13:12:14
Verglichen mit dem PS5 SoC hat man eine 50 TOPS NPU, 32MByte Infinity Cache, deutlich mehr IO & Multimedia (PCIe, Display, Media Engine), gerüchteweise einen 4C Low Power Zen 5c Cluster und die Die-to-Die Interconnects zu den zwei CCD. Das wird definitiv nicht in N6 reinpassen, auch wenn die Zen 2 Cores der PS5 fehlen ;) Doch für N3E ist es wieder zu gross und aufgrund abgspecktem Zen 5c, XDNA2 und RDNA 3.5 (beides in N4P auf Strix Point vorhanden) auch von IP-Sicht eher bei N4P zuzuordnen. Dazu der Energieffizientvorteil N4 vs. N6. Deswegen macht N4P bei allen Indizien mit Abstand am meisten Sinn.

N3E ist ein Luftschloss, welches aufgrund der Release-Verzögerung von STXH ins Gespräch kam.

dildo4u
2024-08-01, 13:14:04
Ich sehe keine Probleme mit der Größe die Dinger müssen nicht wie Konsolen für 500€ verkauft werden.
2000€ im schnitt ist Realistisch.

basix
2024-08-01, 13:16:34
Bei unserer Diskussion ging es nicht um die Kosten, sondern was insgesamt an IP drin ist und was technisch der sinnvollste Node wäre ;)

STX Halo wir definitiv nur in teureren Notebooks eingesetzt werden. 1500$ aufwärts.

Pirx
2024-08-01, 13:53:25
und vllt in Mini-PC-Chinaböllern

Lawmachine79
2024-08-01, 14:35:14
Keine Ahnung, ob das hier schon diskutiert wurde, aber Zen 5 hat einen gravierenden Nachteil, was RAM in Notebooks angeht. Dieser ist nämlich entweder nicht nachrüstbar, oder er ist sauteuer:

https://www.reddit.com/r/XMG_gg/comments/1efu67y/comment/lfo6jpl/

SO-Dimm ist nicht mehr.

Wie kann man eine so starke Plattform so versauen.

Exxtreme
2024-08-01, 14:39:34
Wie kann man eine so starke Plattform so versauen.

Das ist ein Kompromiss. Der Vorteil dieses RAMs ist wiederum, dass er viel schneller ist als SO-DIMM-RAM.

fondness
2024-08-01, 14:42:29
Keine Ahnung, ob das hier schon diskutiert wurde, aber Zen 5 hat einen gravierenden Nachteil, was RAM in Notebooks angeht. Dieser ist nämlich entweder nicht nachrüstbar, oder er ist sauteuer:

https://www.reddit.com/r/XMG_gg/comments/1efu67y/comment/lfo6jpl/

SO-Dimm ist nicht mehr.

Wie kann man eine so starke Plattform so versauen.

Werde ich nie verstehen was man damit in einem Notebook will. Wie viel RAM ich brauche weiß ich auch schon beim Kauf und SO DIMM RAM hat erhebliche Nachteile wie mehr Platz- und Stromverbrauch und viel weniger Bandbreite.

DeadMeat
2024-08-01, 15:05:13
Werde ich nie verstehen was man damit in einem Notebook will. Wie viel RAM ich brauche weiß ich auch schon beim Kauf und SO DIMM RAM hat erhebliche Nachteile wie mehr Platz- und Stromverbrauch und viel weniger Bandbreite.

Das Problem ist eher das viele Hersteller hohe Preise für RAM/HDD upgrades wollen und man das mit austauschbaren RAM einfach umgehen kann.

fondness
2024-08-01, 15:22:30
Das Problem ist eher das viele Hersteller hohe Preise für RAM/HDD upgrades wollen und man das mit austauschbaren RAM einfach umgehen kann.

Naja gut dann muss man eben bei Herstellern kaufen die das besser machen. Das ist aber kein technischer Grund für gesockelten RAM. Genauso wie man auf einem gesockelte CPU in Notebooks aus guten Gründen verzichtet.

MORPHiNE
2024-08-01, 15:49:46
Keine Ahnung, ob das hier schon diskutiert wurde, aber Zen 5 hat einen gravierenden Nachteil, was RAM in Notebooks angeht. Dieser ist nämlich entweder nicht nachrüstbar, oder er ist sauteuer

Lass CAMM mal ein bisschen im Markt ankommen, dann gleichen sich die Preise noch auch etwas an.

130€ vs. 190€ für 32GB SO-DIMM DDR5-6400 (https://www.mindfactory.de/product_info.php/32GB-Kingston-FURY-Impact-DDR5-6400-SO-DIMM-CL-38-Dual-Kit_1544101.html) vs. LPCAMM2 LPDDR5X-7500 (https://www.crucial.de/memory/ddr5/ct32g75c2lp5xg) zählt für mich noch als moderater High-End-Aufschlag :redface:
In der Gesamtrechnung für ein (High-)Endgerät eher vernachlässigbar.

Gipsel
2024-08-01, 16:20:44
Keine Ahnung, ob das hier schon diskutiert wurde, aber Zen 5 hat einen gravierenden Nachteil, was RAM in Notebooks angeht. Dieser ist nämlich entweder nicht nachrüstbar, oder er ist sauteuer:

https://www.reddit.com/r/XMG_gg/comments/1efu67y/comment/lfo6jpl/

SO-Dimm ist nicht mehr.Stimmt nur sehr wahrscheinlich nicht wirklich. Strix hat ein anderes BGA-Layout als noch Phoenix oder HawkPoint (allein schon weil sich die Anzahl der PCIe-Lanes geändert hat). Es stimmt also der Teil, daß man ein neues Board für Notebooks entwickeln muß und nicht einfach das alte recyclen kann. Aber das neue Board könnte natürlich auch SO-DIMM-Slots aufweisen.
AMD unterstützt mit Strix Point im FP8-Format explizit sowohl LPDDR5x als auch normalen DDR5 (bis DDR5-5600, der dann natürlich auch gesockelt ausgeführt sein kann). Kann ja sein, daß AMD empfiehlt LPDDR5X zu verbauen (um die Grafikleistung nicht zu sehr einzuschränken), aber offiziellen Support gibt es für Beides. Ich meine, die DDR5-Signale sind die selben, egal ob man den verlötet oder über einen SO-DIMM-Slot geht.
Mit Phoenix/HawkPoint gab es sowohl FP7r2 (für DDR5) als auch FP7 für LPDDR5X. Strix Point kommt in FP8, der beides kann. Der Satz hier: "AMD Ryzen 8040 series ("Hawk Point") in XMG EVO is based on AMD's FP7r2 platform, because this is currently the only platform that allows SO-DIMM memory." ist meiner Meinung nach schlicht nicht korrekt, weil FP8 neben LPDDR5X auch DDR5 kann (und nicht nur LPDDR5X wie noch FP7 und FP7r2 die DDR5-Variante war). Eventuell ist es einfach auch veraltete Information, weil es auch schon FP8-Versionen von Zen4-Notebook-CPUs gab, die alle mit LPDDR5X kamen. AMD nennt aber wie gesagt explizit auch DDR5-Support für FP8.

Aber eventuell ist die Wahrheit einfach, daß kaum noch ein Notebook-Hersteller im Jahre 2024 ein Notebook-Mainboard mit SO-DIMMS entwerfen will, da insbesondere in diesem Markt (im Gegensatz zu Desktop) das Ganze in absehbarer Zukunft durch CAMM2-Module abgelöst werden soll (die sind dünner). Die haben dann nämlich auch den Vorteil (durch die verbesserte Signalqualität), daß dort auch LPDDR5X auf wechselbaren Modulen verbaut werden können. Nur ist es im Moment dafür offenbar noch etwas zu früh, also wartet man ab (um kein Geld durch teure Entwicklungsarbeit für ein dead-end-Speicherformat [SO-DIMMs] zu verschwenden).
Und im Prinzip existieren bereits Notebooks mit wechselbarem CAMM2-LPDDR5X-Speicher (https://www.lenovo.com/de/de/p/laptops/thinkpad/thinkpadp/thinkpad-p1-gen-7-(16-inch-intel)/len101t0107#features). Ist nur im Moment noch etwas teuer (und die Speichermodule zum potentiellen Aufrüsten praktisch noch nicht erhältlich).

Lawmachine79
2024-08-01, 17:33:59
Stimmt nur sehr wahrscheinlich nicht wirklich. Strix hat ein anderes BGA-Layout als noch Phoenix oder HawkPoint (allein schon weil sich die Anzahl der PCIe-Lanes geändert hat). Es stimmt also der Teil, daß man ein neues Board für Notebooks entwickeln muß und nicht einfach das alte recyclen kann. Aber das neue Board könnte natürlich auch SO-DIMM-Slots aufweisen.
AMD unterstützt mit Strix Point im FP8-Format explizit sowohl LPDDR5x als auch normalen DDR5 (bis DDR5-5600, der dann natürlich auch gesockelt ausgeführt sein kann). Kann ja sein, daß AMD empfiehlt LPDDR5X zu verbauen (um die Grafikleistung nicht zu sehr einzuschränken), aber offiziellen Support gibt es für Beides. Ich meine, die DDR5-Signale sind die selben, egal ob man den verlötet oder über einen SO-DIMM-Slot geht.
Mit Phoenix/HawkPoint gab es sowohl FP7r2 (für DDR5) als auch FP7 für LPDDR5X. Strix Point kommt in FP8, der beides kann. Der Satz hier: "AMD Ryzen 8040 series ("Hawk Point") in XMG EVO is based on AMD's FP7r2 platform, because this is currently the only platform that allows SO-DIMM memory." ist meiner Meinung nach schlicht nicht korrekt, weil FP8 neben LPDDR5X auch DDR5 kann (und nicht nur LPDDR5X wie noch FP7 und FP7r2 die DDR5-Variante war). Eventuell ist es einfach auch veraltete Information, weil es auch schon FP8-Versionen von Zen4-Notebook-CPUs gab, die alle mit LPDDR5X kamen. AMD nennt aber wie gesagt explizit auch DDR5-Support für FP8.

Aber eventuell ist die Wahrheit einfach, daß kaum noch ein Notebook-Hersteller im Jahre 2024 ein Notebook-Mainboard mit SO-DIMMS entwerfen will, da insbesondere in diesem Markt (im Gegensatz zu Desktop) das Ganze in absehbarer Zukunft durch CAMM2-Module abgelöst werden soll (die sind dünner). Die haben dann nämlich auch den Vorteil (durch die verbesserte Signalqualität), daß dort auch LPDDR5X auf wechselbaren Modulen verbaut werden können. Nur ist es im Moment dafür offenbar noch etwas zu früh, also wartet man ab (um kein Geld durch teure Entwicklungsarbeit für ein dead-end-Speicherformat [SO-DIMMs] zu verschwenden).
Und im Prinzip existieren bereits Notebooks mit wechselbarem CAMM2-LPDDR5X-Speicher (https://www.lenovo.com/de/de/p/laptops/thinkpad/thinkpadp/thinkpad-p1-gen-7-(16-inch-intel)/len101t0107#features). Ist nur im Moment noch etwas teuer (und die Speichermodule zum potentiellen Aufrüsten praktisch noch nicht erhältlich).
Ok, wusste nicht, dass SO-Dimm so ein Problem ist. Habe in meinem XMG-Notebook 64GB DDR5-5600 und die laufen tadellos und auch die RAM-Benchmarks sind so, wie man es bei 5600er eben erwarten kann.

mczak
2024-08-01, 17:35:45
Im Prinzip bin ich ja auch ein Fan von gesockeltem Speicher. Aber der Bandbreitenunterschied ist halt schon erheblich - bei Phoenix wurde bei verlötetem Speicher meist noch lpddr5-6400 verbaut, jetzt sind es aber offenbar durchweg lpddr5x-7500, da ist der Unterschied bei der GPU-Performance dann schon signifikant. Und klar, dass die Notebooks mit verlötetem Speicher noch etwas dünner werden können ist für die Hersteller auch ein Argument.
Im Prinzip macht gesockelter Speicher (wenn es um ddr5 gegen lpddr5x geht) fast nur noch für Notebooks Sinn die eine dGPU verwenden, da ist der Bandbreitenunterschied egal (und auch das Argument mit der Grösse zählt da eher weniger).
Ein Problem hat man ansonsten eigentlich nur wenn man wirklich viel Speicher benötigt (also 64GB oder noch mehr) - könnte schwierig werden was Passendes mit vernünftigen Preisen zu finden, aber zumindest 32GB sollten ohne viel Aufpreis verfügbar sein so wie's im Moment aussieht.

Lawmachine79
2024-08-01, 17:39:49
Naja. Dann wird dieses Weihnachten kein guter Zeitpunkt für neue Notebooks. Warte dann auf 2025, Geforce 5, Strix Point und CAMM.

dildo4u
2024-08-01, 18:03:32
Zen5 kommt nicht nur als APU in Notebooks die Option den RAM zu wechseln sollte gegeben sein.
Und nur dort bekommst X3D.

https://www.computerbase.de/2023-11/amd-ryzen-mobile-mit-zen-5-roadmap-mit-fire-range-strix-halo-kraken-point-und-escher/

mczak
2024-08-01, 18:14:31
Zen5 kommt nicht nur als APU in Notebooks die Option den RAM zu wechseln sollte gegeben sein.
Und nur dort bekommst X3D.

Klar aber der ist nichts für wirklich mobile Geräte.

Lawmachine79
2024-08-01, 18:17:12
Klar aber der ist nichts für wirklich mobile Geräte.
Naja. Wo man 13x00HX und 14x00HX reinbekommt, bekommt man auch Fire Range rein.

Nightspider
2024-08-01, 19:27:42
Jo weil MLID immerwieder 3 nm sagt. :)
Aber ggf liegt der auch falsch - was für so ein Produkt, wie fondness sagt, auch Sinn macht.


Da ist ja noch der IOD Kram drin, der leider kaum mit modernen nodes shrinkt.
Steht doch da IOD eine normale GPU muss kein USB bereitstellen.

Ihr habt mich nicht verstanden.

Ich kriege im Strix Point Dieshot 40 CUs und 32MB Cache unter, ohne mehr Area zu benötigen, wenn ich die CPU Kerne weglasse.

Wenn Strix Halo also noch ein paar PCIe Lanes mehr bieten sollte und nur noch ein paar Verbindungen für 1-2 Chiplets braucht, dann sehe ich nicht woher da 36,4% (225mm² -> 307mm²) mehr Flächenbedarf herkommen soll.

fondness
2024-08-01, 19:30:34
Ihr habt mich nicht verstanden.

Ich kriege im Strix Point Dieshot 40 CUs und 32MB Cache unter, ohne mehr Area zu benötigen, wenn ich die CPU Kerne weglasse.

Wenn Strix Halo also noch ein paar PCIe Lanes mehr bieten sollte und nur noch ein paar Verbindungen für 1-2 Chiplets braucht, dann sehe ich nicht woher da 36,4% (225mm² -> 307mm²) mehr Flächenbedarf herkommen soll.

256bit SI *hust*

Nightspider
2024-08-01, 19:35:01
256bit SI *hust*

Machen zusätzliche 5% bzw. irgendwas um die 11mm² aus.

Bei 307mm² wäre N6 naheliegender als N3E.

307mm² ist viel zu groß imo für N4P und 40CUs ohne CPU Kerne.

robbitop
2024-08-01, 19:49:44
Der I/O Kram wird wahrscheinlich auch fetter sein. Der IOD von Zen 4 ist 125 mm2 groß.
Aber ja ich finde die 307 mm2 auch auffällig "fett".

Nightspider
2024-08-01, 19:59:37
Doppelt so viele PCIe Lanes kostet nochmal um die 5mm², zumindest beim PHY.
Bei zusätzlichem USB sind wir jetzt schon im 1-2mm² Bereich.

Die GMI3 /IFOP32 PHY Ports sind auch eher im 5mm² Bereich zusammen.

Da komm ich aber irgendwo bei ganz grob 20 zusätzlichen benötigen mm² raus ggü Strix Point.

Gut die NPU kriegt wächst vielleicht nochmal um 25% für die 70 TOPS, aber das sind dann auch nur nochmal ? 3mm² ? zusätzlich.

fondness
2024-08-01, 20:04:36
Die Verwaltungslogik wächst auch wenn man die CUs von 16 auf 40 skaliert. Da kommt schon was zusammen. Der Speicher Controller skaliert auch mit dem breiteren SI.

robbitop
2024-08-01, 20:05:23
Ggf ist der "Leak" auch von Videocardz falsch - Anfang Juli "flog" noch das hier herum (siehe Attachment) in Chiphell.

200 mm2 GCD und N4P. Das passt irgendwie eher oder?

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Strix-Halo-Mega-APU-im-FP11-Package-1451293/

reaperrr
2024-08-01, 20:11:53
Der I/O Kram wird wahrscheinlich auch fetter sein. Der IOD von Zen 4 ist 125 mm2 groß.
Aber ja ich finde die 307 mm2 auch auffällig "fett".
Findet ihr?

Statt vom Zen4-IOD hochzurechnen, würde ich eher von Strix Point die CPU-Kerne rausrechnen, und dann

+ Größe der GPU ca. um 70-80% rauf (alles außer CommandProcessor und dem HSW/ACE-Block verdoppelt, WGPs mehr als verdoppelt)
+ 32 MB IF$ (ca. 20mm²)
+ 128 bit breiteres SI + 1 zusätzlicher MemController (zusammen ca. 20-25mm², nicht nur 11!)
+ 2x IF-Interfaces für Anbindung der CCDs (zusammen ca. 20mm²)
+ Evtl. 4 zusätzliche PCIe-Lanes für mehr M.2-SSDs und/oder USB4-Anschlüsse

Also wenn die GPU-Vergrößerung die wegfallenden Zen5-Kerne ca. ausgleicht und dann noch der IF-Cache für die GPU, die 2 IF-Links für die CCDs und das zusätzliche SI inkl. zusätzlichem MemController oben drauf kommen, sind wir definitiv schon nah an 300mm² in N4P.

Wenn das Gerücht von den 4 kleinen Zen5LP-Kernen im IOD dann noch stimmen sollte, seh ich das in N4P erst recht hinkommen.

Nightspider
2024-08-01, 20:14:55
Wenn das Gerücht von den 4 kleinen Zen5LP-Kernen im IOD dann noch stimmen sollte, seh ich das in N4P erst recht hinkommen.

Stammt das aus halbwegs seriösen Quellen oder hat das nur mal einer in einem Forum vermutet?

fondness
2024-08-01, 20:15:35
Ggf ist der "Leak" auch von Videocardz falsch - Anfang Juli "flog" noch das hier herum (siehe Attachment) in Chiphell.

200 mm2 GCD und N4P. Das passt irgendwie eher oder?

https://www.pcgameshardware.de/CPU-CPU-154106/News/AMD-Strix-Halo-Mega-APU-im-FP11-Package-1451293/

Naja, selbst wenn man annimmt, dass man statt den CPU Kernen 40 CUs und 32MB Cache unterbringt(glaube ich nicht), wäre man noch immer bei den 225mm2 von Strix +~15mm2 für zwei infinity links, plus ~20mm2 für ein doppelt so breites SI plus MC plus vielleicht nochmal 15mm2 für mehr I/O (und vielleicht auch PCIe 5 statt 4). Also 275mm2 sollten schon nötig sein. Und vielleicht gibt es ja noch eine "secret source".

Nightspider
2024-08-01, 20:22:32
Ich hätte nichts dagegen, wenn die GPU noch ein paar PS5 Pro bzw. RDNA4 Features bekommen würde. :redface:

RDNA3.5 ist bisher ja mehr RDNA 3.1.

Träumen darf man ja...

robbitop
2024-08-01, 20:28:09
Wenn sich die APU gut verkauft, wird es bestimmt nicht die letzte sein... :)
Ist ja das erste Mal, dass AMD eine so große APU für den PC herausbringt. Mal schauen :)

MSABK
2024-08-01, 21:55:00
Wenn sich die APU gut verkauft, wird es bestimmt nicht die letzte sein... :)
Ist ja das erste Mal, dass AMD eine so große APU für den PC herausbringt. Mal schauen :)

Im Desktop tut sich Amd aktuell schwer mit den GPUs. Aktuell werden recht preiswerte RTX4060 Notebooks verkauft. Wird schwer für Amd da was vom Kuchen abzubekommen. Rtx4070 Performace für 2000€ ist da auch nicht so der Hit. Zumal dlss bei Nvidia als Argument kommt.

Pirx
2024-08-02, 06:32:18
leider ist RDNA 3.x etwas enttäuschend, könnte der Hemmschuh sein

MORPHiNE
2024-08-02, 07:56:58
256bit SI *hust*

Ah, stimmt. In dem Fall glaube ich auch nicht mehr an Builds mit CAMM2-Modulen. Man bräuchte ja 2 Stück davon für 256 Bit :/ (oder 4 SO-DIMMs)

Altehardware
2024-08-02, 08:24:36
weswegen glaubst das amd die mega apu mit 40cu auf fp8 bringt
Da dort dann cam2 mit 256bit angebunden werden ist das Bandbreiten problem weg das wird mit lpddr5x genutzt dürften 10gt/s sein
also
40*64*2,34*2,8=16,7tf
Da man aber Power limitiert ist in 65w 85w 120w gibt das grob 1,8ghz also 10,7tf
das entspricht genau einer rtx4060 desktop oder mobile rtx4070m
Bis zur laptop rtx4080m

Das wird den desktop markt erschüttern da mit vollen 120w davon etwa 90w gpu dann die 2,0ghz anliegen und die bandbreite nicht stark limitiert da 320gb/s

Folgende desktop dgpu werden eol
wenn das design am desktop in am6 ab 2027 kommt
60class und 70class
Das ab 2027 dann
rx x150 (n63)
rtx7060
rtx7070 unklar

da amd abseits der mobile version auf fp8 dann am6 das gleiche machen wird aber mit mehr alu da der node auf n2 gehen wird
alu part maximal 90mm²
Si part inklusive cpu 249mm²
rest +5%
=309mm² die planares mcm
Das wird alsbald von gestapelte mcm gewechselt dann sind es base 204mm darauf 90mm² alu cpu 40mm² und der Rest
gestapelte chips reduzieren den Takt wie viel ist unklar bei cpu dürfte das aber wegen der geringeren wärmedichte bei -10% sein bei gpu geht das bis -25% vs dem Monolithen in planar.

was uns bei der 60cu variante bis auf 2,8ghz bringt. bei nur 90w bringt bei 2,8ghz
Der Nachfolger wird a18 node das den verbrauch halbiert aber dann 120cu erlaubt
Sprich 2,8ghz bei 120cu mit maxed 90w grob perf der rtx4080

Da es sich aber um ein Baukasten handelt kann es auch sehr gut planar bleiben dann geht es richtig ab
120*64*2,34*3,7ghz = 66tf oder rtx4090 bei 90w +Si cpu grob dann 200w tdp

gestapelte chips bei cpu sind eher unwahrscheinlich da man alles für dgpu brauchen wird besonders wegen hpc ist cowos unersetzlich.

Also wird es planar daher sehe ich es als realistisch an das amd auf mobile und desktop führend wird.
mobile wird man bei grob 100w limitiert sein was die perf. auf level der rtx4080 begrenzt (120cu 2,6ghz)
Desktop dagegen rennt man davon der haken cam2 das erlaubt nur verlöteten ram
hoffentlich erweiterbar gut möglich das amd zusätzlich ddr6 cam module zulässt.
mainboard mit 256bit angebunden 32gb ram/vram und zusätzlich dann 32gb/64gb cam module
die Latenz steigt beim zweiten module von 20ns auf 80ns

das gute amd wird den sockel bis 2032 unterstützen und die igp steigt bis auf 240cu bei 140w 3,7ghz (250w tdp)
Perf auf 120tf ps6 level mal 2 2028.

das hat auch folgen bei den mainboards die werden teuer da min eine 16+4 vrm nötig wird
Der ram schon verlötet ist ab 16gb
Und ein cam module platz dazu
Es wird nur einen pcie x8 Anbindung geben an einen pcie5 x4 m2 und einmal chipsatz
pcie3 x16 sind am chipsatz angebunden also faktisch pcie5 x4 shared
jedes mainboard hat ein Wandler verbaut der aus pcie5 pcie3 macht,
Der sockel wird 2027 kommen das steht sicher und dieser Kompromiss wäre logisch kann auch pcie6 sein aber das ist unwahrscheinlich.

Und es wird definitiv nur eine Plattform geben für high end den hepc threadripper sockel str6
Die fangen an ab 16cores klassisches pc design mit 64 pcie5 lanes

Also ja nach dem so am5 wird es keine desktop mehr geben wie bisher da bleibt nur die Wahl high end oder apu mit am6

was intel dann hat ist völlig offen ich gehe von einen redesign der raptor lake cpu aus. portiert auf tsmc n2 node um dann 2029 mit eigener Fertigung auf intel 16a was zu bringen.

Das ist völlig offen sicher ist nur das amd entry dgpu und mid class ab 2028 aufgeben wird.

im übrigen ARM cpu sind stark anfällig für spekulative angriffe geworden somit kein Ausweg.

Badesalz
2024-08-02, 08:58:18
War das grad ein Smartphone? Chapeau :tongue:

Der Sinn von Entry und Anfgang Midrange verleirt sich ja auch dann, wenn die APU das gleiche kann. Wobei Midrange 2027 dürfte nicht Midrange 2024 sein. Also ein leicht anderes Maßstab, wenn denn.
die Palette stell ich mir grad nur bisschen spannend vor. Es gibt auch heute Leute die keinen besonderen Anspruch an 3D haben, aber doch gerne bisschen stärkere CPUs. Ob es da soviele APUs geben wird?

Der Idee, daß es nur Threadripper und APUs geben wird kann ich aber trotzdem nicht so wirklich folgen. Das ist bisher nicht das wie der Markt läuft. Aber ok. Ab wann nochmal kann so eine AMD APU sowas?
https://www.youtube.com/watch?v=4GhnDiuxJxw

edit:
Die Perf/Watt incrases für <3nm werden auf den Roadmaps aber auch irgendwie alle 7 Monate eher reduziert... ;)

latiose88
2024-08-02, 09:02:06
Was wie nur noch high-end und keine mittelklasse cpu mehr. Was dazu führen wird das der idle Stromverbrauch noch weiter steigen würde aber dafür ne höhere MC Leistung zur Folge hätte. Die Preise bei cpu und Mainbaord würden dann explodieren und die wo nicht viel Geld hätten würden schauen müssen wie sie sich einen neuen PC zusammen bekommen können. 8 Kerner würden laut deiner Theorie ganz weg fallen sowie auch 6 Kerner. Oder deckt man das dann mit APu dann ab?

für AMD würde es also besser sein weil die dann mehr geld machen würden.
die Vorteile die man mit aktuellen rzxen hätte wären dann für die Katz und würde es dann gegen die Wand fahren.
ich hoffe das wird nicht so eintreten sondern einfach nur so ein 24 oder 3w Kerner extra zu den üblichen Kern Anzahl und so geben.

Windi
2024-08-02, 10:16:41
Man braucht in Zukunft einfach Mainboards mit unterschiedlichen Powerklassen. 100W, 200W, 300W.
Der Arbeitsspeicher landet langfristig eh im Prozessor, so wie es Apple heute schon macht.

Entscheidend ist dann nur noch welchen Prozessor man kauft. Das Mainboard liefert nur noch den Strom und bietet weitere Anschlussmöglichkeiten.

Gortha
2024-08-02, 10:28:45
Der Arbeitsspeicher landet langfristig eh im Prozessor, so wie es Apple heute schon macht.

Halte ich für Unsinn, wird so nicht kommen.
Es sei denn du redest außschließlich vom mobilen Sektor.

Windi
2024-08-02, 10:35:49
Halte ich für Unsinn, wird so nicht kommen.
Es sei denn du redest außschließlich vom mobilen Sektor.
Ich rede vor allem von den APUs. Womit man den größten Teil des Massenmarktes abdecken kann.

Bei den größeren CPUs wird es sicherlich noch lange anders sein.

basix
2024-08-02, 12:33:27
On-Package DRAM hat seine Vorteile (Energieffizienz, Abmasse / Fläche) aber auch seine Nachteile (Sourcing, Konfigurierbarkeit / Skalierbarkeit, Kosten?). Da Apple hier sein eigenes Monopol ohne Konkurrenz hat, sind die Nachteile deutlich abgeschwächt. Bei Windows Geräten ist das etwas anders. Sowas wie Lunar Lake hat seinen Platz, sicher. Doch nicht alle Partner sehen das als Optimal-Lösung für alle Geräte.

Windi
2024-08-02, 14:58:18
Für AMD würde es sich halt lohnen. Momentan verkaufen sie nur CPUs und GPUs. Andere Hersteller können daran dann mit verdienen, in dem sie Mainboards, Hauptspeicher und Grafikkarten anbieten.

Bei einer APU mit On-Package DRAM könnte sich AMD dies größtenteils einverleiben und mehr Geld verdienen.
Natürlich muss man dann eine größere Auswahl liefern, aber das bekommen andere Hersteller auch hin, daß sehe ich nicht als großes Problem an.
Kostenmäßig sollte das auch hinkommen. Natürlich kostet On-Package DRAM etwas, aber dafür spart man auch an anderen Stellen. Momentan haben wir vieles doppelt: Stromversorgung auf dem Mainboard, der Grafikkarte und dem Hauptspeicher. Monitoranschlüsse auf der Grafikkarte und Mainboard. 16 PCIe Lanes, die die Kosten auf dem Mainboard erhöhen und die Chipgrößen von CPU und GPU erhöhen.

Für Nutzer, die mehr wollen, kann man dann die Threadripper Platform ausbauen und weiter nach unten abrunden.

latiose88
2024-08-02, 15:22:58
@windi das ist ne prima Vorschlag, damit hätte ich kein Problem. Ich selbst brauche nicht viele PCI Anschlüsse. Neben einer gpu und einer ssd villeicht noch ne hdd. ne zweite gpu brauche ich nicht und so viele Festplatten auf einmal auch nicht. höchstens sata Anschlüsse. Und wenn man es richtig macht dann geht ein 16 Kerner ohne Probleme wie immer drauf. Und wann man es ganz hart macht geht auch ein 24 Kerner für die Plattform. Also unmöglich ist da nix. Nur muss es halt AMD nur wollen, das hat alles.

Complicated
2024-08-02, 15:50:38
Selten so einen Blödsinn gelesen.

Orko
2024-08-02, 16:19:34
integrated RAM: Ich fände einen dualistisch Ansatz vorteilhaft*:

Die CPU trägt einen Basisanteil Arbeitsspeicher, aktuell z.B. 16GByte, Speicherkanal #1.
Dieser kann latenzärmer mit höheren Bandbreiten angebunden werden, und läuft energie-effizienter als aktuelle DIMMs.
Dieser spart weiterhin Pins bei CPU und Sockel, Leiterbahnen im Mainbord, DIMM-Steckplätze etc, und damit Kosten.

Zusätzlich kann über das Mainboard weiterer DIMM o.Ä. Arbeitsspeicher ausgerüstet werden, Speicherkanal #2.
Dieser weist dann eine vergleichsweise höhere Latenz, niedrigere Bandbreite, geringere Energie-Effizienz auf.
Er bietet aber Konfigurationsfreiheit und Aufrüstbarkeit.
Sehr billige / kleine Mainboards / Office-Kisten könnten auch darauf verzichten.

Die Crux dabei ist die Belegung durch das Betriebssystem:
Welche Anwendungen / Daten werden in welchem Arbeitsspeicherbereich gelegt, bzw wann werden diese verschoben? Wohl ähnlich komplex wie das Kern-Scheduling incl dem dazugehörigem Cache-Daten-Management.


*Edit:
Für low und mid-end CPUs und APUs.
Für high-end CPUs sind Kosten unkritischer, und die Kunden bevorzugen wahrscheinlich Flexibilität und die Option max-Konfigurationen zu fahren / Speicher-Setting-Optimierung / ...

Matrix316
2024-08-02, 16:59:41
@Orko: Genau das war meine Idee für einen Mac Pro mit Apple Silicon.

Der Amiga hatte das damals ja - so ähnlich zumindest. Da gab es das feste Chip Ram und das Fast Ram. Nur war, wie der Name schon sagte, der externe Speicher schneller als der fest verlötete. :D

https://de.wikipedia.org/wiki/Chip-RAM_und_Fast-RAM

Badesalz
2024-08-02, 19:33:41
Der Chip-RAM war ja auch eine Art, damaliges, UMA. Deswegen war FastRAM, auch FAST-RAM :wink:

Das (davor) funktioniert aber nicht Leute. Dem folgt nur noch beständiges Geheule, wenn es aus dem schnellen RAM in den langsamen verschoben wird. Das ist überhaupt keine Lösung. Orko hat auch direkt die "Crux" angeschnitten. NFW.

Zossel
2024-08-03, 08:07:16
Die CPU trägt einen Basisanteil Arbeitsspeicher, aktuell z.B. 16GByte, Speicherkanal #1.
Dieser kann latenzärmer mit höheren Bandbreiten angebunden werden, und läuft energie-effizienter als aktuelle DIMMs.
Kürzere Latenzen mit DRAM kannste knicken.

Die Crux dabei ist die Belegung durch das Betriebssystem:
Welche Anwendungen / Daten werden in welchem Arbeitsspeicherbereich gelegt, bzw wann werden diese verschoben? Wohl ähnlich komplex wie das Kern-Scheduling incl dem dazugehörigem Cache-Daten-Management.
Nun, es kommt ja gerade RAM per CXL raus, der allerdings bzgl. den Latenzen langsamer sein wird, wahrscheinlich wie PCIe bzw. wie eine andere NUMA-Node.
Mal schauen wie man sowas bzgl. der Anwendungen handhaben wird.

basix
2024-08-03, 10:02:04
Eine weitere Unschönheite wäre potentiell asymmetrische Bestückung der Channels, also z.B. 16GB beim ersten und 32GB beim zweiten. Nicht, dass das nicht geht, geht technisch gut. Doch je nach Applikation hat man dann nur noch halbierte Bandbreite (was zwar für die meisten Consumer-Apps keine Rolle spielt). Für iGPU müsste das Speichermanagement dann ziemlich aufpassen, die Gaming Daten für die GPU auf beide Channels aufzuteilen.

Vom Speed / Latenz her hätte ich keine Angst. Wird sich nicht viel nehmen ob on-package oder on-board, solange beides auf die gleiche Speichertechnologie setzt (DRAM).

Mit dem hybriden Ansatz hätte man zwar Effizienz wie auch Konfigurierbarkeit gewonnen, verliert aber wohl doppelt auf Kosten-Seite. Man zahlt das teuerere CPU-Package und dazu noch VRMs, Steckplatz, PCB-Area usw. für externen DRAM.

Edit:
Für Apple lohnt sich Memory-on-Package zudem mehr, weil sie relativ breite Speicher-Interfaces haben. Die kann man auf dem Package leichter so breit anbinden.

Ich könnte mir das eher so vorstellen:
AMD macht einfach zwei Varianten von Strix Point. Einmal so wie jetzt und noch ein zweites Package mit on-package DRAM (z.B. für Microsoft Surface oder whatever). Technisch gesehen hindert sie niemand daran. STX ist afaik allerdings Design-Kompatibel mit Phoenix/Hawk Point. OEMs können hier also einfacher bestehende Designs wiederverwerten. Ein neues Package wäre dann auch ein neues Plattform-Design von Seiten OEMs.

basix
2024-08-03, 11:36:29
Zum Teil deutlich höhere FPS, wenn man den 8C Zen 5c Cluster bei STX deaktiviert: Ab 16:30 im Video
https://www.bilibili.com/video/BV1ZE421w7eb/

Im Video wird davon ausgegangen, dass dies an der hohen Core-to-Core Latency zwischen den zwei CCX Clustern liegt.
Da liegt also noch einiges Potential brach, welches man mit Zen 6 beheben kann ;)

Edit:
Unsere westlichen Reviewer könnten sich den Chinesen auf Bilibili ein gute Scheibe abschneiden. Die vergleichen verschiedene Applikationen mit verschiedenen TDP Settings und zeigen die Unterschiede auf. Sehr wertvolle Infos und da sieht man auch sehr gut, wie massiv STX gegenüber z.B. Meteor Lake wegzieht bei <=30W. Egal ob CPU oder GPU. Und dann noch die vielen Nebeninfos wie Core-to-Core Latency, Power Distribution CPU <-> GPU, Thermal Imaging usw. wo nicht viele YT Reviewer wie aber auch nicht viele unserer Tech-Seiten bieten.
z.B. hier https://www.bilibili.com/video/BV12H4y1c7z4/

Nightspider
2024-08-03, 12:07:45
Wahrscheinlich nur solange die Spiele gut mit 4 Kernen zurechtkommen.

basix
2024-08-03, 12:18:21
Das ist klar. Aber der Unterschied ist zum Teil schon enorm.

Ich vermute, dass der STX Nachfolger mit Zen 6 mit einem Unified CCX daher kommen wird. 12C, 4 davon "Big", 24 MB L3$. Das sollte einen enormen Boost geben (CCX <-> CCX Latenznachteil weg, 1.5x L3$, laut Gerüchten generell verbesserte DRAM-Latenzen bei Zen 6)

mczak
2024-08-03, 14:26:47
Core-To-Core Latenzen gab's bei anandtech auch. Hätte aber meines Erachtens durchaus etwas mehr Kommentar verdient - z.B. kein Wort dazu wieso auch Threads im selben Kern kaum schneller sind als Threads im selben CCX aber in verschiedenen Kernen, was ich schon etwas seltsam finde. Man hätte da durchaus auch Meteor Lake (selbst die lahmen LP-Kerne im Base-Die haben deutlich tiefere Latenz zu den anderen Kernen) wie auch Ryzen 7950X (mehr als doppelt so schnell - klar bei Strix ist das vielleicht energieoptimiert, aber immerhin on-die statt off-die) zum Vergleich heranziehen können.

Ich war sowieso skeptisch ob sich ein zusätzlicher CCX bloss wegen 4 zusätzlichen Kompaktkernen wirklich lohnt als das bei Strix bekannt wurde. Da muss man dann im Vergleich mit Kraken schauen was da die Auswirkungen bezüglich Effizienz und Performance wirklich sind, denn das kostet schon ordentlich Fläche. Spart aber wohl durchaus Energie gerade wenn eben die Last tief genug ist dass man den High-Performance CCX nicht braucht (was für die Laufzeit wichtiger ist als der Energieverbrauch bei Volllast).

fondness
2024-08-03, 14:30:42
Naja gut, das ist eben ein mobile-Chip. Das Hauptproblem ist, dass jeder neue Thread zuerst mal auf den c-Kernen läuft und nur falls er mehr Single-Thread-Leistung benötigt dann auf die big-Cores geswitched wird. Das kostet natürlich vs. es läuft gleich auf den großen Kernen. Aber klar, eine niedriger core-to-core Latenz würde natürlich helfen und ich bin auch kein Freund von diesen big-little-Dingern.

Badesalz
2024-08-03, 15:39:35
Wahrscheinlich nur solange die Spiele gut mit 4 Kernen zurechtkommen.Also weit darüber nachdem Strix EOL ist.

robbitop
2024-08-04, 19:31:58
Ich vermute, dass der STX Nachfolger mit Zen 6 mit einem Unified CCX daher kommen wird. 12C, 4 davon "Big", 24 MB L3$. Das sollte einen enormen Boost geben (CCX <-> CCX Latenznachteil weg, 1.5x L3$, laut Gerüchten generell verbesserte DRAM-Latenzen bei Zen 6)
AMD macht die CCX ja nicht ohne Grund nur 8C groß. Je größer die Latenz im CCX. CCX ist ein Kompromiss für Skalierbarkeiten von Kernen über mehrere CCX bei guter L3 Latenz.
Hier wird schon seit Jahren größere CCX herbeigewünscht - aber offenbar sind die Latenznachteile zu groß.

Wieso die Latenz zwischen den CCX so wichtig sein soll ist mir unklar. Das war auch bei bisherigen 2x CCX Konfigs (16C Desktop SKUs) nie ein echtes Problem. Immerhin hat der c-CCX 16 Threads die man erstmal vollmachen muss. Und die Frage ist wie viel Interdependenzen zwischen mehreren Threads wirklich vorhanden sind, so dass diese andauernd miteinander kommunizieren müssen.

Altehardware
2024-08-04, 19:55:06
Nix skaliert besser als Hoher Takt und das wird der Fokus werden für zen Architektur bis a16 node
Das wäre 2030 soweit.
n4 bringt aktuell reiner Energieersparnis 22% n3 +15% n2 +15% a18 +25% und dann sind es 9,0ghz
Das wäre ab 2028 soweit
Darum werden die ccx nie über 8 core gehen lediglich die server variante wird zen7c haben bis 16cores auf einen ccx

latiose88
2024-08-04, 23:20:26
ja geil bis auf 9 ghz,ja meiner Anwendung wird es danken,sofern ich nicht schon vorher am Ende bei der Steigerung bin.Irgendwann lässt sich halt eine Anwendung nicht mehr steigern.Sonst würde es ja eine Unendliche Steigerung geben und ist mir bei keiner Software bisher bekannt.

[MK2]Mythos
2024-08-05, 05:37:33
Wir haben in den letzten 20 Jahren gerade mal eine Taktsteigerung von 3 auf 5 GHz gesehen und nun soll AMD es plötzlich schaffen, in guten 5 Jahren die Architektur auf 9 GHz zu prügeln? Mit welchem Alien Prozess denn? Wie kommst du auf so eine Idee?

latiose88
2024-08-05, 05:58:08
Dann wird es wohl realistischer sein wenn es weitere 20 Jahre und dann auf 7 GHz. Wenn überhaupt. Oder AMD erhöht bis dahin doch noch mal die Anzahl der Kerne von 16 auf 24 oder 32 Kerner. Kommt ganz drauf an wie sich die ganze Sache in Zukunft so entwickeln wird. Das ist ja auch ne sehr lange Zeit. Bis dahin ist jede cpu zu Tode optimiert oder auch die Anwendung weil es ja mit jeder gen ne Durchschnitts Steigerung gibt auch wenn diese nicht so hoch sein mag aber es wird eine geben das ist sicher. Wie hoch kann man ja zuvor nicht wissen.

basix
2024-08-05, 11:41:13
AMD macht die CCX ja nicht ohne Grund nur 8C groß. Je größer die Latenz im CCX. CCX ist ein Kompromiss für Skalierbarkeiten von Kernen über mehrere CCX bei guter L3 Latenz.
Hier wird schon seit Jahren größere CCX herbeigewünscht - aber offenbar sind die Latenznachteile zu groß.
Bei Turin-D steigt man bereits auf 16C CCX um und bei Zen 6 soll es 8C, 16C und 32C CCX geben. AMD scheint das schon als Problem anzusehen ;)


Wieso die Latenz zwischen den CCX so wichtig sein soll ist mir unklar. Das war auch bei bisherigen 2x CCX Konfigs (16C Desktop SKUs) nie ein echtes Problem. Immerhin hat der c-CCX 16 Threads die man erstmal vollmachen muss. Und die Frage ist wie viel Interdependenzen zwischen mehreren Threads wirklich vorhanden sind, so dass diese andauernd miteinander kommunizieren müssen.
Das ist sozusagen ein neues Problem, weil die CCX <-> CCX Latenzen mehr als doppelt so hoch sind wie bei Zen 1(!) und verglichen mit neueren Zen Versionen sogar noch mehr. Dazu die nur 8MByte L3$ beim Zen 5c Cluster, welche ebenfalls weh tun werden bei Spielen. Evtl. ist auch noch die generelle Speicherlatenz zum DRAM von einer erhöhten Latenz betroffen und nicht nur Core-to-Core (finde aber keine Tests dazu).

mczak
2024-08-05, 12:28:38
Das ist sozusagen ein neues Problem, weil die CCX <-> CCX Latenzen mehr als doppelt so hoch sind wie bei Zen 1(!) und verglichen mit neueren Zen Versionen sogar noch mehr.
Naja also inwiefern das tatsächlich ein Problem ist ist noch nicht so klar. Aber ist halt schon augenfällig wie mies die Latenz da ist, optimal ist das sicher nicht. In spezifischen Tests wird sich das sicher sehr deutlich auswirken, aber für allgemeingültige Aussagen braucht es imho noch mehr Tests.

Evtl. ist auch noch die generelle Speicherlatenz zum DRAM von einer erhöhten Latenz betroffen und nicht nur Core-to-Core (finde aber keine Tests dazu).
Nein das hätte viel zu grosse Auswirkungen auf die Performance (jedenfalls wenn die Latenz erheblich grösser wäre) - von höherer Speicherlatenz wäre fast jede Anwendung betroffen, nicht nur Benchmarks die viel Kommunikation zwischen Threads benötigen.

So auf die Schnelle habe ich auch bloss ein Diagramm gefunden:
https://blog.hjc.im/zen5-preliminary-review.html
Keine Ahnung was da im Text steht aber die Speicher- und auch Cache Latenzen scheinen prinzipiell ziemlich unverändert gegenüber Zen4.

basix
2024-08-05, 13:34:08
In dem Test ist es leider nur in Cycles angegeben und mit logarithmischer Skalierung relativ schlecht aus dem Diagram auslesbar, ob es da wirklich schlechter aussieht. Vermutlich aber nicht so extrem wie bei der Core-to-Core Latenz.

Aber ja:
Umso mehr Tests wir haben, desto eher können wir die Ursache definieren.

Complicated
2024-08-05, 13:39:29
Die ganze Einordnung finde ich chaotisch. Da wird über 32C CCX gesprochen als wäre das eine Gaminglösung und benötige Latenzen die zum Spielen taugen. Blödsinniger Vergleich. Gaming braucht keine 16 Kerne und ständig wird der dabei benötigte Overhead kritisiert um 16 Kerne und mehr zu verbauen um dann max Singlethread raus zu holen für Games.
Da passt gar nix zusammen in der Diskussion und was man da so gerne hätte.
Und wer will bitte auf ZenXc Kernen zocken?

Gipsel
2024-08-05, 14:06:42
Und wer will bitte auf ZenXc Kernen zocken?Hmm, für einen potentiellen Nachfolger der CPU für das Steamdeck (4x Zen2 mit 2,4/3,5GHz Base/Boost und 8 RDNA2-CUs) wäre das vermutlich schon attraktiv. Ein Zen5c erreicht locker vergleichbare Taktraten, man könnte aber z.B. 6 oder gar 8 Zen5c-Kerne verbauen und läßt die Zen5-Kerne einfach komplett weg. Für Handhelds sollte das locker reichen. Man profitiert nicht nur von der Erhöhung der Kernanzahl (von 4 auf 6 oder 8) sondern auch von ~+50% IPC-Vorteil von Zen5 zu Zen2 (Basis ist der oben verlinkte Test als Mittel zwischen Spec CPU 2017 und Geekbench 5 und 6 zu Zen3 und die +16% zwischen Zen2 und Zen3). Mit vielleicht noch 16MB L3 (statt nur 8MB in dem Test) kann man vermutlich noch etwas niedrigere Taktraten fahren (oder man hat mehr Performance). Dazu 12-16 RDNA3.5 CUs mit einem moderaten Cache (16-32MB, bei 16CUs sind wohl 32MB vorzuziehen) und man hat eine Killer Handheld-CPU, die bei 10-15W Alles deklassiert. Und das wäre sogar noch kleiner (und billiger zu produzieren) als Strix Point. Das Einzige, was man gegenüber Strix aufgeben müßte, wäre SingleThread-Performance (-30%). Aber man wäre stromsparender und sogar schneller als StrixPoint in den typischen Anwendungsgebieten eines Handhelds (Spiele). Und es gibt keine Scheduling-Issues mit den 2 CCXs wie bei Strix. Will man keine Single-Thread-Performance verlieren, wählt man ein Setup wie bei Phoenix2: 2x Zen5 + 4x Zen5c in einem CCX mit gemeinsamen 16MB L3 (aber trotzdem auch noch 16-32MB Cache für die GPU mit 12-16 CUs). Kraken (4xZen5 + 4x Zen5c + 8CUs) hat dagegen vermutlich eine etwas zu kleine GPU (die auch nicht mehr Cache als die StrixPoint-GPU haben dürfte), um diese Performance zu erreichen. Und die 4 Zen5-Kerne sind vermutlich schon fast zu stark für Gaming auf einem Handheld (das Silizium investiert man besser in die GPU).

Altehardware
2024-08-05, 14:18:20
Wie man in 5jahren auf 9ghz komt das liegt am wechwseln von finfet auf gaa und gleichzeitiger direkte Stromversorgung also weniger leiterbahnen zu den cpu kernen was die Wärmedichte deutlich reduziert 50%
Daher sind 25% Takt drin neben der Tatsache das euv bis zu 30% oder 60% Energie einspart da kürzere leiterbahnen zu den heißen teilen. fpu und andere Beschleuniger.

Das kann man mit mehr kerne auffüllend auch die packdichte bis zu 90% kleiner wird.
Daher erwarte ich bei cpu auf ein Verzicht von n3 node shrink und vollen shrink bei a18 50%
preislich bleibt ein a18 node wafer bei grob 25000$ bis maximal 30000$
Den mehr kerne bringen bei cpu am desktop gar nix das was bringt mit a18 die igp auf 120cu zu erweitern
Und die cpu mit maximal 3 DIE auf einen interposer Sprich es ändert sich nix lediglich wird am desktop es nur noch apu geben
und ein threadripper lineup mit high dense cpu ab 16 kerne bis 192kerne
Diese werden die normale Taktraten bis 5,0ghz-6,0ghz haben
man muss bedenken das ein ccx mit 16kernen dann nur noch 25mm² misst
Aktuell 8 kerne mit 80mm²
Die normale kerne also nicht dense sind es dann 8 kerne mit 30mm² das wird dann mit 2 Die als hepc mit nen threadripper io Die mit x3d cache geben aber auf dem threadripper sockel trx6
Derzeit trx5
Highend wird teuer da min fürs mainboard 500€ anfallen dazu die cpu grob 400€ und ne high end dgpu ab 240cu a128alu per cu ab 48gb ab 1400€
ich spreche hier von 2029 wo amd rdna8 da ist mit doppelter alu per cu in a18 node

amd am6 specs vermutlich
350w tdp 16+4vrm
chipsatz an pcie5 x8 angebunden
Ein m2 slot pcie5 x4
keine pcie5 x16 nur x8 slots
256bit cam modul
12 pcie5
Speicher menge bis 96gb ein modul/ddr5 8000

zen 8
8 core cpu ohne x3d
9,0ghz
256bit Si
120cu a128alu
512mb inf cache
mcm planar

Bei threadripper dürfte dann pcie6 sein und die einzige option für nvidia rtx8080 und rtx8090 die es auch nur geben wird nvidia zieht sich aus entry und mid class gpu zurück.
Letzte 60 ist die rtx6060 2026 (sf3 node 2,8gbz)
Letzte 70 ist die rtx7070 2027 (sf2 node 2,8ghz massive Energieeinsparung -30%)

Wer meint das intel zurückkommt wird leider feststellen müssen das intel nix hat bis 2029 und eventuell die desktop cpu aufgeben wird bis man ne neue arch hat
Es wird core Ableger noch geben aber deutlich eher verramschen als wirklich konkurrieren.
Das lässt vermuten das amd ab zen6 die preise anziehen wird dem stimme ich zu
Die apu werden nicht billig das ist sicher rechnet mit entry bei 500€ bis 800€ das ist aber inklusive gpu
Ein markt darunter wird am5 sein. bzw intel so 1851 der diesmal was länger da sein wird als gedacht.
Wie das vermarktet wird ist offen ich gehe von Ai marketing aus wenn Microsoft ai Pc sich durchsetzen ist aber eher unwahrscheinlich.

basix
2024-08-05, 14:53:35
Die ganze Einordnung finde ich chaotisch. Da wird über 32C CCX gesprochen als wäre das eine Gaminglösung und benötige Latenzen die zum Spielen taugen. Blödsinniger Vergleich. Gaming braucht keine 16 Kerne und ständig wird der dabei benötigte Overhead kritisiert um 16 Kerne und mehr zu verbauen um dann max Singlethread raus zu holen für Games.
Da passt gar nix zusammen in der Diskussion und was man da so gerne hätte.
Und wer will bitte auf ZenXc Kernen zocken?

Du interpretierst da selbst recht viel rein ;) Hat niemand gesagt, dass das 32C (vermutlich Server only) CCD die selben Latenzen hat / haben muss wie das 8C CCD. Wobei die potentiell grössere L3-Menge wieder verschlechterte Latenz kompensieren könnte. Und auch nicht, dass man so viele Kerne fürs Gaming benötigen würde. Aber anscheinend sieht AMD einen Grund, bei Zen 6 die CCD grösser zu machen. Wenn 8C das Nonplus-Ultra wäre hinsichtlich Latenz und Skalierung, würden sie es vermutlich nicht machen. Nicht mehr, nicht weniger. Der Rest ist deine (nicht ganz korrekte) Intepretation des Gesagten. Wenn du zu meinem Ursprungspost (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13589978#post13589978) zurückgehst schreibe ich, dass der Typ im Video die Core-to-Core Latenzen als Ursache ausmacht. Was ich jetzt nicht unschlüssig finde. Meine Meinung. Und dann geht die Diskussion weiter à la "kann sein, kann noch andere Gründe geben" usw.

Bei STX scheinen die zusätzlichen Cores bei einigen Spielen jedenfalls nachträglich zu sein. Kann Boost-Takt, L3$ und CCX-to-CCX Latency sein. Oder eine Kombination von allem. Und wie schon angemerkt, werden weitere Tests hoffentlich Licht ins Dunkel bringen.

Noch zum letzten Punkt: Für Handhelds oder gar Konsolen sind die Zen Xc Kerne eigentlich ideal geeignet.

Gipsel
2024-08-05, 15:04:31
War bis gestern nicht noch der Weisheit letzter Schluß, daß Turin-Dense mit 12x 16Kern-Zen5c-CCDs kommt (und Turin mit 16x 8Kern-Zen5-CCDs)?
Ich meine, es gibt doch sogar schon Bilder!

https://images.anandtech.com/doci/21426/5th-Gen-AMD-EPYC_Delid_678x452.jpg
https://images.anandtech.com/doci/21426/AMD_Computex_2024_Keynote_49.jpg

Wer denkt sich denn jetzt völlig ohne Grundlage mit einem Mal 32C-CCDs aus?

fondness
2024-08-05, 15:07:48
Da können wieder 2 CCX pro Die verbaut sein.

HOT
2024-08-05, 15:12:31
Dann wären die nicht so länglich. Das ist mit Sicherheit ein CCD. VCache soll damit ja damit auch gehen.

mczak
2024-08-05, 15:13:48
Kraken (4xZen5 + 4x Zen5c + 8CUs) hat dagegen vermutlich eine etwas zu kleine GPU (die auch nicht mehr Cache als die StrixPoint-GPU haben dürfte), um diese Performance zu erreichen.
Ich fürchte sogar es könnte bloss die Hälfte an GPU-L2 sein, weil es eben kein Chip für Gaming-Handhelds ist, sondern für günstigere Notebooks (Rembrandt, Phoenix, Strix Point mit ihren 12 bzw 16 CUs haben 2MB, Phoenix2 mit 4 CUs 1MB). Der Chip wird sowieso recht gross werden, da würde mich das nicht erstaunen. Denn es ist mir nicht klar wie der am Ende wirklich kleiner werden soll als Phoenix, und dabei bloss marginal besser (insgesamt zwar Vorteile bei der CPU, aber wohl eher Nachteile bei der GPU, dafür kriegt man noch einen schönen Copilot+ Sticker dazu).

Gipsel
2024-08-05, 15:13:52
Da können wieder 2 CCX pro Die verbaut sein.Der Punkt ist: Es sind keinesfalls 32 Kerne. Das liegt (wenn überhaupt) deutlich in der Zukunft und hat mit Zen5 nichts zu tun.
Und es gibt andere Folien, die von 16 Kernen pro CCX bei Zen5(c) sprechen. So im Prinzip ist zwar Beides möglich: 16 Zen5c-Kerne in N3E pro CCD entweder als einzelnes CCX oder in 2 CCX pro CCD, aber die Wahrscheinlichkeit liegt eindeutlig bei 16Kern-Zen5c-CCXs bei N3E-Die im Moment.

HOT
2024-08-05, 15:16:13
So sah Bergami pro CCD aus:
https://images.anandtech.com/doci/18913/Bergamo-Xray.jpg

Gipsel
2024-08-05, 15:22:04
So sah Bergami pro CCD aus:
https://images.anandtech.com/doci/18913/Bergamo-Xray.jpgAller Wahrscheinlichkeit sehen wir mit Zen5c für Turin zwei Reihen zu je 8 Kernen mit einem gemeinsamen L3 in der Mitte (statt der zwei 8C-CCXs nebeneinander). Deswegen die langgestreckte Form des Die.

Complicated
2024-08-05, 15:23:51
...
Geschenkt und 100% Zustimmung.

Ich ging von den Desktopjüngern hier aus.
Da wird ein breites Produktportfolio genommen (wie du ja schön ausgeführt hast) und die jeweils schlechteste Takt/TDP/Latenz/Core aus den SKUs für Zen5 angenommen für eine vermutliche Spieleperformance.

latiose88
2024-08-05, 16:01:26
Ja x Kerne mögen Zar gut sein aber haben generell weniger cache und weniger allcore takt. Die Latenzen scheinen wohl auch schlecht zu sein. So waren es am Ende 12 Kerne wo obwohl sie mehr waren schlechter als ein 8 Kerner gewesen ohne die c Kerner. Ich will gewiss nicht weniger leistung haben. Und was bringen mir 32 c Kerner wenn ich diese Anzahl ja garnicht auslasten kann. Sondern nur 24 davon. Diese sind aber um einiges langsamer als die normalen 16 Kerner.

Die c Kerner werden so oder so durch weniger Platz so gebaut.
Wenn nun zu den 16 Kerner dann noch 8 x Kerne kommen würden, dann sähe das ja anderst aus. Nun ja ich sehe das schon. Meine Software jedoch reagiert allergisch auf solche Einschränkung, das ist klar.

Gipsel
2024-08-05, 16:07:07
Meine Software jedoch reagiert allergisch auf solche Einschränkung, das ist klar.Vielleicht solltest Du einen Thread im Software-Hilfe Subforum aufmachen. ;)

Complicated
2024-08-05, 18:00:55
Vielleicht solltest Du einen Thread im Software-Hilfe Subforum aufmachen. ;)
+1

KarlKastor
2024-08-05, 18:07:31
@latiose88
Du hast ein extremes Mitteilungsbedürfnis.
Aber irgwndwann musst auch du mal verstehen, dass es keine Sau interessiert was für deine Software so toll wäre und was du doch in 2, 3 oder 5 Jahren gerne kaufen würdest.
Du spamst damit jeden CPU Thread mindestens einmal pro Woche voll. Es weiß jetzt mittlerweile jeder. Mach irgendwo einen Thread auf wenn du über deine Software diskutieren willst. Hier will das kein Mensch lesen.
Ist jetzt vielleicht ziemlich direkt, aber die ganzen Winke mit Zaunpfählen von anderen bekommst du ja gar nicht mehr mit.

CrazyIvan
2024-08-05, 18:37:25
@KarlKastor
Die direkte Ansprache hatten wir auch bereits vor Monaten schon probiert, aber vielleicht hilft der "stete Tropfen" ja ;)

@Gipsel
Das 32c CCD wird für Zen6(c) spekuliert, wie basix ja auch schrieb. Und ja, möglicherweise macht es sich AMD da mit 2*16c CCX einfach, weil der typische Use Case wenig wert auf schnelle Kommunikation so vieler Kerne unter einander legt.

Generell hört man ja, dass ab Zen6 Server und Desktop keine gemeinsamen Dies mehr nutzen. Dann wäre das 8c CCD wohl für Desktop und Mobile, wobei Strix Halo als Testballon für den neuen Interconnect dient, 16c dann Zen6 Server und 32c Zen6c Server mit weiterhin IFoP als Interconnect.

Als das alles geplant wurde, war allerdings der gigantische Bedarf an Advanced Packaging für AI so noch nicht absehbar - gut möglich also, dass AMD bzgl. Desktop da auch wieder zurückrudert und wertvolle Kapazitäten nicht für Produkte im maximal mittleren dreistelligen Preisbereich vergeudet.

amdfanuwe
2024-08-05, 19:14:23
Generell hört man ja, dass ab Zen6 Server und Desktop keine gemeinsamen Dies mehr nutzen.
Kann ich mir nicht vorstellen.
Auch bei Server gibt es bedarf an wenigen Cores mit viel Cache. Z.B. AMD EPYC™ 9174F 16C 256MB Cache oder AMD EPYC™ 9184X 16 Core 768MB Cache. Da werden grad mal 2 Cores pro Chiplet verwendet.

Zudem hat AMD viele Möglichkeiten 8/16/32c Designs zu bauen. Wir wissen ja nicht, ob wie bisher nur L3 Cache gestacked wird oder ob sich AMD was neues einfallen lässt mit Cache in einem Base Die und darauf gestacked die Compute Cores.

basix
2024-08-05, 19:29:55
Wer denkt sich denn jetzt völlig ohne Grundlage mit einem Mal 32C-CCDs aus?

Für Zen 5? Niemand.

Für Zen 6? Die Gerüchteküche:
https://www.3dcenter.org/news/news-der-pfingstfeiertage-2024
https://www.techpowerup.com/322694/amd-zen-6-to-cram-up-to-32-cpu-cores-per-ccd

Es ging nur um den Punkt, dass AMD nicht bei 8C pro CCX bleibt, sondern zukünftig nach oben skaliert. Zen 5c als Servervariante macht mit 16C vermutlich den Anfang. Bei Zen 6 wird es laut Gerüchten auf bis zu 32C ausgedehnt. Anscheinend ist das für die Skalierung besser, als zig 8C CCX zusammenzuschalten. Ob das im Desktop mit >8C kommt steht in den Sternen. Würd mMn dem 16C Modell nicht wehtun, sondern wäre in vielen Fällen sogar vorteilhaft. Die allenfalls grössere L3-Latenz würde man mit 2x Cache-Kapazität (64MB bei 16C) locker wieder kompensieren. Führt AMD >8C nur mit Zen 6c aus, erübrigt sich die Diskussion dann sowieso.

Was hat das jetzt alles mit STX und Zen 5 zu tun? Erstmal nicht viel. Ausser dass eben dessen Nachfolger von 4+8 wegkommen und auf 12C umschwenken könnte. Und dass dies vermutlich Vorteile für die Performance hätte. Spendiert man neben dem 12C CCX noch einen separaten Low-Power Cluster (welcher laut Gerüchten bei STX Halo drin ist), ist auch das Thema Energieverbrauch bei einem vergrösserten CCX deutlich entspannter zu sehen.

Da wird ein breites Produktportfolio genommen (wie du ja schön ausgeführt hast) und die jeweils schlechteste Takt/TDP/Latenz/Core aus den SKUs für Zen5 angenommen für eine vermutliche Spieleperformance.
Wo liest du das jetzt wieder heraus? Es ging explizit um Strix Point - ganz und gar nicht um Zen 5 im allgemeinen - und die 2x CCX Aufteilung, welche anscheinend deutlich lahmer angebunden sind als bei jeglichem AMD Chip bisher. Egal ob Desktop oder APU. Der naheliegenste Verwandte ist in dieser Hinsicht Renoir, und dort ist die Cross-CCX Latenz nicht mal die Hälfte von STX: https://www.anandtech.com/show/15708/amds-mobile-revival-redefining-the-notebook-business-with-the-ryzen-9-4900hs-a-review/2

Und nun steht die Vermutung im Raum, dass die zum Teil abgeschwächte Spieleleistung von dem stammen könnte. Weitere Tests werden es hoffentlich bestätigen oder widerlegen. Unlogisch wäre es im ersten Schritt ja nicht, dass die grossen Latenzen nicht förderlich sind.

Das 32c CCD wird für Zen6(c) spekuliert, wie basix ja auch schrieb.
Danke, wenigstens einer liest meine Posts richtig durch ;)

Gipsel
2024-08-05, 19:45:48
Für Zen 5? Niemand.

Für Zen 6? Die Gerüchteküche:Vielleicht gehört das dann in den Zen6-Speku-Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=616374).
Und ganz allgemein: Bei den kompakten Kernen für irgendwelche Cloudanwendungen spielt die Inter-Kern-Kommunikation vielleicht nicht so die Rolle, so daß man da tendentiell größere CCXs bauen kann. Daß mit Zen5 der große Kern bei 8C im CCX bleibt, hat schon seinen Grund (und auch daß StrixPoint 2 CCX besitzt).

mczak
2024-08-05, 20:27:48
Die allenfalls grössere L3-Latenz würde man mit 2x Cache-Kapazität (64MB bei 16C) locker wieder kompensieren.
Wobei mit einem 16C CCX mit 64MB L3 die Latenz dann nicht nur grösser wird weil da mehr Teilnehmer am L3 hängen sondern auch noch weil der grösser ist.
Bei Zen 2 -> Zen 3 CCX sah das nicht so schlecht aus (4 Kerne mit 16MB hatten etwa 38 Zyklen Latenz, die 8 Kerne mit 32MB dann 46 Zyklen), allerdings war die Latenzzunahme schon nicht unerheblich. Ein Mittel um höhere L3-Latenzen abzufedern wäre natürlich ein grösserer L2 (wobei man da auch nicht unbedingt Latenz gegen Grösse eintauschen möchte). Ist aber alles sehr spekulativ...

CrazyIvan
2024-08-05, 20:43:45
Oder anders gesagt: There is no such thing as a free lunch ^^

amdfanuwe
2024-08-05, 21:22:45
Daß mit Zen5 der große Kern bei 8C im CCX bleibt, hat schon seinen Grund (und auch daß StrixPoint 2 CCX besitzt).
Alles zu seiner Zeit. Für 16C CCX macht Turin-D den Anfang. Für Strix Point war man noch nicht so weit, zudem musste Strix Point raus, keine unnötigen Experimente würde ich meinen.

latiose88
2024-08-06, 03:43:35
@crazyIvan
was ist denn mit stete Tropfen so gemeint?
Weil ich scheine das wohl nicht zu verstehen,was damit gemeint ist.

robbitop
2024-08-06, 10:07:07
Bei Turin-D steigt man bereits auf 16C CCX um und bei Zen 6 soll es 8C, 16C und 32C CCX geben. AMD scheint das schon als Problem anzusehen ;)
Wobei Latenz zwischen Cores für Hyperscaler wahrscheinlich eher sekundär ist. Die sind (soweit ich das verstanden habe) ja eher mit Anwendungen mit hoch parallelisierbaren und nicht oder kaum voneinander abhängigen Threads unterwegs.
Entsprechend würde ich von einem Hyperscaler Chip nicht auf die Zukunft von Desktop Chips schließen.

Und dass mehr Teilnehmer an einer Fabric zu mehr atenz führen ist eigentlich ein Axiom. Da kann auch AMD nichts dagegen tun. Allerhöchstens anderweitig die Nachteile kompensieren. Z.B. mit höherer lokaler Hitrate - was aber auch wieder mehr lokalen Cache bedeutet.

Auf mich (als Laien) wirkt die jetzige Konfiguration ziemlich ausbalanciert. Die Cachegrößen, die Intra CCX Latenz, die Cache Latenzen und auch das Ergebnis pro mm2 Core.

Wenn man die CCX noch weiter aufbläst - ab einem gewissen Punkt stellt sich die Frage: welchen Grund gibt es dann noch für das CCX? Dann kann man gleich auch alle anderen Teilnehmer in die Fabric mit reinnehmen, die sonst außerhalb war und landet dann dort wo Skylake-X war.


Das ist sozusagen ein neues Problem, weil die CCX <-> CCX Latenzen mehr als doppelt so hoch sind wie bei Zen 1(!) und verglichen mit neueren Zen Versionen sogar noch mehr. Dazu die nur 8MByte L3$ beim Zen 5c Cluster, welche ebenfalls weh tun werden bei Spielen. Evtl. ist auch noch die generelle Speicherlatenz zum DRAM von einer erhöhten Latenz betroffen und nicht nur Core-to-Core (finde aber keine Tests dazu).

Scheint aber erstmal ein Strix spezifisches Problem zu sein. Ob jetzt (aus welchen Gründen oder Kompromissen auch immer) gewollt oder ungewollt...wir werden es ggf. nie erfahren.

Oder anders gesagt: There is no such thing as a free lunch ^^
Besser kann man es IMO nicht sagen :)

Badesalz
2024-08-06, 11:18:57
Scheint aber erstmal ein Strix spezifisches Problem zu sein.Ehrlich gesagt, drauf gesch...
War gestern bei Cyberport hier. Wo der 365 stand. Nur am Akku. 24GB, 1TB, weiß. Profil "Standard".

Hab da also direkt dran rumgefummelt. Der Andreher der dazu kam, hat angeblich selbst einen. Hat auf das Ausstellungsstück auch schon das 308 Bios aufgespielt.

Tatsächlich so eine Art MacbookAir-Moment. Er meinte er kennt die meisten Tests, bei ihm kommt das aber schon nah an 14h ran. "13:xx". Für Nichtzocker in jeder Lebenslage am Laptop Leistung satt.

Die Laufzeiten wären damit auch in einem Bereich "wo man nicht mehr die Anzeige im Auge behält, sondern alle paar Tage mal drüberschaut, ob es denn heute nicht an die Steckdose könnte."

Ok er wie ich kennen auch den Air Gen2 gut. Da wird das LAden so nach 1 Woche relevant :tongue: aber das wie allgemein, mit x86 wäre es das erste Mal bisher "das Nutzungsgefühl wenigstens ganz grob damit vergleichen zu können".

Könnte ich soweit bestätigen. Auch beim Air merkt der stinknormale Nutzer nicht wie sauschnell es sein kann, sondern einfach nur, daß es in jeder seiner Lagen völlig ausreichend schnell ist.
Wie viele Leute von denen die sich nen Mac holen haben etwas mit Resolve am Hut? Eben.

OgrEGT
2024-08-07, 06:49:57
https://videocardz.com/newz/amd-ryzen-9000-official-pricing-is-finally-here-from-279-for-6-core-9600x-to-649-for-16-core-9950x
AMD Ryzen 9000 official pricing is finally here: from $279 for 6-core 9600X to $649 for 16-core 9950X

M4xw0lf
2024-08-07, 07:44:28
Kommen heute die Reviews für die single-ccd 9000er?

CrazyIvan
2024-08-07, 08:12:51
@crazyIvan
was ist denn mit stete Tropfen so gemeint?
Weil ich scheine das wohl nicht zu verstehen,was damit gemeint ist.
LMGTFY: Der stete Tropfen (https://letmegooglethat.com/?q=der+stete+Tropfen+)

latiose88
2024-08-07, 08:16:59
ah OK nun ja ich wiederhole mich in der tat. Zudem ist das leider echt das große Thema bei mir. Ja alleine nur auf das zu fokosieren ist nicht das was die richtige Leistung dann ist. Und dann kommen halt so sachen raus die bei der breiten Masse an Software eben nicht so ist.
wenn so einer wie ich nur eingeschränkte Anwendung hat, da ist nicht alles dann optimal. Damit muss man auch leben. So ist das nun mal im Leben.

MSABK
2024-08-07, 08:54:18
Kommen heute die Reviews für die single-ccd 9000er?

Laut Gerüchten ja.

dildo4u
2024-08-07, 09:04:08
Kaufe Zen4 da Review fertig, durch das Sommerloch sind die Preise ins Bodenlose gefallen.

ianm
2024-08-07, 10:40:30
Kommt drauf an, der 7800X3D ist im letzten Monat schon wieder 50 Euro teurer geworden.

dildo4u
2024-08-07, 10:43:07
Da er besser perfomt als das gleich teure Zen5 Modell logischerweise.
AMD hat deswegen 9700X nur direkt gegen 5800x3D gebencht.

Disco_STFU
2024-08-07, 12:14:00
Wann fällt eigentlich das NDA, heute oder morgen? :)

y33H@
2024-08-07, 13:02:51
T-2

Disco_STFU
2024-08-07, 13:08:11
Rumhibbel :popcorn::popcorn::popcorn:

M4xw0lf
2024-08-07, 13:20:15
Wie viel Zeit die Redaktionen jetzt wohl letztendlich hatten? Immerhin ist ja heute nur der halbe Launch und für tiefere Analysen ist eh Zeit bis zum Launch der R9-Modelle, wenn das Portfolio komplettiert wird.
Hab trotzdem schon Bock auf vollen Nerdmodus nachher :D

dildo4u
2024-08-07, 13:23:26
Es gab wegen der Verschiebung Vermutlich genug Zeit zum Test ab das Fazit hängt an den Preisen kann also sein das die Videos erst Heute fertig wurden.

M4xw0lf
2024-08-07, 13:34:45
Es gab wegen der Verschiebung Vermutlich genug Zeit zum Test ab das Fazit hängt an den Preisen kann also sein das die Videos erst Heute fertig wurden.
Zum originalen Datum hatte offenbar ja noch niemand irgendwas bekommen, also war es wohl kaum extra viel Zeit.

Altehardware
2024-08-07, 21:28:45
Effizienz top Singlecore perf top aber es kommt nicht an?
Das wäre mein Fazit zum zen5 launch
Die cpu sind massiv ppt limitiert aber in gaming kann mehr watt da nix reißen da muss was im argen sein.

Complicated
2024-08-08, 00:55:03
Was soll da im Argen sein? Normale Marktsegmentierung.

G3cko
2024-08-09, 07:40:43
Ich denke AMD hat sich der Kretik vom 7700x angenommen. Die CPU lässt aufgrund der niedrigeren TDP zwar etwas Leistung liegen, bleibt dafür deutlich kühler und ist effizienter. Das ist für Einsteiger CPUs im Portfolio deutlich wichtiger. Den hier wird man auch selten einen highend kühler verbauen.

Bei den X3D Modellen werden wir vermutlich eine umgekehrte Entwicklung sehen. Hier heißt es TDP rauf. Der Takt soll ja weniger eingeschränkt sein als beim Vorgänger. Alles im allem wird das Portfolio stimmiger.

Badesalz
2024-08-09, 08:11:31
Ich denke AMD hat sich der Kretik vom 7700x angenommen. Die CPU lässt aufgrund der niedrigeren TDP zwar etwas Leistung liegen, bleibt dafür deutlich kühler und ist effizienter. Das ist für Einsteiger CPUs im Portfolio deutlich wichtiger. Den hier wird man auch selten einen highend kühler verbauen.Ähh... Mit Einsteger meinst du eine aktuell 399€ CPU... Von Mindfactory bereits "über 5" mal verkauft...
7800X3D kostet da aktuell 349€.

Das wird alles wirklich schwierig werden...

Daredevil
2024-08-09, 12:20:43
Wenn AMD die Voltkeule drauf haut sind die Fans empört, dass die Kiste ineffizient läuft.
Wenn AMD die Effizienzkeule drauf haut sind die Fans empört, dass die Kiste unter ihrer Möglichkeit läuft. :D

Ich bin ehrlich gesagt ein Fan von zweiterem, ich habe lieber einen modernen und Sweet Spot Prozessor mit Möglichkeiten nach oben hin als Option ( Macht auch mehr Spaß! ), als wenn man einen unsinnig hochgezüchteten Prozessor erstmal drosseln muss.
Insofern ist der Wechsel und der Vergleich zwischen Lastgen Karacho und Nextgen Eco sicherlich erstmal schwer zu schlucken, weil er teilweise genau so schnell ist, am Ende ist letztiges im Kern aber das bessere Produkt. Daher bin ich froh, das AMD diesen Schritt gegangen ist.

Mehr Optionen nach oben zu haben weckt auch das Bastlerherz und das kann uns 3DC Ultras ja nicht quer kommen, oder? :)
Ist nur die Frage, ob Intel diese eigentlich sinnvolle Auslegung nun ausnutzt, indem sie wiederum die Spannungswandler zum glühen bekommen, die ihre Kisten 10% schneller sind.
Ich freue mich aber extrem auf nen X3D Prozessor, am liebsten wäre mir ne 6-8c Nudel. :love:
Enttäuscht bin ich sehr über den Idle verbraucht, der ist nach wie vor vollkommen unnötig hoch durch den Sparbrötchen Aufbau mit Chiplet und co. Ich persönlich würd auch nen 100er mehr zahlen, wenn der Idle verbrauch bei 5-10w liegt, aber das ist wohl noch ein Wunschtraum für den Desktop.

Lawmachine79
2024-08-09, 12:43:44
Wenn AMD die Voltkeule drauf haut sind die Fans empört, dass die Kiste ineffizient läuft.
Wenn AMD die Effizienzkeule drauf haut sind die Fans empört, dass die Kiste unter ihrer Möglichkeit läuft. :D

Ich bin ehrlich gesagt ein Fan von zweiterem, ich habe lieber einen modernen und Sweet Spot Prozessor mit Möglichkeiten nach oben hin als Option ( Macht auch mehr Spaß! ), als wenn man einen unsinnig hochgezüchteten Prozessor erstmal drosseln muss.
Insofern ist der Wechsel und der Vergleich zwischen Lastgen Karacho und Nextgen Eco sicherlich erstmal schwer zu schlucken, weil er teilweise genau so schnell ist, am Ende ist letztiges im Kern aber das bessere Produkt. Daher bin ich froh, das AMD diesen Schritt gegangen ist.

Mehr Optionen nach oben zu haben weckt auch das Bastlerherz und das kann uns 3DC Ultras ja nicht quer kommen, oder? :)
Ist nur die Frage, ob Intel diese eigentlich sinnvolle Auslegung nun ausnutzt, indem sie wiederum die Spannungswandler zum glühen bekommen, die ihre Kisten 10% schneller sind.
Ich freue mich aber extrem auf nen X3D Prozessor, am liebsten wäre mir ne 6-8c Nudel. :love:
Enttäuscht bin ich sehr über den Idle verbraucht, der ist nach wie vor vollkommen unnötig hoch durch den Sparbrötchen Aufbau mit Chiplet und co. Ich persönlich würd auch nen 100er mehr zahlen, wenn der Idle verbrauch bei 5-10w liegt, aber das ist wohl noch ein Wunschtraum für den Desktop.
Intel macht es halt richtig. Die Dinger sind zwar langsam - dafür verbrauchen sie aber auch viel Strom.

Denniss
2024-08-09, 14:05:57
Der 9700X hätte ein TDP zwischen den zu niedrigen 65W und den zu hohen 105W verdient, sowas in Richtung 80W

robbitop
2024-08-09, 14:09:05
Wenn AMD die Voltkeule drauf haut sind die Fans empört, dass die Kiste ineffizient läuft.
Wenn AMD die Effizienzkeule drauf haut sind die Fans empört, dass die Kiste unter ihrer Möglichkeit läuft. :D

Ich bin ehrlich gesagt ein Fan von zweiterem, ich habe lieber einen modernen und Sweet Spot Prozessor mit Möglichkeiten nach oben hin als Option ( Macht auch mehr Spaß! ), als wenn man einen unsinnig hochgezüchteten Prozessor erstmal drosseln muss.
Insofern ist der Wechsel und der Vergleich zwischen Lastgen Karacho und Nextgen Eco sicherlich erstmal schwer zu schlucken, weil er teilweise genau so schnell ist, am Ende ist letztiges im Kern aber das bessere Produkt. Daher bin ich froh, das AMD diesen Schritt gegangen ist.

Mehr Optionen nach oben zu haben weckt auch das Bastlerherz und das kann uns 3DC Ultras ja nicht quer kommen, oder? :)
Ist nur die Frage, ob Intel diese eigentlich sinnvolle Auslegung nun ausnutzt, indem sie wiederum die Spannungswandler zum glühen bekommen, die ihre Kisten 10% schneller sind.
Ich freue mich aber extrem auf nen X3D Prozessor, am liebsten wäre mir ne 6-8c Nudel. :love:
Enttäuscht bin ich sehr über den Idle verbraucht, der ist nach wie vor vollkommen unnötig hoch durch den Sparbrötchen Aufbau mit Chiplet und co. Ich persönlich würd auch nen 100er mehr zahlen, wenn der Idle verbrauch bei 5-10w liegt, aber das ist wohl noch ein Wunschtraum für den Desktop.

Alternativ hätte man einen 9800X bringen können, der dann all-out geht. Dann kann jeder selbst auswähen.

fondness
2024-08-09, 14:20:05
Naja, letztes mal gab es einen 7700X und einen 7700. Den ohne X hat niemand gekauft.

reaperrr
2024-08-09, 14:28:34
Alternativ hätte man einen 9800X bringen können, der dann all-out geht. Dann kann jeder selbst auswähen.
Der Gedanke kam mir auch schon.

Was dagegen spricht, ist, dass AMD dazu tendiert, auf Teufel komm raus bloß keinen 8C genauso hoch im ST-Turbo zu takten wie den x900X und x950X, wegen Produktsegmentierung, um bloß ja nicht in irgendwelchen ST-Benchmarks gleichauf oder gar vor den 12-16C zu landen und die teueren SKUs zu kannibalisieren.

Ich halte es für ein bisschen Quark, aber AMD ist da wohl anderer Ansicht.

Da schon der 9700X mit 5.5 GHz ST-Turbo kommt, "darf" ein hypothetischer 9800X da nichts draufpacken.

Sie hätten dem 9700X einfach 80 oder 95W TDP geben sollen, damit er mehr All-Core Takt schafft und klarer als 7700X-Nachfolger durchgeht.
Einen 65W 9700 ohne X hätten sie später immer noch bringen können, aber das wollten sie scheinbar nicht.

Etwas verhunzt haben sie die SKU-Gestaltung so aber in jedem Fall.

dargo
2024-08-09, 14:28:35
Naja, letztes mal gab es einen 7700X und einen 7700. Den ohne X hat niemand gekauft.
Kein Wunder wenn letzteres so viel später kommt und kaum weniger kostet.

fondness
2024-08-09, 14:30:47
Warum sollte er auch weniger kosten? Ist ja dasselbe Produkt nur mit weniger default TDP. Aber die Leute definieren den Preis noch immer ausschließlich nach Leistung, deshalb werden viele Produkte auch so überfahren.

KarlKastor
2024-08-09, 14:39:28
Wenn AMD die Voltkeule drauf haut sind die Fans empört, dass die Kiste ineffizient läuft.
Wenn AMD die Effizienzkeule drauf haut sind die Fans empört, dass die Kiste unter ihrer Möglichkeit läuft. :D

Naja, das ist aber auch etwas einfältig.
Der 7700 gewinnt nur 6% hinzu, der 9700 gewinnt 14% hinzu (laut CB Parcour). Zudem kann man ja auch was dazwischen wählen. Mit ein paar Watt mehr, hätte man schon noch einiges gehoben.
Also ja, AMDs Entscheidungen sind ziemlich merkwürdig. Für den versierten Kunden eh egal, der stellt den sich ein wie er für richtig hält.

robbitop
2024-08-09, 14:56:47
Was dagegen spricht, ist, dass AMD dazu tendiert, auf Teufel komm raus bloß keinen 8C genauso hoch im ST-Turbo zu takten wie den x900X und x950X, wegen Produktsegmentierung, um bloß ja nicht in irgendwelchen ST-Benchmarks gleichauf oder gar vor den 12-16C zu landen und die teueren SKUs zu kannibalisieren.

Ich halte es für ein bisschen Quark, aber AMD ist da wohl anderer Ansicht.


Hm aber war der 7700X nicht praktisch ausgefahren?

Gipsel
2024-08-09, 15:26:18
Hm aber war der 7700X nicht praktisch ausgefahren?Ich glaube es ging reaperrr um den SC-Boosttakt.

Verlustleistungstechnisch für MT-Anwendungen war der 7700X ziemlich ausgefahren, ja. Das war er praktisch auch bereits mit 20-30W weniger (die letzten 20W bringen selten wirklich mehr als ~50MHz [~1%] bei starker MT-Last [wenn er im PPT hängt], sonst gar nichts). Dem 7700X hätten maximal 95W TDP (128W PPT?), oder wenn man keine alten TDP-Klassen recyclen will wären auch 85W-90W TDP (115W-122W PPT), gut zu Gesicht gestanden. Das wäre vermutlich auch für den 9700X eine ganz gute TDP-Klasse gewesen (auch wenn der noch etwas höhere Verlustleistungen als der 7700X besser in Mehrleistung umsetzen kann).
65W (88W PPT) für den 7700 waren schon ganz gut (im Sinne der stärkeren Produktsegmentierung hätte man dem auch schon bald nur 45W TDP geben müssen), die 105W (142W PPT) des 7700X waren beinahe sinnlos hoch. Dagegen sind die 65W (88W PPT) für den 9700X vielleicht etwas niedrig. Für Zen5 hätte ein 9700 mit 65W und ein 9700X mit 105W TDP dagegen schon deutlich mehr Sinn gemacht und die würden sich auch merklich unterscheiden (7700 und 7700X liegen dagegen meist extrem nahe beieinander).

Käsetoast
2024-08-09, 16:20:36
Man hätte den 9700X einfach 9700 nennen sollen. So hätte man sich viel Ärger bei den derzeitigen Diskussionen erspart und es wäre halt konsistenter gewesen. Dann einfach den 9700X3D ankündigen und 99 Prozent der Leute fällt gar nicht mehr auf dass ein 9700X fehlt. Oder man bringt den ggf. später mit erhöhtem Power Limit vielleicht als CPU für die OEMs.

Hier hat AMD ein wenig ein Problem selber verschuldet weil alle natürlich den 9700X mit dem 7700X vergleichen wo der 9700X nur verlieren kann weil auf den Verbrauch immer erst als Zweites geschaut wird.

basix
2024-08-09, 16:51:29
Mir kam da noch ein Gedanke zur "schlechten" Spiele-Performance. Scalar SSE / 128bit ist bei Zen 5 ja am wenigsten stark verbessert worden. Bei der PS5 haben wir abgestrippte FP-Units. Könnte es sein, dass in Spielen genau diese Befehle sehr häufig vorkommen, weil in Konsolen oft genutzt? Ist jetzt nur ein Schuss ins Blaue.

Zum X3D:
Die gezeigten SKUs haben eine Vmax von 1.35V. Das ist doch genau die Maximalspannung der heutigen V-Cache CPUs (z.B. 7800X3D)? Dann müsste es eigentlich naheliegend sein, dass ein 9800X3D keine Taktregression mehr haben sollte. Für Gaming würde das bedeuten, dass man anstatt ~20% schneller ist als die non-X3D SKUs eher ~30% vorne liegen sollte. Die Verbesserung des 9800X3D verglichen zum 7800X3D wäre dann in etwa ähnlich (nicht viel weniger) wie 7800X3D vs. 5800X3D.

Langlay
2024-08-09, 16:57:53
Mir kam da noch ein Gedanke zur "schlechten" Spiele-Performance. Scalar SSE / 128bit ist bei Zen 5 ja am wenigsten stark verbessert worden. Bei der PS5 haben wir abgestrippte FP-Units. Könnte es sein, dass in Spielen genau diese Befehle sehr häufig vorkommen, weil in Konsolen oft genutzt? Ist jetzt nur ein Schuss ins Blaue.

Zum X3D:
Die gezeigten SKUs haben eine Vmax von 1.35V. Das ist doch genau die Maximalspannung der heutigen V-Cache CPUs (z.B. 7800X3D)?

Ist imo die Maximalspannung vom 5800X3D, der 7800X3D hat ~1.2V max

dargo
2024-08-09, 16:59:52
Warum sollte er auch weniger kosten?
Schon mal was von Produktsegmentierung gehört? Wenn man das ignoriert kann man sich gleich das Produkt schenken.

Der_Korken
2024-08-09, 17:11:55
Ist imo die Maximalspannung vom 5800X3D, der 7800X3D hat ~1.2V max

Ich glaube sogar noch weniger. ich bin mir sicher bei techpowerup zum 7950X3D-Launch Spannungsmessungen gesehen zu haben, wo CCD0 mit max. 5,25 Ghz und max. 1.16V lief. Für 5,05Ghz reichen trotz schlechterem Bin vielleicht sogar noch weniger.

Ich halte es aktuell für sehr unwahrscheinlich, dass der 9800X3D >5,3Ghz Boost hat. Außer natürlich AMD hat für den Cache eine eigene Voltage-Rail eingebaut, aber davon habe ich bisher nichts gelesen.

Nightspider
2024-08-09, 17:18:23
Wenn AMD die Voltkeule drauf haut sind die Fans empört, dass die Kiste ineffizient läuft.
Wenn AMD die Effizienzkeule drauf haut sind die Fans empört, dass die Kiste unter ihrer Möglichkeit läuft. :D

Wundert dich jetzt wirklich, das in einem Forum Leute aus beiden Lagern vorhanden sind?

Ich persönlich würd auch nen 100er mehr zahlen, wenn der Idle verbrauch bei 5-10w liegt, aber das ist wohl noch ein Wunschtraum für den Desktop.

Die 100 Euro sind sinnvoller in ein Solarpanel mit 500W investiert.

Badesalz
2024-08-09, 17:29:55
Verlustleistungstechnisch für MT-Anwendungen war der 7700X ziemlich ausgefahren, ja. Das war er praktisch auch bereits mit 20-30W weniger Leute... Ohne eine wirklich dicke Kühlung fuhr der garnicht in seine TDP-Limits. Der war schon davor in seinen Templimits.

Das geht erst wieder mit den 9000ern. Und die sind für Leute die etwas daheim auf dem WinDesktop machen wollen, ziemlich fragwürdig.
(wenn man das mal nicht aus der Sicht des Spielkindes oder des Serveradmins betrachten dürfte).

Langlay
2024-08-09, 17:51:34
Ich glaube sogar noch weniger. ich bin mir sicher bei techpowerup zum 7950X3D-Launch Spannungsmessungen gesehen zu haben, wo CCD0 mit max. 5,25 Ghz und max. 1.16V lief. Für 5,05Ghz reichen trotz schlechterem Bin vielleicht sogar noch weniger.

Ich halte es aktuell für sehr unwahrscheinlich, dass der 9800X3D >5,3Ghz Boost hat. Außer natürlich AMD hat für den Cache eine eigene Voltage-Rail eingebaut, aber davon habe ich bisher nichts gelesen.

https://i.imgur.com/t9xFkoT.png


Meiner kriegt 1.17V max. bei 5.25GHz. (Ich hab nur den Cache CCD aktiv), der 7800X3D meiner Frau liegt aber im ähnlichen Spannungsbereich bei allerdings 5.05 GHz.

Der_Korken
2024-08-09, 19:32:38
Meiner kriegt 1.17V max. bei 5.25GHz. (Ich hab nur den Cache CCD aktiv), der 7800X3D meiner Frau liegt aber im ähnlichen Spannungsbereich bei allerdings 5.05 GHz.

OK, das passt zu den Werten, die ich noch im Kopf hatte. Bisher habe ich nur eine V/f-Kurve von Zen 5 gesehen (Link zum Nachbarthread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13592505#post13592505)) und dort wären mit 1,2V max. 5,25Ghz drin beim 9700X. Der 9950X3D schafft vielleicht 200Mhz mehr, aber für das Masseprodukt 9800X3D würde ich eher 5,2Ghz Boost für realistisch halten. Das sind gerade mal 4% mehr als der 7800X3D bzw. 2 Prozentpunkte mehr als bei 9700X vs 7700X. Ich würde die Erwartungen lieber klein halten.

][immy
2024-08-09, 20:08:56
OK, das passt zu den Werten, die ich noch im Kopf hatte. Bisher habe ich nur eine V/f-Kurve von Zen 5 gesehen (Link zum Nachbarthread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13592505#post13592505)) und dort wären mit 1,2V max. 5,25Ghz drin beim 9700X. Der 9950X3D schafft vielleicht 200Mhz mehr, aber für das Masseprodukt 9800X3D würde ich eher 5,2Ghz Boost für realistisch halten. Das sind gerade mal 4% mehr als der 7800X3D bzw. 2 Prozentpunkte mehr als bei 9700X vs 7700X. Ich würde die Erwartungen lieber klein halten.
Nun, aktuell zeigt sich allerdings auch, das der x3d durchaus noch Potential hat. Mit einer 125w tdp würde man locker den Takt des 9700x schaffen können.
Fragt sich nur ob der Cache die Wärmeerzeugung auch mit macht.

Complicated
2024-08-09, 20:23:51
Man hätte den 9700X einfach 9700 nennen sollen. So hätte man sich viel Ärger bei den derzeitigen Diskussionen erspart und es wäre halt konsistenter gewesen.
Wenn ein X im Produktnamen mehr oder weniger die Lösung ist, dann fragt man sich schon nach dem Sinn dieser Diskussion. Fazit: Non-Issue.

Der_Korken
2024-08-09, 20:35:30
[immy;13593631']Nun, aktuell zeigt sich allerdings auch, das der x3d durchaus noch Potential hat. Mit einer 125w tdp würde man locker den Takt des 9700x schaffen können.

Nein, eben nicht. Der 9700X ist in Spielen nicht powerlimitiert sondern taktlimitiert und gewinnt durch 140W PPT irgendwas zwischen 1-3% dazu. Also quasi nichts. Der Grund warum der 9800X3D imho nicht den Boost-Takt des 9700X erreicht wird, ist dass der 9700X dafür 1,35V benutzt und diese nicht mit 3D-Cache funktionieren - wenn man den 7800X3D als Maßstab nimmt.

][immy
2024-08-09, 20:42:25
Nein, eben nicht. Der 9700X ist in Spielen nicht powerlimitiert sondern taktlimitiert und gewinnt durch 140W PPT irgendwas zwischen 1-3% dazu. Also quasi nichts. Der Grund warum der 9800X3D imho nicht den Boost-Takt des 9700X erreicht wird, ist dass der 9700X dafür 1,35V benutzt und diese nicht mit 3D-Cache funktionieren - wenn man den 7800X3D als Maßstab nimmt.
Ja du sagst es. Selbst mit mehr tdp schafft der 9700x nicht viel mehr. Weshalb der Cache die wirken kann. Mit 65w tdp liegt er schon bei guten Werten. Durch den Cache wird die CPU noch mehr ausgelastet sein und ggfs. mehr verbrauchen, was die dann auch kann. Und eine erhöhte tdp würde dann den Takt des 9700x zusichern.

Der_Korken
2024-08-09, 20:51:02
[immy;13593645']Ja du sagst es. Selbst mit mehr tdp schafft der 9700x nicht viel mehr. Weshalb der Cache die wirken kann. Mit 65w tdp liegt er schon bei guten Werten. Durch den Cache wird die CPU noch mehr ausgelastet sein und ggfs. mehr verbrauchen, was die dann auch kann.


Dass der Cache den Kern ordentlich anschieben könnte (mehr noch als Zen 4) kann durchaus sein, denn in Spielen scheint Zen 5 übel an Latenzen zu verhungern. Ob es auch Speicherlatenzen sind oder irgendwelche internen Latenzen, die gegenüber Zen 4 verschlechtert wurden, wird man dann sehen.

[immy;13593645']
Und eine erhöhte tdp würde dann den Takt des 9700x zusichern.

Nein, der 9700X taktet mit 88W quasi schon voll durch, deswegen bringen 140W ja auch nichts: https://www.computerbase.de/2024-08/ryzen-5-9600x-ryzen-7-9700x-gaming-performance/4/#abschnitt_eine_analyse_der_gamingperformance

In Outcast ist der Takt mit beiden Settings identisch. Der kleine Vorsprung im Performancerating kommt von Ausnahmen wie Starfield, wo die 88W dann ausnahmsweise nicht für vollen Takt reichen. Wie ich oben aber ausgeführt habe, wird ein 9800X3D wahrscheinlich niemals mehr als 5250Mhz schaffen (und zwar unabhängig vom Verbrauch!) und somit noch weniger von mehr Strom profitieren.

Gipsel
2024-08-10, 21:18:54
Leute... Ohne eine wirklich dicke Kühlung fuhr der garnicht in seine TDP-Limits. Der war schon davor in seinen Templimits.Dann hatte ich wohl ein gutes Exemplar erwischt, daß sogar mit halbwegs preiswerter Luftkühlung (kein Noctua, sondern so eine maximale Performance für's Budget-Empfehlung von Thermalright [überraschend gut für den Preis (https://www.youtube.com/watch?v=Mm4hyIHe1PM)] in einem ordentlich belüfteten Mesh-Gehäuse [4x 120mm + 2x 140mm]) lt. HWInfo ~140W bei 95°C halten kann (wird aber nicht dauerhaft so betrieben, sondern mit auf 110W abgesenktem PPT und CO -10; dann sind die 95°C völlig außer Reichweite [und die Lüfter laufen mit angepaßten Kurven auch recht leise]).
War vielleicht reines Glück mit der CPU, wer weiß.

Nightspider
2024-08-11, 02:17:26
Weil es mir zufällig wieder einfiel:

Die Spekulationen bezüglich "Ladder Cache" waren dann wohl auch massiv getrollt !?

Hatte mir davon + V-Cache im Vorfeld am meisten für Spiele erhofft, neben der breiteren Architektur.

Echtes 3D Stacking gibts ja bei AMD jetzt seit 2 Generationen und bzw. seit 2,5 Jahren zu kaufen.
Irgendwie hatte ich mir damals für Zen5 deutlich mehr ""dreidimensionale Neuerungen"" erhofft.
Dagegen scheint die Entwicklung gerade im Schneppentempo voranzugehen, wenn man sich die Perf/Watt/Transistoren anschaut, zumindest im Gaming Betrieb.
Und im Moment sieht es nicht danach aus, als wenn in Zen5 noch irgendwelche besonderen Überraschungen warten würden, für die X3D-Variante.

Vielleicht frisst das AI Thema auch einfach zu viele Entwicklungsressourcen.
Vor allem wenn AMD jetzt auch jedes Jahr einen neuen AI Beschleuniger auf den Markt bringen will.
Da leiden dann alle anderen Produkte darunter.

Da kann man nur hoffen das wir wirklich noch so ein RDNA5 Halo Produkt sehen werden und es nicht wegen wichtigerer AI Produkte eingestampft wird.

Zossel
2024-08-11, 07:19:26
Die Spekulationen bezüglich "Ladder Cache" waren dann wohl auch massiv getrollt !?

Denk doch noch mal über die Semantik von "Spekulation" nach. Nicht jede Prophezeiung deiner Glotze wird eintreffen.

Radeonfreak
2024-08-11, 08:41:04
https://i.imgur.com/t9xFkoT.png


Meiner kriegt 1.17V max. bei 5.25GHz. (Ich hab nur den Cache CCD aktiv), der 7800X3D meiner Frau liegt aber im ähnlichen Spannungsbereich bei allerdings 5.05 GHz.

1.35 is fine....

https://i.imgur.com/Ms6NkrX.png

basix
2024-08-11, 10:17:22
Zen 5 Test ohne SMT:
https://www.techpowerup.com/review/amd-ryzen-9-9700x-performance-smt-disabled/

SMT skaliert ein bisschen komisch bei Zen 5. Man könnte ein grösseres Noisy Neighbour Problem als bei Zen 4 vermuten, doch da kommt noch der Takt als Variable dazu. Der identische Test mit locked Frequency wäre cool gewesen (z.B. auf 5 GHz gelocked), womit man SMT isoliert testen würde.

Badesalz
2024-08-11, 11:34:03
Dann hatte ich wohl ein gutes Exemplar erwischt,
[...]
in einem ordentlich belüfteten Mesh-Gehäuse [4x 120mm + 2x 140mm])Hä? Du findest, das wäre keine "dicke Kühlung"? :rolleyes:

Denniss
2024-08-11, 12:10:17
Zen 5 Test ohne SMT:
https://www.techpowerup.com/review/amd-ryzen-9-9700x-performance-smt-disabled/ Könnte auch mal wieder der Windoofs-Scheduler bzw ein Problem mit CPPC sein.

][immy
2024-08-11, 12:41:37
Zen 5 Test ohne SMT:
https://www.techpowerup.com/review/amd-ryzen-9-9700x-performance-smt-disabled/

SMT skaliert ein bisschen komisch bei Zen 5. Man könnte ein grösseres Noisy Neighbour Problem als bei Zen 4 vermuten, doch da kommt noch der Takt als Variable dazu. Der identische Test mit locked Frequency wäre cool gewesen (z.B. auf 5 GHz gelocked), womit man SMT isoliert testen würde.

Mhh, da steht drin, das nur die CPU gewechselt wurde. Ggfs. wirklich ein Windows scheduler problem.
Gab es doch auch schon beim 7950x3d das da Windows neu aufgesetzt werden musste, damit es richtig funktioniert

Zossel
2024-08-11, 13:09:46
[immy;13594294']Mhh, da steht drin, das nur die CPU gewechselt wurde. Ggfs. wirklich ein Windows scheduler problem.
Gab es doch auch schon beim 7950x3d das da Windows neu aufgesetzt werden musste, damit es richtig funktioniert

Geiles Betriebssystem. Was machen die eigentlich bei MS so den ganzen lieben langen Tag?

y33H@
2024-08-11, 13:20:19
Wer sagt, dass TPU nicht ein neues OS/Image für Granite Ridge genutzt hat?

DozerDave
2024-08-11, 13:27:08
Wundert mich, dass das OS noch nicht thematisiert wurde, wenn ich mir die Phoronix-Benchmarks so ansehe.

https://www.phoronix.com/review/ryzen-9600x-9700x

Gipsel
2024-08-11, 16:36:13
Hä? Du findest, das wäre keine "dicke Kühlung"? :rolleyes:Luftkühler unter 40€? Nein.
Eine "dicke" Kühlung wäre z.B. >280er AiO oder eine custom Wasserkühlung. Schau Dir doch mal an, womit meist getestet wird (oder was doch Einige hier im Forum verbaut haben)!

Gipsel
2024-08-11, 17:01:24
Weil es mir zufällig wieder einfiel:

Die Spekulationen bezüglich "Ladder Cache" waren dann wohl auch massiv getrollt !?

Hatte mir davon + V-Cache im Vorfeld am meisten für Spiele erhofft, neben der breiteren Architektur.Wie hast Du Dir davon viel erhofft, wenn noch nicht mal klar war, was das überhaupt sein soll?
Wenn ich mich recht entsinne, war die naheliegendste Theorie doch, wie die L3-Tiles miteinander verschaltet sein sollten (bei Zen4 wohl ein doppelter Ringbus), insbesondere bei CCX mit mehr als 8 Kernen. Die haben wir aber bisher weder bei StrixPoint (dessen 4C+8c sind ja in zwei CCDs) noch GraniteRidge gesehen. Größere CCX kommen vermutlich bei den Zen5c Chiplets für Server. Von der Form der N3E-Chiplets mit Zen5c ist es ja naheliegend, daß dort 2 "Spalten" mit jeweils 8 Kernen nebeneinander verbaut werden. Da wäre eine "Leiter"-Topologie dann eine gewisse Optimierung, damit durch das langgestreckte Layout nicht zu viel Performance verloren geht (aber Vorteile gegenüber der Latenz bei einem 8C-CCX gibt es damit noch lange nicht).

Nightspider
2024-08-11, 18:07:11
Ich hatte gehofft man würde die L3 Latenzen reduzieren durch kleinere Cache Charts und deren Größe gleichzeitig durch Stacking nach oben skalieren und dass das eben die Vorbereitung für noch größere V-Cache Varianten wäre.

iamthebear
2024-08-11, 19:25:00
Ich weiß nicht was du dir von noch niedrigeren L3 Latenzen erhoffst.

Ich kann mich noch gut an den Windows 11 Bug erinnern bei dem die Zen3 L3 Latenz von 10ns auf 30ns angestiegen ist.
Selbst hier war der Performanceverlust bis auf ein paar Ausreißer im < 5% Bereich. Da wird sich bei kleineren Verbesserungen z.B. 8ns statt 10ns nicht viel tun.

Die eigentlichen Vorteile des neuen Ladder Design sieht man denke ich hier:
https://www.3dcenter.org/news/technik-details-zu-amds-big-apu-strix-halo-zeigen-viel-silizium-einsatz-und-tdps-von-55-120-wat

Die Zen5 Kerne wurden 30% größer (in Summe ca. 6mm² mehr).
Aber der CCD insgesamt wurde sogar etwas kleiner.
Wo hat AMD also die Größe gespart? Meiner Meinung nach kann es nur beim Ringbus und den L3 Logicteilen sein, denn die SRAM Zellen sind ja bei N4 meines Wissens nach nicht kleiner geworden.

Zossel
2024-08-11, 19:57:42
Dann hatte ich wohl ein gutes Exemplar erwischt, daß sogar mit halbwegs preiswerter Luftkühlung (kein Noctua, sondern so eine maximale Performance für's Budget-Empfehlung von Thermalright [überraschend gut für den Preis (https://www.youtube.com/watch?v=Mm4hyIHe1PM)] in einem ordentlich belüfteten Mesh-Gehäuse [4x 120mm + 2x 140mm]) lt. HWInfo ~140W bei 95°C halten kann (wird aber nicht dauerhaft so betrieben, sondern mit auf 110W abgesenktem PPT und CO -10; dann sind die 95°C völlig außer Reichweite [und die Lüfter laufen mit angepaßten Kurven auch recht leise]).

BTW: Hat jemand Erfahrung wie man so was unter Linux hinbekommt? Die CPU soll einfach nur n Watt maximal verbrauchen, der Rest soll gleich bleiben und ich will nur die maximale elektrische Leistung angeben wollen.

Der_Korken
2024-08-11, 19:58:50
BTW: Hat jemand Erfahrung wie man sowas unter Linux hinbekommt? Die CPU soll einfach nur n Watt maximal verbrauchen, der Rest soll gleich bleiben.

Das ist doch ne BIOS-Einstellung. Habe sowas noch nie unter Windows gemacht.

Badesalz
2024-08-11, 21:22:25
Wundert mich, dass das OS noch nicht thematisiert wurde, wenn ich mir die Phoronix-Benchmarks so ansehe.
Das hatten wir schon. Samt dem nun uralten Link.

Die Frage an der Stelle war auf was denn AMD ihre Brocken testen und warum sie nich zeitig den Buddys von MS bescheid gesagt haben, die sollen das mit nem Update bitte korrigieren... WENN das was am OS leigen sollte. Was ich nicht glaube.

Die gleichen Anwendungen würde unter Win bestimmt ähnlich laufen (+% speedups). Nur wer sich so eine CPU kauft, der hat mit solchen wahrscheinlich nicht viel am Hut. Verständlicherweise.

Complicated
2024-08-11, 23:22:04
Wo hat AMD also die Größe gespart? Meiner Meinung nach kann es nur beim Ringbus und den L3 Logicteilen sein, denn die SRAM Zellen sind ja bei N4 meines Wissens nach nicht kleiner geworden.
Wenn du noch zeigen könntest wo du einen Ringbus in Zen1 bis Zen5 gefunden hast?

Der_Korken
2024-08-11, 23:39:23
Wenn du noch zeigen könntest wo du einen Ringbus in Zen1 bis Zen5 gefunden hast?

Zen 1 und 2 hatten vier vollverbundene Cache-Slices. Zen 3 hatte erstmals einen Ringbus (Beispiel-Link (https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/58174-isscc-2022-amd-nennt-details-zum-3d-v-cache-und-ringbus-update.html)). Zu Zen 4 habe ich mir keine Mühe gemacht zu suchen, aber aufgrund der großen Ähnlichkeit im Aufbau würde ich dort ebenfalls einen Ringbus vermuten.

Complicated
2024-08-12, 00:11:37
Da dies lediglich ein L3$ Ringbus ist, erschließt sich mir nicht, warum AMD hier mehr Fläche aufwenden sollte. V-Cache steht hier zur Verfügung zum stacking und wird auch genutzt.

KarlKastor
2024-08-12, 03:17:02
Verstehe nicht warum der Ringbus in Frage gestellt wird. Was ist ein L3 Ringbus?
https://www.techpowerup.com/286449/zen-3-chiplet-uses-a-ringbus-amd-may-need-to-transition-to-mesh-for-core-count-growth#g286449-1

iamthebear
2024-08-12, 03:39:13
Da dies lediglich ein L3$ Ringbus ist, erschließt sich mir nicht, warum AMD hier mehr Fläche aufwenden sollte. V-Cache steht hier zur Verfügung zum stacking und wird auch genutzt.

Sie haben bei Zen5 nicht mehr sondern weniger Fläche verwendet. Das Ganze ist deutlixh kompakter und die gewonnene Fläche hat man in die Zen5 Kerne investiert.

robbitop
2024-08-12, 06:07:48
Da dies lediglich ein L3$ Ringbus ist, erschließt sich mir nicht, warum AMD hier mehr Fläche aufwenden sollte. V-Cache steht hier zur Verfügung zum stacking und wird auch genutzt.

Das CCX nutzt einen Ringbus. Der L3 ist einer der Teilnehmer. Die Cores sind die anderen Teilnehmer.
Nach außen (zum IOD) wird dann die Infonity Fabric genutzt

Zossel
2024-08-12, 06:19:28
Das ist doch ne BIOS-Einstellung. Habe sowas noch nie unter Windows gemacht.

Hmm, hab ich nichts zu gefunden. Hast du Stichwörter für mich hinter denen sich diese Einstellung verstecken könnte?

Der_Korken
2024-08-12, 09:15:22
Hmm, hab ich nichts zu gefunden. Hast du Stichwörter für mich hinter denen sich diese Einstellung verstecken könnte?

Kann gerade nicht genau nachgucken, aber in meinem AM4-BIOS konnte man an zwei Stellen (Asus :rolleyes:) "PBO Settings" verändern, die sich PPT, TDC und EDC nannten. Der erste Wert ist ein hartes Watt-Limit, welches im Betrieb nicht überschritten wird. Außer du setzt es so niedrig, dass selbst der IOD im Idle schon drüber liegt, dann tut die CPU komische Dinge. Eventuell auch mal nach "CBS" gucken. Das ist bei jedem Board und -hersteller anders. In meinem Zweitsystem ist ein billiges Board drin um meinen 2700X weiter zu nutzen und da habe ich die Einstellungen afaik auch nie gefunden bzw. es gibt sie dort gar nicht.

Zossel
2024-08-12, 09:35:54
Kann gerade nicht genau nachgucken, aber in meinem AM4-BIOS konnte man an zwei Stellen (Asus :rolleyes:) "PBO Settings" verändern, die sich PPT, TDC und EDC nannten. Der erste Wert ist ein hartes Watt-Limit, welches im Betrieb nicht überschritten wird. Außer du setzt es so niedrig, dass selbst der IOD im Idle schon drüber liegt, dann tut die CPU komische Dinge. Eventuell auch mal nach "CBS" gucken. Das ist bei jedem Board und -hersteller anders. In meinem Zweitsystem ist ein billiges Board drin um meinen 2700X weiter zu nutzen und da habe ich die Einstellungen afaik auch nie gefunden bzw. es gibt sie dort gar nicht.

Ok, thx. Dann werde ich mich auf die Suche begeben.

latiose88
2024-08-12, 10:47:18
ah ppt ist also der gesammte Stromverbrauch und ich habe einfach nur die Spannung gesenkt und den takt fest allen Kernen zu gelegt. Das dies nicht so optimal ist, merke ich immer wieder das trotz Limit manchmal der stromverbrauch doch höher liegt als ich es eigentlich haben wollte. tya da habe ich mir wohl selbst ein Bein gestellt. Dieses Mal weiß ich es auch mehr. Ich sollte wohl öfters fragen weil hier gibt es ja auch mehr als genug die sich damit auskennen. Ich weiß es nach so vielen Jahren noch immer vieles nicht. War zuvor halt immer Intel user gewesen und da war das so normal. Ist halt bei AMD eben anderst.

OgrEGT
2024-08-12, 10:59:47
Kann gerade nicht genau nachgucken, aber in meinem AM4-BIOS konnte man an zwei Stellen (Asus :rolleyes:) "PBO Settings" verändern, die sich PPT, TDC und EDC nannten. Der erste Wert ist ein hartes Watt-Limit, welches im Betrieb nicht überschritten wird. Außer du setzt es so niedrig, dass selbst der IOD im Idle schon drüber liegt, dann tut die CPU komische Dinge. Eventuell auch mal nach "CBS" gucken. Das ist bei jedem Board und -hersteller anders. In meinem Zweitsystem ist ein billiges Board drin um meinen 2700X weiter zu nutzen und da habe ich die Einstellungen afaik auch nie gefunden bzw. es gibt sie dort gar nicht.
Wenn man das PPT nach unten setzt bzw. begrenzt muss man eigentlich die Stromstärken nicht verändern also variabel auf Auto belassen da die CPU Spannungen aufgrund unterschiedlicher Lastzustände variieren und zusammen mit variierenden Stromstärken das gesetzte PPT ausreizen oder aber auch darunter bleiben können...

Was für ein Board hast du denn da? Selbst bei meinem A620 gibt es diese Einstellungen... sie sind aber sehr "versteckt" im CBS Menu... zum Glück kann man beim Asrock BIOS nach Einstellungen suchen da ich immer wieder vergesse wo sie genau sind :ulol:

Bei Asrock gibts da einen separaten BIOS Guide den man runterladen kann... da kann man dann schauen wie die Einstellung die man sucht wirklich im BIOS bezeichnet wurden... vieles wird auch oft sehr kryptisch abgekürzt...

Der_Korken
2024-08-12, 11:27:16
ah ppt ist also der gesammte Stromverbrauch und ich habe einfach nur die Spannung gesenkt und den takt fest allen Kernen zu gelegt.

Sobald du Takt oder Spannung fixierst, deaktivierst du den Boost-Algorithmus der CPU, d.h. es ist dann egal, was du bei PPT einstellst. Verbrauchsbegrenzung funktioniert nur, wenn du den Boost frei arbeiten lässt. einzig undervolting durch Offset oder Curve Optimizer (ab Zen 3) funktioniert zusammen mit dem Boost.

Wenn man das PPT nach unten setzt bzw. begrenzt muss man eigentlich die Stromstärken nicht verändern also variabel auf Auto belassen da die CPU Spannungen aufgrund unterschiedlicher Lastzustände variieren und zusammen mit variierenden Stromstärken das gesetzte PPT ausreizen oder aber auch darunter bleiben können...


Die Stromstärkelimits würde ich nie anrühren. Den Verbrauch will ich der Wärme wegen limitieren, nicht um die Leitungen zu schonen. Und nach oben hin würde ich erstmal nur den Verbrauch anheben und gucken, ob das schon reicht für mehr Leistung. Die Stromstärken limitieren meist bei sehr schweren Workloads wie Prime95, wo Spannung und Takt stark abfallen und trotzdem viel geheizt wird (P = U*I).


Was für ein Board hast du denn da? Selbst bei meinem A620 gibt es diese Einstellungen.

Kann ich erst am Wochenende nachgucken, weil der Rechner nicht mehr in meiner Wohnung steht. Ist aber auch nicht so wichtig bei dem.

latiose88
2024-08-12, 12:35:19
@Der_Korken

Also macht es mehr Sinn den kurven einzustellen statt selbst bei Spannung und turbo was zu drehen um die Temperatur und den stromverbrauch zu senken oder wie macht es denn am besten sinn das ganze?

Der_Korken
2024-08-12, 12:57:55
@Der_Korken

Also macht es mehr Sinn den kurven einzustellen statt selbst bei Spannung und turbo was zu drehen um die Temperatur und den stromverbrauch zu senken oder wie macht es denn am besten sinn das ganze?

Das kommt drauf an, wieviele Kerne du hast und wie weit du mit dem Verbrauch runter willst. Bei 6-8 Kernen und >=100W kann man auch Allcore OC/UV machen wie du, weil man damit relativ nah an die ST-Taktraten rankommt. Bei 2 CCDs würde ich den Curve Optimizer (CO) empfehlen, weil das zweite CCD meistens deutlich schlechter taktet als das erste (bei mir >200Mhz bei gleicher Spannung). Da landest du mit Allcore OC/UV bei relativ niedrigen Taktraten und verlierst sehr viel ST-Leistung. Guck dir aber vorher einen Guide an, wie man den CO richtig nutzt. Für optimale Ergebnisse lotet man jeden Kern einzeln aus. Das Minimum wäre für mich jedes CCD auszuloten, denn da waren die Unterschiede bei mir sehr groß. Zum Testen würde ich den Core Cycler empfehlen (-> Google) und jeden Kern bei maximalem Boost einzeln testen.

latiose88
2024-08-12, 13:50:56
achso damit kann man ausloten welcher Kern wie hoch maximal gehen kann und so das maximum an MC leistung heraus zu holen. Und damit findet man auch gleich raus welcher im verhältnis deutlich mehr Spannung braucht als der andere Kern weil diese deutlich schlechter zu Werke geht als sonst und so das maximum aus der CPU zu holen.
so ist das gemeint?

Gipsel
2024-08-12, 14:22:16
Ok, thx. Dann werde ich mich auf die Suche begeben.Bei Asrock wäre es z.B. hier zu finden:
Advanced => AMD Overclocking => Confirm bla bla => Precision Boost Overdrive

Da gibt es dann die Limits und auch den Curve Optimizer.

AMD packt die Funktionalität soweit ich weiß auch in den Blob, den die Mainboard-Hersteller nicht wirklich ändern können (dann läuft es unter dem Punkt "CBS" [Custom BIOS Settings?]), weswegen es häufig an zwei verschiedenen Orten zu finden ist (wenn die nicht geschlampt haben, werden Änderungen richtig übernommen, unabhängig davon, wo man es ändert).

Wieder bei Asrock:
Advanced => AMD CBS => SMU Common Options
Da kann man auch einen TDP-Wert als Voreinstellung wählen (also normal oder Eco-Mode), ansonsten kann man aber die PPT/EDC/TDC-Werte auch manuell festlegen, wenn einem das nicht paßt. Hier sind die Angaben übrigens in Milliwatt und Milliampere, wenn ich mich richtig erinnere. Also Vorsicht (110mW oder so wären vermutlich etwas wenig ;))!

basix
2024-08-12, 16:49:12
Weiss nicht ob es schon thematisiert wurde:
Es geht ja als "Fakt" rum, dass der 9700X den 7800X3D schlagen soll. Nur ist das auf den Folien nicht der 7800X3D, sondern der 5800X3D. Wo die ~+10% Mehrperformance dann stimmen. Der Typ von AMD sagt allerdings 7800X3D, was vermutlich ein einfacher Versprecher ist.

Was dann immer noch nicht passt ist Zen 5 vs. Raptor Lake.

Der_Korken
2024-08-12, 20:07:08
Weiss nicht ob es schon thematisiert wurde:
Es geht ja als "Fakt" rum, dass der 9700X den 7800X3D schlagen soll. Nur ist das auf den Folien nicht der 7800X3D, sondern der 5800X3D. Wo die ~+10% Mehrperformance dann stimmen. Der Typ von AMD sagt allerdings 7800X3D, was vermutlich ein einfacher Versprecher ist.

Was dann immer noch nicht passt ist Zen 5 vs. Raptor Lake.

Zu 9700X vs 7800X3D hatte AMD afaik selbst gesagt, dass der 7800X3D in Spielen schneller sein würde, aber (sinngemäß) "nicht so viel, wie man es vielleicht erwarten würde". Was natürlich Humbug ist - eher das Gegenteil, der 9700X liegt deutlich mehr zurück, als die meisten das gedacht hätten. Und ja die Benchmarks, wo Zen 5 den 14900K um teilweise bis zu 20% schlagen soll, die soll AMD mal bitte zeigen. Da ist doch zu Ungunsten von Intel was falsch konfiguriert gewesen, wenn das wirklich bei denen im Labor rauskam.

Badesalz
2024-08-12, 20:21:13
In den Notes steht, daß sie den Intel mit einem 4GB Modul getestet haben.
/S

edit:
;) Sonst hauts aber nicht hin ;)

iamthebear
2024-08-13, 00:31:43
Und ja die Benchmarks, wo Zen 5 den 14900K um teilweise bis zu 20% schlagen soll, die soll AMD mal bitte zeigen. Da ist doch zu Ungunsten von Intel was falsch konfiguriert gewesen, wenn das wirklich bei denen im Labor rauskam.

Ganz einfach: Beide mit 65W TDP testen :freak:

Oddzz
2024-08-13, 00:49:57
Linux vs. Win11 (PCGH) (https://www.pcgameshardware.de/Ryzen-7-9700X-CPU-280545/Tests/Zen-5-im-Linux-Test-1453470/)

Schöner Vergleich, hätte mir nur noch einen Ryzen 7700 als Referenzpunkt gewünscht, aber man merkt schon deutlich, das Linux inzwischen mehr als nur eine Alternative ist. Hab Nobara auch schon seit einiger Zeit nebenher am Laufen und kann das jedem nur empfehlen, mal damit rumzuspielen.

Zossel
2024-08-13, 06:38:51
[Schöner Vergleich, hätte mir nur noch einen Ryzen 7700 als Referenzpunkt gewünscht, aber man merkt schon deutlich, das Linux inzwischen mehr als nur eine Alternative ist. Hab Nobara auch schon seit einiger Zeit nebenher am Laufen und kann das jedem nur empfehlen, mal damit rumzuspielen.

Nein, Doch, Oh.

Zossel
2024-08-13, 06:50:08
Wieder bei Asrock:
Advanced => AMD CBS => SMU Common Options
Da kann man auch einen TDP-Wert als Voreinstellung wählen (also normal oder Eco-Mode), ansonsten kann man aber die PPT/EDC/TDC-Werte auch manuell festlegen, wenn einem das nicht paßt. Hier sind die Angaben übrigens in Milliwatt und Milliampere, wenn ich mich richtig erinnere. Also Vorsicht (110mW oder so wären vermutlich etwas wenig ;))!

Ich hab es gefunden :-) Allerdings bleibt die Frage auf welche Spannung sich die beiden weiteren Angaben bzgl. Strom beziehen und welche kurzen Peaks auftreten können und welche Auslösecharakteristik die Strombegrenzung hat.
Ich lass das auf den Defaultwerten, ich hatte eher die Hoffnung das man einfach die max. elektrische Leistung vorgeben kann und um den Rest kümmern sich Leute die sich *wirklich* damit auskennen.

basix
2024-08-13, 07:03:07
Linux vs. Win11 (PCGH) (https://www.pcgameshardware.de/Ryzen-7-9700X-CPU-280545/Tests/Zen-5-im-Linux-Test-1453470/)

Schöner Vergleich, hätte mir nur noch einen Ryzen 7700 als Referenzpunkt gewünscht, [...]

Jepp, ein Referenzpunkt wäre noch sinnvoll. Jetzt weiss man nicht, ob das einfach Linux ist oder etwas was mit Zen 5 zusammenhängt.

latiose88
2024-08-13, 07:35:23
Ja das ist ne gute frage. Wenn Zen 5 komplett ist wird es hoffentlich dann ganz getestet das was Linux gemeint ist. Und dann wissen wir endlich wie die 12 und 16 Kerner sich hier so verhalten.

dildo4u
2024-08-13, 08:01:04
Win 11 24H2 ist offiziell noch nicht raus für x86 ich denk da wird sich nicht viel tun aber das sollte man noch erwähnen.

Zossel
2024-08-13, 08:54:43
Win 11 24H2 ist offiziell noch nicht raus für x86 ich denk da wird sich nicht viel tun aber das sollte man noch erwähnen.

MS könnte auch generische Schnittstellen schaffen die man einfach nur nutzt.

fondness
2024-08-13, 09:28:44
Strix Halo kommt womöglich unter dem Namen Ryzen AI 300 Max Plus auf den Markt :D
https://wccftech.com/amd-ryzen-ai-300-apu-lineup-more-powerful-skus-in-the-works/

amdfanuwe
2024-08-13, 10:27:48
Ich stelle noch ein "Ultra TI Super" zur Verfügung.

HOT
2024-08-13, 10:52:02
Alles zuwenig X, XT, XTXXXXXX

Badesalz
2024-08-13, 11:06:07
@HOT
Das ist eher was für Intel Foundrys.