Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake (Lion Cove+Skymont, Xe HPG, LGA1851, 20A+N3B, 2024)
Seiten :
1
2
3
4
5
6
7
8
[
9]
Platos
2024-11-03, 10:13:05
Ja, irgendwas stimmt da nicht.
Aber avg. FPS ist ja irrelevant. Wichtig sind 1% low. Habe mir nochmals etwa 10 Verschiedene Tests angesehen, die bei Leonidas verlinkt waren. Leider haben nur wenige Cyberpunkt Phantom Liberty getestet, aber bei sehr vielen sah es exakt genau so wie bei Techspot aus. Mir scheint da irgendwas schief zu laufen bei Intel/Windows (es kann sich kaum auf so viele Tester der gleiche Fehler erstrecken). Und wie gesagt zieht es sich bei Techspot (und anderen Tests) ja konsequent durch. Also irgendwas scheint mir da noch Treiberseitig/Windowsseitig arg zu spinnen.
Dass der 245k und 285k kaum Unterschiede zeigen, ist aber auch schonmal ein Indiz dafür, dass was schief läuft.
Jetzt müsste man nur noch wissen, warum bei Computerbase Arrowlake viel besser abgeschnitten hat. Haben die einen anderen Treiber oder Windowsversion gehabt? Falsch getestet kann man kaum, wenn die CPUs besser abschneiden. Das müsste bedeuten, dass alle anderen CPUs schlechter als normal abschneiden würden. Das tun sie aber nicht, auch nicht relativ zu einander. Nur Arrow-Lake ist bei CB besser.
Edit: Ist denn Cyberpunk und Phantom liberty vom Benchmarken her überhaupt unterschiedlich ?
dildo4u
2024-11-03, 10:25:07
Das Game wurde gerade erst für die älteren Hybrid CPU gepatcht möglich das der Aufbau zu unterschiedlich ist und er deshalb so abkackt.
Man müsste mal mit der Option spielen.
https://youtu.be/c6-FQUOcXWs?si=XyIdvI-0DqNKAaGq&t=80
fondness
2024-11-03, 10:28:10
Ja, irgendwas stimmt da nicht.
Aber avg. FPS ist ja irrelevant. Wichtig sind 1% low. Habe mir nochmals etwa 10 Verschiedene Tests angesehen, die bei Leonidas verlinkt waren. Leider haben nur wenige Cyberpunkt Phantom Liberty getestet, aber bei sehr vielen sah es exakt genau so wie bei Techspot aus. Mir scheint da irgendwas schief zu laufen bei Intel/Windows (es kann sich kaum auf so viele Tester der gleiche Fehler erstrecken). Und wie gesagt zieht es sich bei Techspot (und anderen Tests) ja konsequent durch. Also irgendwas scheint mir da noch Treiberseitig/Windowsseitig arg zu spinnen.
Dass der 245k und 285k kaum Unterschiede zeigen, ist aber auch schonmal ein Indiz dafür, dass was schief läuft.
Jetzt müsste man nur noch wissen, warum bei Computerbase Arrowlake viel besser abgeschnitten hat. Haben die einen anderen Treiber oder Windowsversion gehabt? Falsch getestet kann man kaum, wenn die CPUs besser abschneiden. Das müsste bedeuten, dass alle anderen CPUs schlechter als normal abschneiden würden. Das tun sie aber nicht, auch nicht relativ zu einander. Nur Arrow-Lake ist bei CB besser.
Edit: Ist denn Cyberpunk und Phantom liberty vom Benchmarken her überhaupt unterschiedlich ?
Ja nach getestete Spiel-Szene kommen die eben leicht unterschiedliche Werte raus. Der Unterschied liegt auch bei CB bei 30% (du kannst nicht einmal 1% low nehmen und einmal avg). Bei manchen bei 40% und bei manchen bei 50%. Und da gibt es noch andere Games wo es nicht viele besser aussieht. War das bei Zen1 überhaupt so krass? :D
dildo4u
2024-11-03, 10:36:48
Watch Dogs 2 lief extrem grottig auf Zen1 lustig wie sich das immer wiederholt.
https://i.ibb.co/2v5vgd4/Screenshot-2024-11-03-103502.png (https://ibb.co/GWFWcRS)
https://gamersnexus.net/hwreviews/2822-amd-ryzen-r7-1800x-review-premiere-blender-fps-benchmarks
fondness
2024-11-03, 10:39:06
Watch Dogs 2 lief extrem grottig auf Zen1 lustig wie sich das immer wiederholt.
https://i.ibb.co/2v5vgd4/Screenshot-2024-11-03-103502.png (https://ibb.co/GWFWcRS)
https://gamersnexus.net/hwreviews/2822-amd-ryzen-r7-1800x-review-premiere-blender-fps-benchmarks
Okay so gesehen passt der Vergleich mit Zen1 sogar. :D
Aber der 9800X3D, 9900X3D, 9950X3D kommt erst noch, das ist der Unterschied. ;)
Undertaker
2024-11-03, 12:14:38
Aktueller Test 245K vs. 9600X in 10 Spielen:
https://youtu.be/8bszpOV5hWM
Im Mittel (wer mag, kann mal nachrechnen) marginaler Vorsprung für den 9600X bei erheblich größerem Leistungsbedarf - so viel ineffizienter hätte ich den kleinen Zen 5 jetzt gar nicht erwartet. Mit Blick auf neuere, gut parallelisierte Titel ist der 9600X wohl aber generell keine gute Wahl für die Zukunft mehr.
MSABK
2024-11-03, 12:18:04
Aktueller Test 245K vs. 9600X in 10 Spielen:
https://youtu.be/8bszpOV5hWM
Im Mittel (wer mag, kann mal nachrechnen) marginaler Vorsprung für den 9600X bei erheblich größerem Leistungsbedarf - so viel ineffizienter hätte ich den kleinen Zen 5 jetzt gar nicht erwartet. Mit Blick auf neuere, gut parallelisierte Titel ist der 9600X wohl aber generell keine gute Wahl für die Zukunft mehr.
Amd hat den Fertigungsnachteil diesmal. Aber sonst würde ich keinen 6 Kerner mehr kaufen heute.
Linmoum
2024-11-03, 12:26:54
Beeindruckend, wie ein 9600X in dem Video oftmals mit fast 100W läuft, obwohl das PPT bei 88W liegt. ;) Davon ab wäre der passende Vergleich mit dem 7600X3D, der aktuell auch ein gutes Stück günstiger als ein 245K ist.
fondness
2024-11-03, 12:28:09
Beeindruckend, wie ein 9600X in dem Video oftmals mit fast 100W läuft, obwohl das PPT bei 88W liegt. ;)
Lol stimmt, absurd.
dildo4u
2024-11-03, 12:38:15
Der 9600x hat doch ein 105TDP mit Garantie bekommen.
https://www.pcgameshardware.de/Ryzen-7-9700X-CPU-280545/Specials/TDP-AGESA-BIOS-UEFI-Update-Leistung-1455418/
fondness
2024-11-03, 12:43:11
Der 9600x hat doch ein 105TDP mit Garantie bekommen.
https://www.pcgameshardware.de/Ryzen-7-9700X-CPU-280545/Specials/TDP-AGESA-BIOS-UEFI-Update-Leistung-1455418/
Nicht default. Das müsste man im BIOS extra einstellen. Bringt aber nichts und frisst nur mehr Strom.
DeadMeat
2024-11-03, 12:47:14
Zufällige YT Benchmark Tests waren noch nie wirklich glaubwürdig.
dildo4u
2024-11-03, 12:49:09
Die Werte passen der 245k ist extrem sparsam mit 5.2Ghz Boost und der 9600x nutzt das 105 TDP was wenig für Gameing bringt.
davidzo
2024-11-03, 12:49:59
Aktueller Test 245K vs. 9600X in 10 Spielen:
Das ist brutal für den i5 weil der 35% billigere 9600x gar nicht sein Gegenstück ist sondern der gleichpreisige 9700x. Ich mag AMDs Naming auch nicht, weil es den Namen Ryzen7 entwertet, aber das war die letzten Generationen auch immer so, dass i5 vs R7, i3 vs R5 antreten musste.
Aber ja, Teillast zeigt eindeutig den großen Nachteil den AMDs IFOP Chiplet CPUs im Desktop weiterhin haben. Zen4/Zen5 sind hier von der Effizienz im gaming bei gleicher tdp auch leider identisch. Nicht besonders ruhmreich für 2 Jahre Entwicklungszeit, vor allem wenn man guckt was Qualcomm, Mediatek und Apple in derselben Zeit so machen.
Die Intel CPU ist deswegen so sparsam weil sie sehr erfolgreich Däumchen dreht während sie auf den DRAM wartet. Das Powergating hat Intel wieder mal sehr gut hin bekommen. Das ändert aber nicht dass die P-kerne saufen wie ein Loch wenn sie mal nicht auf den DRAM warten müssen. Je besser Arrowlake in einem Spiel performt, desto höher auch der Verbrauch.
Ich tippe darauf dass Zen5 ähnlich effizient oder effizienter sein kann wenn man das Powertarget so weit absenkt dass die FPS der Intel CPU entsprechen. Das Verhältnis FPS/watt ist ja nicht linear sondern eher logarithmisch in Spielen, zumal wenn DRAM timings eine Konstante sind.
AMD hat aber ein echtes Teillast und Idle Power Problem. Wieso das powermanagement für die IFOP Links von der Mobile-Plattform nicht auch im Desktop verfügbar ist, ist mir ein Rätsel. Das würde Zen-usern wirklich ein paar Groschen jeden Monat sparen.
Platos
2024-11-03, 12:52:17
Ja nach getestete Spiel-Szene kommen die eben leicht unterschiedliche Werte raus. Der Unterschied liegt auch bei CB bei 30% (du kannst nicht einmal 1% low nehmen und einmal avg). Bei manchen bei 40% und bei manchen bei 50%. Und da gibt es noch andere Games wo es nicht viele besser aussieht. War das bei Zen1 überhaupt so krass? :D
Ich habe nie einmal avg. und einmal 1% genommen, das war Dildo. Ich nutze immer nur 1% und da ist CB 16% vorne (also der AMD-Prozessor). Techspot hat auch 1% low drinn und 43% Unterschied. Ich habe immer nur 1% low angeschaut. Techpowerup kann man rauchen, genau aus dem Grund. Normalerweise schneiden die 1% auch schlechter ab, wie avg (also ich meine in Relation zu einer anderen CPU sind oftmals avg. nahe beieinander aber bei 1% können sie weit auseinander liegen).
Daher: Es ist nicht "leicht unterschiedlich" in den 1% Low. Da ist der Unterschied extrem. Und es ist nicht beim einen Tester mal 5%, beim nächsten 10% und beim wieder nächsten 15% usw. Es scheint konsequent bei vielen ca. 40-50% mehr zu sein oder aber dann gleich so wie bei CB "nur" bei ~15% rum. Da scheint irgend einen Grund zu haben aus meiner Sicht.
Mal sehen, wie es beim Zen 5 X3D Launch aussieht. Vlt. siehts dann ja anders aus. Mal sehen, ob es dann immer noch so auffällige 2 "Lager" gibt, oder ob dann alle konsequent schlecht bzw. konsequent "nur" 15% schlechter sind bei den 1% low in Cyberpunk Phatom Liberty.
Edit: Wobei Cyberpunk hier schon ein Sonderfall darstellt. Bei Homeworld 3 ist der Unterschied auch bei CB extrem.
basix
2024-11-04, 20:56:37
AMD hat aber ein echtes Teillast und Idle Power Problem. Wieso das powermanagement für die IFOP Links von der Mobile-Plattform nicht auch im Desktop verfügbar ist, ist mir ein Rätsel. Das würde Zen-usern wirklich ein paar Groschen jeden Monat sparen.
Desktop hat die langsamere Iterationsrate. Insbesondere beim IOD. Wenn man dort das Feature nicht eingeplant hat, wird es halt schwierig. Da es die Features bei Mobile nun gibt und man bei Zen 6 vermutlich auf fortschrittlicheres Packaging setzen wird, stehen die Chancen nicht schlecht, dass Idle- und Teillast-Verbrauch ab Zen 6 deutlich besser sein werden.
bbott
2024-11-05, 00:47:47
Desktop hat die langsamere Iterationsrate. Insbesondere beim IOD. Wenn man dort das Feature nicht eingeplant hat, wird es halt schwierig. Da es die Features bei Mobile nun gibt und man bei Zen 6 vermutlich auf fortschrittlicheres Packaging setzen wird, stehen die Chancen nicht schlecht, dass Idle- und Teillast-Verbrauch ab Zen 6 deutlich besser sein werden.
Deswegen warte ich auch unter anderem auf Zen 6. Hoffentlich gibt es mehr als die 10% IPC, aus den letzten Gerüchten und mehr Kerne. 16 würden mir reichen, wenn es aber 24-32 werden dürfe hoffentlich der Preis für die kleineren CPUs fallen ;D
reaperrr
2024-11-05, 01:00:48
Deswegen warte ich auch unter anderem auf Zen 6. Hoffentlich gibt es mehr als die 10% IPC, aus den letzten Gerüchten und mehr Kerne. 16 würden mir reichen, wenn es aber 24-32 werden dürfe hoffentlich der Preis für die kleineren CPUs fallen ;D
Mit (viel) mehr als den 10% würde ich nicht unbedingt rechnen, ABER mit mehr Takt, jedenfalls bei Teillast und/oder gleicher Kernzahl.
Der Zen5-Kern ist halt dicker als Zen4 in unwesentlich besserem Prozess, da war's schon ein Erfolg, dass der quasi identische Taktraten macht.
Desktop-Zen6 wird wohl N3P nutzen, da wäre alles unter 6 GHz im ST-Turbo ne Enttäuschung, wobei ich schon eher so 6,2-6,3 erwarten würde.
Mit mehr Kernen je Preissegment würde ich aber schon nahezu gesichert rechnen, allein schon, weil es a) überfällig ist und b) AMD damit rechnen muss, dass der ARL-Nachfolger nicht nur bessere P-Kerne und weniger Latenzprobleme, sondern vor allem mehr und bessere E-Kerne haben wird, und die sind ja jetzt schon gut genug, um in MT die mauen P-Kerne und das fehlende SMT zu kompensieren.
ZeroStrat
2024-11-05, 12:04:01
Ich finde die Formulierung "so schlecht" hier unangebracht, der 285K ist bei Gaming gleichauf mit Zen5 - bei klar höherer Effizienz wohlgemerkt.
Mit ordentlich Tuning, was auch Ringbus und Interconnects inkludiert, sehe ich hier Performance auf Niveau eines gut getunten 7950X3D, bei gleichzeitig exzellenter Effizienz, insbesondere im GPU-Limit.
Ich habe aber auch mit einem neuen BIOS und dem neusten Windows Dev Build getestet. Das Problem mit dem zu niedrigen Ringbustakt hatte ich z.B. gar nicht. Meine Speicherlatenzen waren auch nie bei über 90ns. Bin aktuell bei 68ns.
Man muss sagen, dass es einige Boardhersteller vermasselt haben. Habe Kontakt zu zig Reviewern gehabt im Vorfeld. Was die teilweise Probleme mit Gigabyte Boards hatten, Gute Nacht... Teils über 110ns Speicherlatenz. Das lief gewaltig schief und dann sind die Ergebnisse der Spielebenchmarks in den Reviews auch schlecht. Sollte keinen verwundern.
Eines muss man leider festhalten, das lässt sich nicht schön reden, die Inkonsistenz der Werte ist nicht gut. Cyberpunk 2077 und Hogwarts Legacy liefern richtig miese Werte, dahingegen Spider-Man und Far Cry 6 lassen den 285K strahlen.
Dass noch was geht mit BIOS und Windows Updates ist für mich eine klare Sache. Cyberpunk z.B. macht so überhaupt keinen Sinn.
fondness
2024-11-05, 12:08:47
Mit ordentlich Tuning, was auch Ringbus und Interconnects inkludiert, sehe ich hier Performance auf Niveau eines gut getunten 7950X3D, bei gleichzeitig exzellenter Effizienz, insbesondere im GPU-Limit.
Naja gut, das Tuning killt dann halt auch wieder die Effizienz, nicht? Gerade der höhere Ringbustakt soll viel Strom schlucken.
ZeroStrat
2024-11-05, 12:26:28
Naja gut, das Tuning killt dann halt auch wieder die Effizienz, nicht? Gerade der höhere Ringbustakt soll viel Strom schlucken.
Ich sehe hier keinen gravierenden Einfluss von Tuning auf die Effizienz. Ich habe aber auch keinerlei Core-OC betrieben bei meinen letzten Benchmarks. Das bringt eh kaum was. Mit dem Ringbus, insbesondere der Spannung, darf man es nicht übertreiben und Interconnects sind scheinbar zahm beim Verbrauch. RAM-OC war energetisch ja immer harmlos.
robbitop
2024-11-05, 12:59:27
War bei Ryzen 1 (und etwas weniger bei dessen Nachfolgern) auch so dass Latenztuning richtig was gebracht hat. Bis AMD dann den LLC größer gemacht hat. IIRC das gleiche mit Skylake-X.
Raptorlake hingegen brachte das IIRC etwas weniger ein.
Exxtreme
2024-11-05, 13:03:34
Dass noch was geht mit BIOS und Windows Updates ist für mich eine klare Sache. Cyberpunk z.B. macht so überhaupt keinen Sinn.
Cyberpunk 2077 ist allgemein extrem mies programmiert. Mich wundert das nicht, dass das Studio die eigene Engine aufgibt und auf UE5 umsteigt. Die hatten zuerst massivste Probleme auf AMD-CPUs. Und jetzt macht das Spiel auf Arrow Lake komische Sachen. Womöglich müssen sie das Spiel wieder patchen.
MiamiNice
2024-11-05, 13:07:46
Ich sehe hier keinen gravierenden Einfluss von Tuning auf die Effizienz. Ich habe aber auch keinerlei Core-OC betrieben bei meinen letzten Benchmarks. Das bringt eh kaum was. Mit dem Ringbus, insbesondere der Spannung, darf man es nicht übertreiben und Interconnects sind scheinbar zahm beim Verbrauch. RAM-OC war energetisch ja immer harmlos.
Du musst bei ARL mit dem Ringbus massiv nach oben. Bis in den roten Bereich mit der Spannung. Selbiges gilt für den Ram. Sonst bleibt das Gerät mehr so eine CPU für nen Taschenrechner, wie er leider ootb kommt.
ZeroStrat
2024-11-05, 13:16:29
War bei Ryzen 1 (und etwas weniger bei dessen Nachfolgern) auch so dass Latenztuning richtig was gebracht hat. Bis AMD dann den LLC größer gemacht hat. IIRC das gleiche mit Skylake-X.
Raptorlake hingegen brachte das IIRC etwas weniger ein.
Hier, schau dir das an, was ein R7 1700 mit Tuning zulegen kann. Das sind teilweise über 40%. Mit Cascade Lake-X (12-Core 10920X) habe ich vergleichbare Ergebnisse.
https://i.imgur.com/PdflopH.png
Cyberpunk 2077 ist allgemein extrem mies programmiert. Mich wundert das nicht, dass das Studio die eigene Engine aufgibt und auf UE5 umsteigt. Die hatten zuerst massivste Probleme auf AMD-CPUs. Und jetzt macht das Spiel auf Arrow Lake komische Sachen. Womöglich müssen sie das Spiel wieder patchen.
Wenn das alles so schlecht programmiert ist, warum ist dann ein 13700K ebenfalls ohne HT 15% schneller? Das muss schon was Spezifisches mit Arrow Lake zu tun haben.
Du musst bei ARL mit dem Ringbus massiv nach oben. Bis in den roten Bereich mit der Spannung. Selbiges gilt für den Ram. Sonst bleibt das Gerät mehr so eine CPU für nen Taschenrechner, wie er leider ootb kommt.
Ringbus auf 4GHz und RAM auf 78000MT/s reichen bereits, um den 7950X3D@OC zu schlagen teilweise. Bald kommen die CUDIMMs und heißt der neue Gegner 9800X3D. ^^
fondness
2024-11-05, 14:27:31
Ringbus auf 4GHz und RAM auf 78000MT/s reichen bereits, um den 7950X3D@OC zu schlagen teilweise. Bald kommen die CUDIMMs und heißt der neue Gegner 9800X3D. ^^
Das entscheidende Wort hier ist "teilweise". Im Schnitt? Never ever. ;)
MiamiNice
2024-11-05, 14:37:15
Ringbus auf 4GHz und RAM auf 78000MT/s reichen bereits, um den 7950X3D@OC zu schlagen teilweise. Bald kommen die CUDIMMs und heißt der neue Gegner 9800X3D. ^^
Du musst bis kurz unter die Gear 4 Grenze mit dem CUDIMMS. Also irgendwas um 10000MT CuDimms brauchst Du.
Aber mal blöd gefragt: Ich bin ja ein Freund von solchen Dingen, wenn was dabei rum kommt. Bisher kam immer gut was dabei rum. Jetzt ist es so, das selbst mit allem perfekt, der AMD stock vorbei zieht. Warum noch den Stress auf der Intel Plattform? Da kann man nichts mehr gewinnen. Die Zeiten vom verstecktem Leistungskönig, während die verblendete Masse AMD kauft und meint sie wäre schneller, ist vorbei. Die Jungs mit dem AMD sind nun wirklich schneller, also jetzt so wirklich, nicht mehr nur in der Fachpresse. Ganz real. Warum also so viel Geld in die Plattform drücken? Habe für knapp 1300€ nen 98003D, bestes AM5 Board und Direct Die Kühlung gekauft und hätte dabei noch sparen können. Bei Intel ist viel teurer und kommt nun weniger bei rum, leider.
Unlogisch mit dem ARl zu spielen.
Tuning mscht halt Spaß...
Wenn man sich anschaut was im Non-Core-Bereich jetzt schon geht (ocn, hwl) und wie groß der Fortschritt noch bei den BIOSes ist, dann gehe ich davon aus, dass ein ausgereizter ARL die schnellste Desktopplattform wird. Mal schauen wie weit die in 4-8 Wochen sind.
Ich bleib trotzdem beim Raptor weil meiner saugut läuft und ich psychische Probleme mit Taktregression habe aber man muss schon sagen, beim ARL ist ausgehend vom verkrüppelten Serienzustand so viel zu holen wie schon lange bei keiner Plattform mehr.
MiamiNice
2024-11-05, 15:05:41
Tuning mscht halt Spaß...
Wenn man sich anschaut was im Non-Core-Bereich jetzt schon geht (ocn, hwl) und wie groß der Fortschritt noch bei den BIOSes ist, dann gehe ich davon aus, dass ein ausgereizter ARL die schnellste Desktopplattform wird. Mal schauen wie weit die in 4-8 Wochen sind.
Und genau das wird nicht passieren, das ist ja genau der Grund. Ganz im Gegenteil hat AMD nun OC freigegeben. Dort gibt es jetzt den Tuning Spaß während man bei Intel jetzt nur noch blöd aus der Wäsche schaut. Du kannst das Ding tunen wie Du willst, die 9000er AMD 3D werden gut 20% schneller sein mit OC. Deswegen überhaupt mein Post, ich verstehe es nicht. ARL ist broken by design. Das Teil ist wie nen AMD Bulldozer.
robbitop
2024-11-05, 15:18:48
Hier, schau dir das an, was ein R7 1700 mit Tuning zulegen kann. Das sind teilweise über 40%. Mit Cascade Lake-X (12-Core 10920X) habe ich vergleichbare Ergebnisse.
https://i.imgur.com/PdflopH.png
Mein 4790K hat damals auch massiv vom Latenztuning profitiert. Hab damals von ~60ns auf 42 ns getunt. Und da kam in GTA5 im CPU Limit IIRC immerhin ~25% mehr Leistung raus. Und der 7 5775C hat damals mit Crystalwell gezeigt, dass ein großer LLC richtig was bringen kann.
Ich bin seit dem ein großer Fan von LLC und deshalb einen X3D gekauft. :)
Von Geekerwan gibt es SPEC Werte bei 4 Ghz: https://youtu.be/TFu2iorqU_o?t=158
Skymont liegt hier tatsächlich knapp über Raptor Cove. Zu Lion Cove sind es knapp 8% Integer und 3% FP.
RoNsOn Xs
2024-11-05, 19:19:23
Mit ordentlich Tuning, was auch Ringbus und Interconnects inkludiert, sehe ich hier Performance auf Niveau eines gut getunten 7950X3D, bei gleichzeitig exzellenter Effizienz, insbesondere im GPU-Limit.
Ich habe aber auch mit einem neuen BIOS und dem neusten Windows Dev Build getestet. Das Problem mit dem zu niedrigen Ringbustakt hatte ich z.B. gar nicht. Meine Speicherlatenzen waren auch nie bei über 90ns. Bin aktuell bei 68ns.
Gibts hier Werte zum nachlesen zwecks geeigneter Spannungen für Ringbus und ähnliches?
ZeroStrat
2024-11-05, 19:52:10
Gibts hier Werte zum nachlesen zwecks geeigneter Spannungen für Ringbus und ähnliches?
Hab noch keinen Artikel geschrieben, da das Interesse eher gering sein dürfte.
Du kannst 3.9GHz und 0.95V als Ausgangspunkt nehmen. Ich bin im Moment bei 4GHz und 1.1V. Taste mich nach unten vor mit der Spannung. Was möchtest du noch wissen?
https://i.imgur.com/1UqzrCq.png
Du musst bis kurz unter die Gear 4 Grenze mit dem CUDIMMS. Also irgendwas um 10000MT CuDimms brauchst Du.
Aber mal blöd gefragt: Ich bin ja ein Freund von solchen Dingen, wenn was dabei rum kommt. Bisher kam immer gut was dabei rum. Jetzt ist es so, das selbst mit allem perfekt, der AMD stock vorbei zieht. Warum noch den Stress auf der Intel Plattform? Da kann man nichts mehr gewinnen. Die Zeiten vom verstecktem Leistungskönig, während die verblendete Masse AMD kauft und meint sie wäre schneller, ist vorbei. Die Jungs mit dem AMD sind nun wirklich schneller, also jetzt so wirklich, nicht mehr nur in der Fachpresse. Ganz real. Warum also so viel Geld in die Plattform drücken? Habe für knapp 1300€ nen 98003D, bestes AM5 Board und Direct Die Kühlung gekauft und hätte dabei noch sparen können. Bei Intel ist viel teurer und kommt nun weniger bei rum, leider.
Unlogisch mit dem ARl zu spielen.
Ich gehe erstmal Richtung 9000MT/s. Das ist schon brutal schnell mit fast 140GB/s Bandbreite. Warum ich das mache? In erster Linie aus Bastellaune heraus und weil ich ein RAM-Monster will. Schneller RAM macht gute Frametimes. Ein großer LLC macht gute Average FPS, aber die Hitrate ist nie bei 100%, nicht mal bei 60% in extrem fordernden Szenen. Hohe Speicherperformance, smartes Prefetching und eine fette OOO Engine sorgen für die Smoothness beim Spielen.
Zossel
2024-11-05, 20:17:18
Schneller RAM macht gute Frametimes. Ein großer LLC macht gute Average FPS, aber die Hitrate ist nie bei 100%, nicht mal bei 60% in extrem fordernden Szenen. Hohe Speicherperformance, smartes Prefetching und eine fette OOO Engine sorgen für die Smoothness beim Spielen.
Wie unterscheiden sich die Hitraten bei unterschiedlichen Cachegrössen?
ZeroStrat
2024-11-05, 20:30:18
Wie unterscheiden sich die Hitraten bei unterschiedlichen Cachegrössen?
Werde ich diese Woche noch was zu posten auf X. Ich warte auf mein Paket von BENCHLAB, dann installiere ich das Strix X670E + 7950X3D auf dem Testbench. Ich werde CCD0 und 1 vergleichen bzgl. der Hitrates.
Zossel
2024-11-05, 21:05:56
Werde ich diese Woche noch was zu posten auf X. Ich warte auf mein Paket von BENCHLAB, dann installiere ich das Strix X670E + 7950X3D auf dem Testbench. Ich werde CCD0 und 1 vergleichen bzgl. der Hitrates.
Welche Sau interessiert für dieses Zeug von diesen durchgeknallten Egomanen der nicht akzeptieren kann das sich seine Kinder anders entwickeln als er sich das vorstellen kann und deswegen einen Privatkrieg ohne Rücksicht auf Kollateralschäden startet?
RoNsOn Xs
2024-11-05, 22:14:39
Hab noch keinen Artikel geschrieben, da das Interesse eher gering sein dürfte.
Du kannst 3.9GHz und 0.95V als Ausgangspunkt nehmen. Ich bin im Moment bei 4GHz und 1.1V. Taste mich nach unten vor mit der Spannung. Was möchtest du noch wissen?
https://i.imgur.com/1UqzrCq.png
Ich gehe erstmal Richtung 9000MT/s. Das ist schon brutal schnell mit fast 140GB/s Bandbreite. Warum ich das mache? In erster Linie aus Bastellaune heraus und weil ich ein RAM-Monster will. Schneller RAM macht gute Frametimes. Ein großer LLC macht gute Average FPS, aber die Hitrate ist nie bei 100%, nicht mal bei 60% in extrem fordernden Szenen. Hohe Speicherperformance, smartes Prefetching und eine fette OOO Engine sorgen für die Smoothness beim Spielen.
Danke zunächst für den Richtwert. Gern auch Voltage für die kleinen aber sehr feinen e-cores. P-cores sind wohl recht uninteressant.
Die 4,1Ghz sind nun noch kein Meilenstein, hoffe da geht noch mehr. Mit welchem Bench misst du am liebsten den impact?
mocad_tom
2024-11-05, 23:59:27
zu arrow lake
viele betrachten das ding mit einer reinen gamer brille.
und in games bekommt man ihn ja auch einigermaßen auf die füße gestellt.
richtig gut wird er dann aber eben auch in einer workstation.
und 192gb reizen mich gerade massiv.
und er hat definitiv den besten memcontroller.
ich warte aber derzeit noch auf einen 285k boxed.
265k will ich nicht, weil auch schon zwischen 14700k und 14900k war eigentlich immer der memcontroller im 14900k besser selektiert.
und gerade da brauche ich eine gut vorselektierte memcontroller lottery.
Die Latenzen in dem Geekerwan Test sind besonders hoch bei Skymont. 194ns??? Das wäre die dreifache Latenz von Gracemont. Kann das überhaupt hinkommen?
https://youtu.be/TFu2iorqU_o?t=890
Demnach wären die E-Kerne viel stärker betroffen. Eine Übertaktung der NGU von 2.6 auf 3.2 Ghz, D2D 2.1 auf 3.5 Ghz und Ringbus 3.8 auf 4.2 Ghz senkt die Latenz von 194ns auf 113ns. Das sind über 70%. Der meiste Gewinn müsste ja dann von der D2D Übertaktung kommen. Aber nur bei Skymont.
ZeroStrat
2024-11-06, 08:48:24
Die Latenzen in dem Geekerwan Test sind besonders hoch bei Skymont. 194ns??? Das wäre die dreifache Latenz von Gracemont. Kann das überhaupt hinkommen?
Ne, das passt nicht. Hier mal der Chips&Cheese Latenztest (full random access pattern), sauber ausgeführt mit Affinität auf P- und E-cores. Der Unterschied liegt bei unter 10%. Das ist top.
https://x.com/CapFrameX/status/1850266628652490777
Danke zunächst für den Richtwert. Gern auch Voltage für die kleinen aber sehr feinen e-cores. P-cores sind wohl recht uninteressant.
Die 4,1Ghz sind nun noch kein Meilenstein, hoffe da geht noch mehr. Mit welchem Bench misst du am liebsten den impact?
UV (falls du das meinst) ist so eine Sache bei Arrow Lake. Das führt schnell zu Bluescreens, wenn man es übertreibt. Ich würde das als letztes anfassen.
Ich teste die Auswirkungen auf die Performance immer mit dem Chips&Cheese Latenztest, VT3 und Gotham Knights/CP 2077/Spider-Man. AIDA64 eigentlich nur für die Bandbreite.
Ne, das passt nicht. Hier mal der Chips&Cheese Latenztest (full random access pattern), sauber ausgeführt mit Affinität auf P- und E-cores. Der Unterschied liegt bei unter 10%. Das ist top.
https://x.com/CapFrameX/status/1850266628652490777
Das sieht realistischer aus. Mit knapp 200ns könnte Skymont gar nicht so gut performen in SPEC zum Beispiel, das würde sich drastischer auswirken.
ZeroStrat
2024-11-06, 12:29:14
Das sieht realistischer aus. Mit knapp 200ns könnte Skymont gar nicht so gut performen in SPEC zum Beispiel, das würde sich drastischer auswirken.
Man muss sich einfach nur die Intercorelatenzen anschauen. Die höhere Zugriffszeit von P nach E ist das, was man als Delta draufaddiert. Schlimmer kann es nicht sein, denn vom Ring bis RAM ist ja immer gleich.
Der_Korken
2024-11-06, 13:13:28
Von Geekerwan gibt es SPEC Werte bei 4 Ghz: https://youtu.be/TFu2iorqU_o?t=158
Skymont liegt hier tatsächlich knapp über Raptor Cove. Zu Lion Cove sind es knapp 8% Integer und 3% FP.
Interessant, dass sich die Werte doch sichtbar von den mobilen Varianten unterscheiden:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13642469&postcount=6384
Wenn man den P-Core vom 258V nimmt, ist der Skymont aus dem 285K quasi gleichauf. Liegt das nur an der Cache-Config? Dann müsste ein Skymont mit eigenem 2MB-L2 und exklusivem Ring-Stop gleichauf mit dem P-Core aus dem 285K sein.
Wenn man das verlinkte Video auf 13:10 spult, sieht man, dass beim OC die P-Cores auf 5,6Ghz gingen und die E-Cores auf 5,1Ghz. Also gerade mal 10% Unterschied :freak:. Es hat sich ja bei den Specs schon angedeutet, dass die E-Cores nicht so am Limit laufen, da auch die kleinen Modelle 4,6Ghz schaffen, während die großen Kerne taktmäßig immer weiter zurückgeschraubt werden.
Das müsste man sich mal geben: Man ersetzt die 8 Lion-Cove-Kerne mit 8 weiteren Skymont-Kernen, die einfach einen L2 und Ring-Stop für sich haben und für mehr Takt freigegeben sind und erhält dann eine deutlich sparsamere und günstigere CPU, die lediglich im Peak-ST 10% auf den jetzigen 285K verliert :freak:
fondness
2024-11-06, 13:16:12
Interessant, dass sich die Werte doch sichtbar von den mobilen Varianten unterscheiden:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13642469&postcount=6384
Wenn man den P-Core vom 258V nimmt, ist der Skymont aus dem 285K quasi gleichauf. Liegt das nur an der Cache-Config? Dann müsste ein Skymont mit eigenem 2MB-L2 und exklusivem Ring-Stop gleichauf mit dem P-Core aus dem 285K sein.
Wenn man das verlinkte Video auf 13:10 spult, sieht man, dass beim OC die P-Cores auf 5,6Ghz gingen und die E-Cores auf 5,1Ghz. Also gerade mal 10% Unterschied :freak:. Es hat sich ja bei den Specs schon angedeutet, dass die E-Cores nicht so am Limit laufen, da auch die kleinen Modelle 4,6Ghz schaffen, während die großen Kerne taktmäßig immer weiter zurückgeschraubt werden.
Das müsste man sich mal geben: Man ersetzt die 8 Lion-Cove-Kerne mit 8 weiteren Skymont-Kernen, die einfach einen L2 und Ring-Stop für sich haben und für mehr Takt freigegeben sind und erhält dann eine deutlich sparsamere und günstigere CPU, die lediglich im Peak-ST 10% auf den jetzigen 285K verliert :freak:
Jup die p cores sind unfassbar ineffizient. Und selbst Single threaded kaum mehr besser.
Der_Korken
2024-11-06, 13:22:01
Jup die p cores sind unfassbar ineffizient. Und selbst Single threaded kaum mehr besser.
Im Grunde kann Intel spätestens jetzt die Entwicklung weiterer P-Cores einstellen. Die haben jetzt 3 Jahre seit Golden Cove entwickelt und trotz massiver Verbreiterung kaum Leistung rausgeholt. Wenn man die Entwicklung fortsetzt, würden mit der nächsten Gen die E-Cores IPC-technisch locker 10% vorne liegen und die P-Kerne quasi obsolet. Eigentlich hätten die sich die Entwicklung von Lion Cove komplett sparen und die alten Raptor Coves shrinken sollen, um die Zeit zur nächsten E-Core-Generation zu überbrücken.
ZeroStrat
2024-11-06, 13:53:54
Im Grunde kann Intel spätestens jetzt die Entwicklung weiterer P-Cores einstellen. Die haben jetzt 3 Jahre seit Golden Cove entwickelt und trotz massiver Verbreiterung kaum Leistung rausgeholt.
Ein P-Core kann mehr als das was mit einem SPEC Test abgedeckt wird. Die haben z.B. ihren eigenen private L2 Cache und der ist mit 3MB üppig. Die ganzen Prefetching Daten landen z.B. dort.
Man fragt sich schon, was ausgehend von Raptor Cove mit den ganzen Verbreiterungen und dem neuen Caching geworden ist. Kam ja nun nichts bei rum. Und ob die Taktregression aus dem Prozess kommt oder evtl. sogar aus dem Design (denn die Skymonts takten ja in dem Prozess höher als Gracemont in Intel 7) wissen wir auch nicht. Ich hatte mir viel erwartet aber scheint schon ein ziemlicher Fail zu sein.
Man stelle sich vor, 2 Raptor Cove Cores mit 6.4 Ghz max., 32 Skymonts und 60MB L3. Der würde rennen und wäre auch nicht größer.
KarlKastor
2024-11-06, 14:19:39
Wenn man den P-Core vom 258V nimmt, ist der Skymont aus dem 285K quasi gleichauf. Liegt das nur an der Cache-Config? Dann müsste ein Skymont mit eigenem 2MB-L2 und exklusivem Ring-Stop gleichauf mit dem P-Core aus dem 285K sein.
Das ist ein SC Test. Der Skymont hatte 4 MB und einen Ringstop für sich alleine. 8P vs 8E Cores wird der Unterschied größer ausfallen.
Tarkin
2024-11-06, 15:07:58
told you LOL. Da braucht der 9800X3d ned mal 10% schneller wie der 7800X3d sein... es reichen weniger als 10% (laut aktuellen Gerüchten werden es 8%)
Abstand (ohne RAM OC) 285K zum 7800X3d laut CB und HWUB: ca 19-20%
Mit einem Plus von 8% zusätzlich auf Zen 4 X3D werden es dann 28,5%
Durchschnitts FPS 7800X3D: 138 >> +8% = 149
Ergibt zu den 116fps vom 285K ein Plus von 28,44%
"Bulldozeresker" Abstand würde ich sagen.
Das muss man sich mal auf der Zunge zergehen lassen - und Intel nutzt sogar einen moderneren Fertigungsnode!
Die haben WIRKLICH ziemlich Shice gebaut. Das Ding ist overengineered bis zum Gehtnichtmehr, irre komplex und sauteuer in der Produktion - Wahnsinn. Und man schafft es nicht mit dem ganzen Foveros/Emib Zirkus, gegen Technik aus dem Jahre 2019 anzustinken (Zen 2 Packaging Technik). Peinlich ist kein Ausdruck.
LOL, der Abstand ist sogar noch wesentlich deutlicher - 38% laut CB - irre!!!
das ist bzw... ziemlich der gleiche Abstand wie BULLDOZER (Vishera) vs Kaby Lake (!)
muss man sich ja echt mal auf der ZUNGE zergehen lassen!!
Interessant, dass sich die Werte doch sichtbar von den mobilen Varianten unterscheiden:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13642469&postcount=6384
Wenn man den P-Core vom 258V nimmt, ist der Skymont aus dem 285K quasi gleichauf. Liegt das nur an der Cache-Config? Dann müsste ein Skymont mit eigenem 2MB-L2 und exklusivem Ring-Stop gleichauf mit dem P-Core aus dem 285K sein.
Mobile ist immer ein paar Prozent langsamer. LPDDR hat sehr schlechte timings, niedriger taktender Uncore, aggressiveres Power Management kann hier und da kosten usw. Dass die Skymont bei gleichen Takt derart nah dran sind an den dreimal so großen Cove, ist natürlich erschreckend ganz klar.
Jetzt war erst zu lesen, dass auf linkedin viele Core Architekten Intel Richtung Huawei und Nvidia verlassen. So blöd es auch klingt, es ist ein gutes Zeichen. Es nähert sich dem Ende, leider kommt noch ein major Cove+Tick davon und dann erst übernimmt Atom.
Der_Korken
2024-11-06, 16:14:15
Ein P-Core kann mehr als das was mit einem SPEC Test abgedeckt wird. Die haben z.B. ihren eigenen private L2 Cache und der ist mit 3MB üppig. Die ganzen Prefetching Daten landen z.B. dort.
Den 3MB-Cache kann ich auch an den Skymont hängen. Dann hätte er die hier (mutmaßlich) nicht abgebildeten Vorteile genauso.
Das ist ein SC Test. Der Skymont hatte 4 MB und einen Ringstop für sich alleine. 8P vs 8E Cores wird der Unterschied größer ausfallen.
Mir ging es nicht um P-Core vs E-Core, sondern P-Core vs P-Core. Arrow Lake hat knapp 8% mehr IPC als Lunar Lake trotz gleichem Core. Was den Verdacht nahelegt, dass der größere Cache hier einen Einfluss hat und somit auch Skymont nochmals profitieren würde, wenn man ihm einen privaten L2 mit besseren Latenzen spendieren würde. Der mickrige Vorsprung von 3 bzw. 8% in Spec2017 würde also nochmal schrumpfen oder gar verschwinden.
Mobile ist immer ein paar Prozent langsamer. LPDDR hat sehr schlechte timings, niedriger taktender Uncore, aggressiveres Power Management kann hier und da kosten usw.
OK, dann hätte Arrow-Lake-Skymont die Vorteile schon drin. Bleibt noch die Tatsache, dass er mit OC auf 10% Taktnachteil aufschließen kann.
fondness
2024-11-06, 16:19:20
Mobile ist immer ein paar Prozent langsamer. LPDDR hat sehr schlechte timings, niedriger taktender Uncore, aggressiveres Power Management kann hier und da kosten usw. Dass die Skymont bei gleichen Takt derart nah dran sind an den dreimal so großen Cove, ist natürlich erschreckend ganz klar.
Jetzt war erst zu lesen, dass auf linkedin viele Core Architekten Intel Richtung Huawei und Nvidia verlassen. So blöd es auch klingt, es ist ein gutes Zeichen. Es nähert sich dem Ende, leider kommt noch ein major Cove+Tick davon und dann erst übernimmt Atom.
Ja das brutale ist, man muss das ja auch mal Cache bereinigt sehen. Der p core hat riesige Caches im Vergleich zu den e cores. Dann sind die e cores vermutlich längst vorne.
Und bei den Architekten ist halt immer die Frage ob die richtigen gehen. Sitzt das p core Team nicht in Isreal? Die werden nicht so leicht wechseln können.
Undertaker
2024-11-06, 16:40:05
Das müsste man dann allerdings auch Content-bezogen erst einmal benchen, starke Cache-Abhängigkeiten haben wir beispielsweise vorrangig in Spielen. In vielen Anwendungen, gerade Klassikern wie Cinebench, sieht man davon faktisch keinen Benefit. Insofern ist es zu kurz gegriffen, von einer Cinebench-IPC abzuleiten, dass alle (im Falle von Cache extrem flächenhungrigen) Unterschiede zwischen den P- und E-Cores hier gut in entsprechender Mehrleistung sichtbar sind. Bei einem E-Core geht es darum, die low hanging fruits abzugreifen, während ein P-Core eher Fläche und Energie für Optimierungen in Corner Cases verpulvern darf.
Hat schon einmal jemand taktnormierte Gaming-Benches zwischen P- und E-Cores gefahren?
Undertaker
2024-11-06, 16:42:49
Mir ging es nicht um P-Core vs E-Core, sondern P-Core vs P-Core. Arrow Lake hat knapp 8% mehr IPC als Lunar Lake trotz gleichem Core.
Ich meine damals bei der LL-Vorstellung gab es die Aussage, dass die P-Cores nicht gänzlich identisch zu ARL sind. Details sind mir jetzt nicht (mehr) bekannt, das könnte aber ebenfalls einen Teil der Differenz erklären.
mboeller
2024-11-06, 16:48:34
Rant:
und weil die E-Cores so gut sind will Intel in Zukunft nur noch die P-Cores weiterentwickeln und nutzen...
Ryan hatte schon mal Gerüchte dazu gepostet und hier das gleiche von Notebookcheck:
https://www.notebookcheck.net/Griffin-Cove-and-Nova-Lake-IPC-Intel-to-follow-AMD-s-lead-and-trash-current-E-core-design-as-new-P-cores-leak.905075.0.html
unfassbar, wenn es stimmt
Undertaker
2024-11-06, 18:00:14
Ich denke es ist nicht zielführend, die P-Core- und E-Core-"Welt" so völlig separat voneinander zu betrachten. ;) Gute Design-Ideen werden generell in beide Richtungen fließen und am Ende scheint die grundsätzliche Erkenntnis allenfalls zu sein, dass die bei Alder Lake ursprünglich mal sehr umfangreichen Differenzen offenbar sukzessive kleiner werden. Falls das tatsächlich in einem mehr oder weniger einheitlichen Kern für beide Anwendungsfälle münden sollte, der dann vielleicht nur noch in wenigen Details wie z.B. Cachegröße auf den jeweiligen Einsatzzweck angepasst ist, ist es doch völlig egal, ob man diesen dann als E- oder P-Core Abkömmling ansieht - er wird in jedem Fall die Erkenntnisse aus beiden aktuellen Designs in sich tragen.
Rant:
und weil die E-Cores so gut sind will Intel in Zukunft nur noch die P-Cores weiterentwickeln und nutzen...
Ryan hatte schon mal Gerüchte dazu gepostet und hier das gleiche von Notebookcheck:
https://www.notebookcheck.net/Griffin-Cove-and-Nova-Lake-IPC-Intel-to-follow-AMD-s-lead-and-trash-current-E-core-design-as-new-P-cores-leak.905075.0.html
unfassbar, wenn es stimmt
Griffin Cove ist der letzte Cove von der jetzigen Core Architektur aus Israel. Danach übernimmt unified Atom. MLID behauptet, Griffin Cove wäre eine neue Architektur, was aber falsch ist. Ob sie den neuen Atom überhaupt Cove nennen, wäre schon fast zu bezweifeln. Eher nutzen sie weiter Tiernamen.
iamthebear
2024-11-07, 18:56:29
Hat eigentlich schon jemand einen ARL P vs. E Core Test in einem breiteren Testfeld gemacht?
Spec halte ich der Hinsicht für nicht representativ. Dort war der IPC Unterschied zwischen Golden Cove und Gracemont lediglich 20% (INT) und 40% (FP).
Techpowerup hatte damals in einem kompletten Testfeld mit dem 12900K einen Unterschied von 53% gemessen und die haben einen sehr ausgewogenen Parkour. Das ist jetzt auch nicht nur eine INT vs. FP Frage. Ich habe ein paar meiner reinen Integer Workloads gemessen und dort sind es auch um die 50%.
Daredevil
2024-11-08, 23:54:46
Und damit Intel auch im Gespräch bleibt: OS und Bios Optimierungen sollen kommen, Gaming Inkonsistenz soll gefixt werden.
Intel confirms Core Ultra 200 launch didn’t go as planned, promises performance fix by early December
https://videocardz.com/newz/intel-confirms-core-ultra-200-launch-didnt-go-as-planned-promises-performance-fix-by-early-december
Komplettes Interview:
P2OHRH7221w
aufkrawall
2024-11-09, 00:00:44
Thread Director kacke für Gaming eingestellt? Obwohl, das erklärt die seltsamen Latenz-Abweichungen zwischen den Kernen nicht.
Sardaukar.nsn
2024-11-09, 00:00:53
@Daredevil: Ich halte das für gar nicht so unrealistisch und bin da vorsichtig optimistisch das auf der neuen Intel Architektur in Zukunft noch was geht.
ChaosTM
2024-11-09, 00:05:01
Zen lief anfangs auch nicht besonders gut.
Neue Architektur und so ..
Da liegt wohl noch viel Leistung brach
davidzo
2024-11-09, 00:16:25
Und damit Intel auch im Gespräch bleibt: OS und Bios Optimierungen sollen kommen, Gaming Inkonsistenz soll gefixt werden.
Naja, "Inkonsistenzen" zu fixen heißt nicht dass generell die gaming performance steigt, was aber nötig wäre.
Intel has learned from reviewers that in certain configurations, performance data sometimes diverges significantly from Intel’s official results.
Intels offizielle resultate sind immer noch –0,3% gegenüber Raptorlake und –4,6% gegenüber dem 7950x3d, beides in ausgesuchten Titeln.
Also immer noch nicht wirklich gut.
Specifically, gaming performance in some cases did not align with Intel’s communicated expectations. The good news is that a fix may be on the way.
In some cases heißt dass es in den meisten cases eben doch mit Intels expectations aligned hat.
Ich erwarte nichts Großes von dem Fix dass das allgemeine Bild nochmal ändern würde.
Sardaukar.nsn
2024-11-09, 00:22:30
Zen lief anfangs auch nicht besonders gut.
Neue Architektur und so ..
Da liegt wohl noch viel Leistung brach
Die Rohleistung in Single- und Multithread ist auch voll da. Kommt nur noch nicht in den Spielen an. Ich seh das ganz entspannt als ne sehr gut Ausgangsbasis für einen gesunden Wettbewerb.
Daredevil
2024-11-09, 00:38:55
Naja, "Inkonsistenzen" zu fixen heißt nicht dass generell die gaming performance steigt, was aber nötig wäre.
Das schreibt ja auch keiner.
Wenn inkonsistente Werte eliminiert werden und damit die durchschnittliche Performance Overall in einem Gameparcour steigt, kommt ein z.B. 265K schon näher an einen 7800X3D ran.
Bei CB ist der 7800X3D gegenüber dem 265K 21% schneller, was den Schnitt aber extrem runterzieht sind solche Games, wo der 265k/Arrow Lake versagt und wo die X3D CPU schneller ist:
Anno +35%
Baldurs Gate +38%
CP2077 +31%
F124 +36%
Homeworld +35%
Outcast +40%
Das sind z.B. 6/16 Spiele aus dem CB Parcour, wo Arrow Lake deutlich unter dem Schnitt abliefert. Ob man Arrow Lake allgemein noch ein wenig Gaming freundlicher machen kann und die Performance nach oben bringen kann? Das steht natürlich in den Sternen, aber wenn man Ausreißer eliminiert, sofern das keine schwäche der Architektur ist bzw. Stärke des X3D, ist damit schon ein wenig was gewonnen.
Btw. zum Video:
Intel will offenbar ganz Transparent mit den Fixes umgehen und genau aufzeigen, welche Maßnahmen wo getroffen worden sind und was sie an Performance bringen. Ungewohnt offen, Intel hat ja gerade eh noch die Raptor Lake Feuerlöscher in der Hand. :D
Intel hat versprochen, das Arrow Lake das gleiche wie Raptor Lake liefern soll im Gaming bei geringerem Verbauch und Hallock sagt, das wollen sie auch liefern, er ist sehr zuversichtlich. Nicht nur Gaming Performance soll steigen, sondern auch Anwendungsperformance.
65w Modelle sollen auch noch auf 1851 erscheinen.
Zossel
2024-11-09, 09:37:17
Thread Director kacke für Gaming eingestellt? Obwohl, das erklärt die seltsamen Latenz-Abweichungen zwischen den Kernen nicht.
Je geringer der Unterschied zwischen schnell und langsam, desto irrelevanter wird dieser Hinweisgeber.
Bedenke auch das auch ein dem OS bekannter Thread (nur in diesem Fall kann der Hinweisgeber einigermaßen sinnvoll raten bzw. die Zukunft vorhersagen) nicht zwingend in jeder Zeitscheibe das mehr oder weniger gleiche tut.
Und wenn man Rumms will geht man immer mehr dazu über Context-Switches durch übermäßig viele OS-Threads zu vermeiden und logische Anwendungs-Threads komplett im User-Space zu verwalten. Dieses Programmiermodell macht diesen Hinweisgeber völlig obsolet.
Also klammere dich dich besser nicht an diesen Hinweisgeber, das hat eh keine Zukunft. Die Anwendungen müssen sich darum kümmern.
Badesalz
2024-11-12, 12:51:19
Das sind z.B. 6/16 Spiele aus dem CB Parcour, wo Arrow Lake deutlich unter dem Schnitt abliefert. Ob man Arrow Lake allgemein noch ein wenig Gaming freundlicher machen kann und die Performance nach oben bringen kann?Das ist aber nicht der Link oder (unten)? Kann die von dir erwähnten Prozente nicht finden
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-7-9800x3d-test.90151/seite-2#abschnitt_baldurs_gate_3
Und 6 von 16, sind das nicht über 37% oder so? Jener Schnitt der äh... von dem Rest (?) runtergezogen wird, ergibt sich also aus 63%? :| Ich selbst bin es zwar nicht, aber vom Gefühl her könnte ich mir vorstellen, daß die dem beigelegte Prosa einen Berufsstatistiker triggern könnte...
Unter meinem Link, aber mit deiner Liste, sind das alles Spiele wo der 285k (mit 8200CL38!) angeblich so unterm Schnitt abliefert, imho maximal um die 9% hinter einem ebenfalls gepimpten 14900k ist. Bestenfalls scheint er bei +10% zu liegen. In 1-2 Spielen von 16.
Und nenneswert schneller als der Gen14 wird er wohl kaum werden. Sagt Intel. Intel geht es aktuell um die Erfüllung dessen was die Folien zeigten wo er nicht bei -9% hinter Gen14 lag...
Die mouse over Funktion bei Space Marine (von dir nicht in die Liste aufgenommen), zeigt mir unter 1%MinFPS den 9800X3D +57% vor dem aufgedrehten 285k.
Lohnt sich das denn wirklich über weitere Fixes zu reden?
mocad_tom
2024-11-12, 17:51:32
https://x.com/OneRaichu/status/1856188360043434305
oneraichu hat auf twitter seine analyse zu ARL-S gepostet.
Er ist aber seinen Account auf private gestellt
Die Rohwerte zu SpecInt und SpecFp schauen eigentlich ganz gut aus.
Schauen wir mal, was die Firmware updates noch so bringen.
Badesalz
2024-11-12, 18:35:53
"Rohwerte"... Was ist das denn nochmal? Vor Ultra200 kannte ich das nur von den Börsen.
Gibt es mittlerweile auch einen Rohtakt? Rohverbrauch?
Zossel
2024-11-12, 18:48:06
"Rohwerte"... Was ist das denn nochmal? Vor Ultra200 kannte ich das nur von den Börsen.
Gibt es mittlerweile auch einen Rohtakt? Rohverbrauch?
Mach dir darüber keine Gedanken, auch der 6502 konnte schon eine gewisse Anzahl an Additionen/Zeit maximal ausführen.
dildo4u
2024-11-15, 21:48:39
Mobile Geekbench Werte der Ultra 7 scheint im Bereich von Strix 370?
https://videocardz.com/newz/msi-summit-16-ai-evo-leaks-with-core-ultra-7-255h-and-ultra-5-225h-arrow-lake-h-cpus
https://www.cpu-monkey.com/en/benchmark-amd_ryzen_ai_9_hx_370-geekbench_6_multi_core
mocad_tom
2024-11-20, 09:34:10
Erste CUDIMM Module gelistet
https://geizhals.de/?cat=ramddr3&xf=15903_DDR5%7E15903_mitCKD
Badesalz
2024-11-20, 09:43:47
Erste CUDIMM Module gelistet
Wow hätt ich echt nicht gedacht. Ist doch fast geschenkt :uup:
Undertaker
2024-11-20, 15:52:14
Bezogen auf die Taktraten sind die Preise nicht einmal höher als bei High-End DDR5. Aber: Wir sprechen über erste Listings noch ohne Verfügbarkeit. Da wird sich in den nächsten Wochen noch einiges bewegen, die Zeit sollte man abwarten.
Badesalz
2024-11-21, 10:10:51
Bezogen auf die Taktraten sind die Preise nicht einmal höher als bei High-End DDR5. Das schon, aber ich denke eher die realen Zugewinne wird die Metrik werden nach welcher man das dann beurteilt.
(mit real war kein Cinebenchen gemeint)
Wie vorher jemand auf hwluxx feststellte hat JayZ den 285k mit den Kingstons (?) schon einmal gebencht. Was wie festgestellt wurde den 285k dazu befähigt hat sich beim Zocken mit dem 7800X3D zu duellieren.
Wieviel darf man da sonst noch erwarten auf 1851? Ab 9000 gibt es nur Gear4 und das wird sich eher nicht so schnell ändern.
9000 geht wohl meistens recht easy noch ohne CUDIMMs. Ab 9400-9600 dann CUDIMM und Gear 4, das macht eigentlich keinen Sinn. Lieber normale DIMMs und ans Gear 2 Limit fahren.
bbott
2024-11-21, 16:27:40
9000 geht wohl meistens recht easy noch ohne CUDIMMs. Ab 9400-9600 dann CUDIMM und Gear 4, das macht eigentlich keinen Sinn. Lieber normale DIMMs und ans Gear 2 Limit fahren.
Wann hat es sich bei RAM schon mal gelohnt auf die neuste Gen/ Technik zu setzen?
Meistens war erst die Zeite Generation im Vorteil. Man Zahlt nur Early Adapotor Aufpreis, bekommt häufigg Kinderkrankheiten oben drauf und darf hoffen das es gefixt wird...
Right, ab 2nd Gen wird dann interessant.
Ich hoffe ja unterdessen immernoch, dass mal ICs mit besseren Timings kommen. Die 8600 mit 34-40-40 oder so und die Bude rennt noch mal erheblich schneller.
Slipknot79
2024-11-23, 03:17:34
Kommen überhaupt die memory controller der CPUs klar mit den Taktraten der KUHDIMM? Oo
y33H@
2024-12-12, 23:49:31
Ggf zur Selbstreflektion: Ich finde dass man dir das deutlich anmerkt, dass du für Intel arbeitest. Früher zu Redakteurzeiten hattest du keinen Bias, ggf kannst du das ja (das habe ich immer an dir geschätzt) in deiner privaten Zeit (Forum ist ja private Aktivität) wieder zurück drehen. Man merkt, dass du nicht besonders kritisch bist, wenn es um deinen Arbeitgeber geht in deinen Posts. Versuchst, es möglichst positiv darzustellen. Klar kann ich verstehen - ist ja irgendwo auch öffentlicher Raum - aber ggf postet man dann lieber gar nichts mehr zu den Thema in denen man befangen ist. Nur ein gut gemeinter Ratschlag - bitte nicht als Angriff auffassen.Ich versuche wie eh und je (bewusst) falsche Aussagen zu korrigieren/widerlegen, idR von den üblichen Verdächtigen --- durch den Job habe ich nun freilich noch mehr Daten und Wissen als früher. Aber ja, Ratschlag ist zur Kenntnis genommen.
davidzo
2024-12-21, 16:07:52
Ziemlich vernichtende Analyse von Arrowlakes Cachesystem: https://chipsandcheese.com/p/examining-intels-arrow-lake-at-the
Was stimmt alles nicht?
- Cross-Core Latencies sind trotz Interposer gerade mal auf dem Niveau von Zen5 der in dieser Hinsicht eher eine Regression zu vorherigen Zens ist:
Worst case latency between P-Cores can approach cross-CCD latency on AMD’s chiplet designs. It’s an interesting result considering AMD has to cross two die boundaries to carry out a cache-to-cache transfer across CCDs.
- Bei AMD kommt die cross core latency aber nur bei mehr als 8Cores und der 32MB l3 liegt noch davor. Bei Intel liegt der 36MB l3 erst dahinter, was die katastrophale gamingperformance erklärt.
Within Intel’s lineup, a single P-Core’s L3 bandwidth hasn’t improved over what Skylake achieved nine years ago.
- Ich habe das Gefühl Intel hat seit Haswell und Skylake vor zehn Jahren keine eindeutigen Fortschritte bei der Cache Hierachie in Bezug auf Latenzkritische workloads gemacht und lediglich größer und breiter skaliert. Die aktuelle Cache Hierachie von Intel ist für Latenzkritische Anwendungen höchstens ein Sidegrade zu vor zehn Jahren.
Intel’s L3 performance has lagged behind AMD for a few generations, but Arrow Lake is a notable improvement. [...] Still, Intel stops short of matching AMD in absolute terms. Even an older 16-core AMD part like the Ryzen 9 3950X enjoys higher L3 bandwidth. The current generation Ryzen 9 9900X pulls ahead of both by a significant margin. Combine that with AMD’s lower latency to L3, and Arrow Lake’s L3 doesn’t look so great.
- Auch bei der Gesamtbandbreite ist der L3 schlechter als selbst Zen2. Das muss man sich mal auf der Zunge zergehen lassen, Zen2 hat die bessere L3 Latenz und eine höhere Bandbreite als Arrowlake.
CPU interconnects also need to minimize latency. Arrow Lake’s chiplet set up is less impressive in this regard. Over 100 ns of DRAM load-to-use latency is high for a desktop CPU. Intel didn’t have a problem with DRAM latency in the past.
- Man ist in jeder Cachstufe unterlegen zu Zen5 in Bezug auf Latenz und Bandbreite, teils mit enormem Abstand.
- first Level cache schon mit 50% weniger Bandbreite als Zen5
- Second und third level private caches Bereits mit erheblich mehr Latenz als AMD.
- Der L3 ist eine einzige Katastrophe, hätte man auch weglassen können, bietet er doch nur knapp eine Latenz wie die DRAM Latenz früherer CPU Generationen.
L3 load-to-use latency on Arrow Lake is north of 80 cycles from a P-Core [...] AMD’s Zen 5 enjoys very low L3 latency, much like prior Zen generations. Each CCX on AMD has 32 MB of L3 cache, giving it comparable capacity to Arrow Lake’s L3.
- Und das obwohl der 36MB große L3 von Intel trotz TSMC N3B ca. die doppelte Fläche einnimmt wie Zen4s 32MB in TSMCs N4P. Die Density ist grauenvoll schlecht.
Intel still focuses on building a monolithic-feeling design.
Anstatt den offensichtlichen Rückstand gegenüber AMDs cache Ladder und Qualcomms, ARMs und Apples Cores anzugehen hat man lieber weiter am Core rumgebastelt, die PPA weiter verschlechtert und den Cache nur noch verschlimmbessert.
Intel likely didn’t have engineering time left to improve other aspects like L3 performance or capacity.
Aua. Das von einem Profi zu hören heißt soviel wie: Interessante CPU aus theoretischer Sicht, aber für produktive Nutzung lieber noch 1-2 verbesserte Generationen abwarten.
And with the difficult initial chiplet design work out of the way after Meteor Lake and Arrow Lake, perhaps Intel will find they have engineering bandwidth available to address L3 and DRAM latency. If they can pull that off, Intel’s huge out-of-order execution engines can shine.
Wie Intel trotz Verschiebung und Launch in bereits veralteten Nodes (N3P wäre verfügbar statt N3B) immer zu wenig Zeit hat will mir nicht in den Kopf.
Ich habe das Gefühl man wäre weitaus besser gefahren wenn man sich statt einer miesen Inhouse Cache Ladder lieber eine moderne externe IP für das Cache-Layout eingekauft hätte, zum Beispiel von Arms Cortex X4.
https://www.computerbase.de/artikel/prozessoren/intel-arrow-lake-mit-microcode-windows-und-spiele-updates-test.90508/
Die viel gehypten Microcode Updates haben auch wenig bis gar nichts gebracht, zumal wenn man vorher schon handgetunt hat. Der 285K verliert weiter gegen einen 14900K der wiederrum weiter langsamer als ein 7800x3d ist. Der 9800x3d ist schlicht außer Konkurrenz und es bräuchte zwei typische Intel Generationensprünge (5-11% pro Gen) um den einzuholen.
Undertaker
2024-12-21, 17:09:35
Fragt sich dann nur, an welchen Stellen ARL dann wiederum solche großen Vorteile hat, um in Spielen unterm Strich dann doch wieder faktisch genau auf Zen5-Level ohne X3D herauszukommen?
basix
2024-12-21, 17:19:24
Fragt sich dann nur, an welchen Stellen ARL dann wiederum solche großen Vorteile hat, um in Spielen unterm Strich dann doch wieder faktisch genau auf Zen5-Level ohne X3D herauszukommen?
Fette Out-of-Order Ressourcen. Das hilft um Latenzen zu verstecken. Und der grosse L1.5 / L2 sind sicher auch nicht nachteilig.
Cache-Bandbreite ist bei Spielen nicht so wichtig.
Der_Korken
2024-12-21, 17:46:18
@davidzo
Ich lese das nicht so negativ raus aus dem Artikel.
Core-to-core latency:
Die E-Cores sehen hier eigentlich ganz gut aus. Innerhalb eines Clusters so schnell wie bei AMD innerhalb eines Cores (SMT) und zwischen den Clustern im Schnitt so schnell wie bei AMD innerhalb eines CCX. Was hier massiv abfällt, sind die P-Cores. C&C äußert hier den Verdacht, dass es am "L1.5D" liegen könnte, da auch Lunar Lake mit einem winzigen Ringbus sehr schlechte P-to-P-Latenzen zeigt. Zusätzlich könnte man sogar anführen, dass einige E-Cluster auf dem Ring weiter entfernt sind als einige P-Cores, obwohl letztere dann immer noch massiv schlechtere Latenzen haben.
Ich selber lange Zeit gedacht, dass der L2 bei Intel inklusiv ist, da das bei Nehalem so eingeführt wurde und die Cache-Größen bis einschließlich Skylake nicht geändert wurden. Mit den Cove-Kernen wurde das afaik geändert, was immer komisch fand, da der L1D relativ gesehen weniger Platz im aufgebohrten L2 einnimmt als bis Skylake. Wenn das mit dem neuen L1.5D fortgeführt wurde, dann muss das ein einziger Kohärenz-Alptraum sein, da jeder Cache dann drei separate Caches hat, die alle nicht voneinander wissen, welche Zeilen sie gecached haben. AMD geht den entgegengesetzten Weg und hat den L1D komplett im L2 gespiegelt und afaik zusätzlich die L2-Tags (und somit auch die L1-Tags!) in die L3-Area gespiegelt. Intel könnte es sich locker leisten den L1D und L1.5D in den L2 zu spiegeln, um "auf einen Blick" zu sehen, was der Core intern so alles gecached hat (man verliert 240kB von 3072kB, also ca. 8%). Den L1 in den L1.5D zu spiegeln wäre zu teuer, aber auch nicht nötig, solange der L2 alles kennt.
L3-Bandbreite:
Hier sollte man erwähnen, dass Zen 2 hier außergewöhnlich gut aussieht, weil der 3950X vier (!) getrennte L3-Caches hat, deren Bandbreiten bei diesem Vergleich aufaddiert werden. Bei der Zen-3-Präsi hat AMD gesagt, dass die L3-Bandbreite bei Zen 3 gegenüber Zen 2 gleich geblieben ist, aber nur wenn man Cache für Cache vergleicht. Da ein L3 jetzt aber 8 statt 4 Kerne bedient, ist die Bandbreite pro Kern halbiert worden, sodass ein 5950X schlechter als ein 3950X dastehen würde.
Wo Intels L3 wirklich hinterher hinkt ist die ST-Bandbreite. Offensichtlich hat jeder Kern nur eine schmale Anbindung und die volle L3-Bandbreite kann erst bei deutlich mehr Parallelität abgerufen werden verglichen mit AMD. Ich weiß aber nicht, ob das unbedingt so ein großes Problem ist. Lion Cove hat dreimal so viel L2 und muss entsprechend seltener auf den L3 zugreifen. Außerdem frage ich mich, ob die hohe ST-Bandbreite bei AMD nicht auch sehr nachteilig für die Teillast-Effizienz sein könnte.
Cache-Latenzen:
- Man ist in jeder Cachstufe unterlegen zu Zen5 in Bezug auf Latenz und Bandbreite, teils mit enormem Abstand.
- first Level cache schon mit 50% weniger Bandbreite als Zen5
Das kann ich nicht so nachvollziehen. Der L1 hat etwa 15% weniger Bandbreite, aber sonst identische Größe und Latenzen. Der L2 hat 20% mehr Latenz bei dreifache Größe und gleicher Bandbreite. In Kombination mit dem L1.5D, der offensichtlich parallel durchsucht wird, sehe ich hier sogar eher Latenzvorteile bei Intel. Erst beim L3 fällt Intel stark ab (vor allem wenn man die Packdichte dazunimmt).
----
Imho hat sich Intel mit Lion Cove verzettelt. Die IPC-Gewinne werden durch die Taktregression aufgefressen, sodass sich der Kern kaum vom Vorgänger absetzen kann. Und das trotz des ganzen Aufwandes: Ein Achtfach-Decoder mit einer wahrscheinlich unfassbar komplexen Rename-Stage, aufgeteilte INT- und FP-Execution-Ports, die entsprechend größeren Scheduler-Kapazitäten und ein zusätzlicher Datencache. In Spec2017 kam vor einigen Wochen mal raus, dass Lion Cove und Skymont bei der IPC fast gleichauf sind und sich bestenfalls durch 10% Taktpotenzial unterscheiden. Wenn man sieht, dass der 9800X3D durch den 3D-Cache bei ST-Workloads fast zum 10% höher taktenden 9950X aufschließt, hätte man bei Arrow Lake auch einfach die P-Cores durch weitere Skymonts ersetzen können, die aber jeweils die fetteren Caches der Lion Coves bekommen und 500Mhz höher boosten dürfen. Eventuell wären 6+16 mit 10x4MB L3 sogar besser als 8+16 mit 12x3MB L3 gewesen, weil deutlich weniger Die-Space, weniger Verbrauch und außerhalb von harten MT-Workloads keine Nachteile (und selbst da vielleicht 10% weniger als der finale 285K).
Zossel
2024-12-21, 19:23:14
Fragt sich dann nur, an welchen Stellen ARL dann wiederum solche großen Vorteile hat, um in Spielen unterm Strich dann doch wieder faktisch genau auf Zen5-Level ohne X3D herauszukommen?
Und dann braucht Intel auch noch einen besseren Prozess dafür.
davidzo
2024-12-21, 19:42:49
Fragt sich dann nur, an welchen Stellen ARL dann wiederum solche großen Vorteile hat, um in Spielen unterm Strich dann doch wieder faktisch genau auf Zen5-Level ohne X3D herauszukommen?
Weil die 2 Chiplet Zen5s ohne Vcache eben keine Spiele CPUs sind? Dafür gibt es vom 5600x3d, 5700x3d über den 7800x3d und 7950x3d bis zum 9800x3d ja reichlich Auswahl.
Wenn man Tomaten mit gleichteuren Äpfeln vergleicht, dann muss der 285K gegen den 9800x3D antreten (und bald gegen den 9950x3d) und der 245k gegen den 9700x. Schon der 9700x mit nur 8 Kernen und max 5,5Ghz bietet dem 285K mit 24C / 5,7Ghz paroli und das bei einem Bruchteil der Kosten. und auch der 9600X behauptet sich gegen den 245K.
AMD weiß schon wieso sie für viel weniger Silizium noch dazu in einem nicht mehr wirklich cutting Edge Prozess noch soviel Geld nehmen können.
mboeller
2024-12-21, 20:44:58
AMD weiß schon wieso sie für viel weniger Silizium noch dazu in einem nicht mehr wirklich cutting Edge Prozess noch soviel Geld nehmen können.
und zumindest in Deutschland werden sie von den Selbstbauern auch noch voll belohnt:
https://www.notebookcheck.com/Peinliche-Verkaufszahlen-fuer-Intels-Arrow-Lake-Kuerzlich-verkaufte-CPUs-stammen-zu-93-von-AMD.935337.0.html
AMD Ryzen Prozessoren machten laut einem Beitrag von TechEpiphany in den letzten drei Wochen erstaunliche 93,26 % aller CPU-Verkäufe von Mindfactory aus. Der Marktanteil von 93 % entspricht 15.285 verkauften AMD Ryzen CPUs, während Intels kleiner Anteil von lediglich 6,74 % nur für etwa 1.105 verkaufte Prozessoren ausreicht.
Aus Intels Sicht ist besonders besorgniserregend, dass der Großteil seiner Verkäufe auf die CPUs der 13. und 14. Generation entfallen ist.
Undertaker
2024-12-21, 21:11:18
Weil die 2 Chiplet Zen5s ohne Vcache eben keine Spiele CPUs sind? Dafür gibt es vom 5600x3d, 5700x3d über den 7800x3d und 7950x3d bis zum 9800x3d ja reichlich Auswahl.
Das war doch gar nicht die Frage, sondern warum Zen5 ohne X3D gegenüber ARL bei vergleichbarem Takt trotzdem nur auf dem gleichen Niveau landet. Wenn man den Caches bei ARL Schwächen ankreidet, scheinen dies dann offenbar durch Überlegenheit an anderer Stelle ausgeglichen zu werden. Wo genau, ist dann die spannende Frage. :)
rentex
2024-12-21, 21:36:46
und zumindest in Deutschland werden sie von den Selbstbauern auch noch voll belohnt:
https://www.notebookcheck.com/Peinliche-Verkaufszahlen-fuer-Intels-Arrow-Lake-Kuerzlich-verkaufte-CPUs-stammen-zu-93-von-AMD.935337.0.html
Und jetzt?
Der_Korken
2024-12-21, 22:08:08
Das war doch gar nicht die Frage, sondern warum Zen5 ohne X3D gegenüber ARL bei vergleichbarem Takt trotzdem nur auf dem gleichen Niveau landet. Wenn man den Caches bei ARL Schwächen ankreidet, scheinen dies dann offenbar durch Überlegenheit an anderer Stelle ausgeglichen zu werden. Wo genau, ist dann die spannende Frage. :)
Z.B. beim IOD und Memory Controller. Vanilla Zen 4 war in Spielen ein gutes Stück hinter Raptor Lake und generell sehr viel anfälliger bei schlechten RAM-Einstellungen. Tuning hat hier prozentual viel mehr gebracht als bei Raptor Lake, der vom Verhalten deutlich näher an Zen 4 3D war als am Zen 4 ohne 3D. Das überträgt sich auch auf Zen 5, der den selben IOD benutzt. Schlimmer noch, mittlerweile bremst der IOD die Kerne sogar in Anwendungen leicht aus, was bei Zen 4 nicht der Fall war. Die IF-Links sind so langsam, dass die Bandbreite vom IOD zu einem CCD theoretisch durch DDR5-4000 (!) saturiert werden könnte. Beim Schreiben sind sie sogar nur halb so schnell. Arrow Lake benutzt ein besseres Packaging und hat einen Teil dieser Limitierungen nicht. Zudem scheint der IMC bei Arrow Lake sehr performant zu sein, was wegen der schlechten Die-to-Die-Latenzen aber nicht zur Geltung kommt.
Ansonsten kann man sich auch mal die rohen Stats der Kerne angucken: https://drive.google.com/drive/folders/1W4CIRKtNML74BKjSbXerRsIzAUk3ppSG
Lion Cove hat immer noch einen knapp 30% größeren ROB, etwas mehr Scheduler-Entries und kann alle 8 Decoder für einen Thread nutzen. Wobei die Kern-Ressourcen selber anscheinend gar nicht so relevant sind, wenn man sich anguckt, wie stark Zen 4 zu Zen 5 verbreitert wurde und wie wenig das in Spielen gebracht hat.
iamthebear
2024-12-21, 23:29:28
Ich denke dass die schlechte Performance des Ringbusses bei ARL eine bewusste Designentscheidung ist um im busy idle energieeffizienter zu werden, was in Hinblick auf den deutlich größeren Laptopmarkt durchaus Sinn ergibt.
Sowohl Raptor Lake aber auch alle aktuellen Desktop Zens haben einen sehr viel höheren Verbrauch im Teillastbetrieb.
reaperrr
2024-12-22, 07:40:31
Wenn man den Caches bei ARL Schwächen ankreidet, scheinen dies dann offenbar durch Überlegenheit an anderer Stelle ausgeglichen zu werden. Wo genau, ist dann die spannende Frage. :)
Einfach nur "mehr von allem", L1.5, L2, breiterer Decoder, größerer ROB usw., also Transistoren aufs Problem schmeißen, wie es Intel seit Ice Lake halt konsequent und ohne Rücksicht auf (finanzielle) Verluste tut.
Wobei da nichts spannendes bei ist.
Die "Überlegenheit" kommt einfach von der Transistor-Brechstange.
Und "ankreiden" bzgl. der Cache-Kritik suggeriert so ein wenig "ist das nicht übertrieben?".
Die Antwort lautet "nein, ist es nicht", weil der LionCove-Kern gemessen am Transistoraufwand eben mindestens ~20% - bzw. da, wo ARL besonders schlecht ist auch mal 30-50+% - schneller sein müsste.
Ringbus/L3- und Chiplet-Konstrukt von Intel machen hier einfach viel zunichte.
Das war doch gar nicht die Frage, sondern warum Zen5 ohne X3D gegenüber ARL bei vergleichbarem Takt trotzdem nur auf dem gleichen Niveau landet.
Was heißt "nur"?
Lion Cove müsste von den Specs je MHz viel schneller als Zen5 sein, zumal der teils auch noch vom veralteten IOD ausgebremst wird, wie Der_Korken schon erwähnt hat.
Das ist so ein bisschen, als würdest du fragen, warum der 100 PS Skoda nur die Beschleunigung und Höchstgeschwindigkeit des 200 PS BMW schafft...
Der L2 wird in Spielen den Hauptunterschied machen.
Lion Cove wird durch den fetten L2 teilweise gerettet, weil nur dank diesem seltener auf Ringbus, L3 und Speicher zugegriffen werden muss.
Zen5 könnte einen 2MB L2 insbesondere in Games vermutlich gut gebrauchen.
Grundsätzlich ist Zen5 außerdem eh primär auf Server ausgelegt. Der Fokus bei Zen5 lag relativ klar darauf, möglichst viel SMT/INT-MT/AVX512-Leistung in möglichst wenig Fläche unterzubringen.
Dass es mit dem 9800X3D auch so deutlich für die Spiele-Krone gereicht hat, ist für AMD eher ein freudiger Nebeneffekt.
Die hätten vermutlich eher gedacht, den 9800X3D zu brauchen, um mit ARL wenigstens in Spielen konkurrieren zu können.
robbitop
2024-12-22, 08:30:01
Ich glaube nicht dass Zen so stark von mehr L2 profitiert. Die Verdopplung dieses in Zen 4 hat laut AMD nur relativ wenig Mehrleistung gebracht. Gesetz des abnehmenden Grenzertrags impliziert dass eine weitere Verdoppelung dann sogar tendenziell ein wenig weniger bringt.
Für mich sieht es so aus als hätte AMD in den X3D die insgesamt sehr sehr gute Balance von Cachelevels erreicht.
Jetzt noch bessere Anbindung an den IOD in Zen 6 und dadurch eine Latenzreduktion zwischen den CCX und der RAM Latenz und ab geht’s.
Und dazu soll in Zen 6 noch einiges kommen was die „big bones“ die man in Zen 5 eingebaut hat dann zur Geltung bringen soll.
Könnte ein solides Upgrade sein wie damals Zen 3. :)
Zen 5 wurde (in Spielen) ja nur durch den höheren Takt des X3D gerettet.
Zen5 mit neuem IOD wäre ein spannendes Untersuchungsobjekt. Leider wirds das wohl kaum geben.
robbitop
2024-12-22, 10:06:17
Naja man kann es schon jetzt simulieren/antizipieren wenn man sich latenzgetunte vs ungetunte Zen5s anschaut. Da holt man oft 20 ns und mehr. Damit kann man grob den Effekt abschätzen. :)
CrazyIvan
2024-12-22, 10:21:48
@HOT
Mit etwas Glück bekommen wir in 2 Wochen mit Strix Halo doch genau das.
iamthebear
2024-12-22, 13:55:00
Naja man kann es schon jetzt simulieren/antizipieren wenn man sich latenzgetunte vs ungetunte Zen5s anschaut. Da holt man oft 20 ns und mehr. Damit kann man grob den Effekt abschätzen. :)
Aber wieviel bringen die 20ns niedrigere Latenz bei einem X3D, der sowiesi die meisten Zugriffe aus dem L3 zieht?
mboeller
2024-12-22, 13:57:19
Zen5 mit neuem IOD wäre ein spannendes Untersuchungsobjekt. Leider wirds das wohl kaum geben.
doch, heißt Strix Halo (aber; abwarten wie sie das IOD wirklich verbessert haben, abgesehen von der 256bit Speicheranbindung)
basix
2024-12-22, 14:39:18
Ich nehme an, AMD muss den Infinity-Fabric abändern um wirklich relevante Latenz-Verbesserungen zu erzielen. Die IFOP-Links addieren nur unwesentlich zur Latenz.
Mit dem 2.5D Ansatz erzielt man primär Effizienz- und Bandbreitenvorteile. Die Latenz muss man via IF-Update (Optimierungen, Protokolle, Parallelität?) verbessern.
mboeller
2024-12-22, 15:03:36
Mit dem 2.5D Ansatz erzielt man primär Effizienz- und Bandbreitenvorteile. Die Latenz muss man via IF-Update (Optimierungen, Protokolle, Parallelität?) verbessern.
wäre nicht das erste Mal, dass AMD was im CCD versteckt und erst nach 2 Jahren benutzt (ZEN3 x3D Anbindungen). Vielleicht kann IF in den ZEN5 CCD mehr als im vorhandenen IOD und im Strix-Halo IOD funktioniert alles so wie es soll ...
basix
2024-12-22, 15:10:26
Strix Halo soll ja neue Zen 5 CCDs bringen (IFOP weg und die neuen PHY). Kann schon sein, dass man hier was neues einbaut, als Vorbereitungstest für Zen 6.
CrazyIvan
2024-12-23, 09:43:17
Ich nehme an, AMD muss den Infinity-Fabric abändern um wirklich relevante Latenz-Verbesserungen zu erzielen. Die IFOP-Links addieren nur unwesentlich zur Latenz.
Mit dem 2.5D Ansatz erzielt man primär Effizienz- und Bandbreitenvorteile. Die Latenz muss man via IF-Update (Optimierungen, Protokolle, Parallelität?) verbessern.
Da gebe ich Dir absolut recht. Die physische Implementierung scheint erstaunlich wenig Einfluss auf die Latenz zu haben. Hier ist wohl wirklich das Protokoll inkl. Kohärenz-Strategie, Anzahl und Aufbau der zu durchsuchenden Cache-Level, etc. tonangebend.
CrazyIvan
2024-12-23, 09:48:24
Strix Halo soll ja neue Zen 5 CCDs bringen (IFOP weg und die neuen PHY). Kann schon sein, dass man hier was neues einbaut, als Vorbereitungstest für Zen 6.
Die Aussage stammt ja vom ukrainischen Insider aus dem AT-Forum. Auch wenn ich geneigt bin, ihm zu glauben, verstehe ich den Sinn dahinter immer noch nicht.
Zen4 hatte bspw. auch die SoIC Interconnects für MI300A bereits integriert - und die sind lachhaft klein. Dasselbe hätte ich im Hinblick auf Halo erwartet. Ein eigenes Die für so ein Nischenprodukt erschließt sich mir nicht so recht.
/edit: Eben erst gemerkt, dass wir ja im ARL-Thread sind. Sorry für Off-Topic.
robbitop
2024-12-23, 10:01:37
Aber wieviel bringen die 20ns niedrigere Latenz bei einem X3D, der sowiesi die meisten Zugriffe aus dem L3 zieht?
Auch noch erstaunlich viel. Siehe den Zen 5 Thread wo das einige gemacht haben. IIRC war das >10% in Spielen.
basix
2024-12-23, 10:33:04
Die Aussage stammt ja vom ukrainischen Insider aus dem AT-Forum. Auch wenn ich geneigt bin, ihm zu glauben, verstehe ich den Sinn dahinter immer noch nicht.
Pipe Cleaner ;)
So hat man bereits Erfahrungen, welche man in das Zen 6 Design einfliessen kann. Performance-Verbesserung, Bugfixing, Lernkurve beim Packaging. Falls es bei Strix Halo noch nicht komplett richtig funktioniert oder man die Performance-Ziele noch nicht erreicht, nur halb so schlimm. Falls dies bei Zen 6 passieren würde: Riesiges Problem.
Die 3D-SoIC PHY sind viel kleiner als 2.5D PHY und müssen auch nicht an Rand des Die liegen. Das ist bei Strix Point schon ein wenig anders.
dildo4u
2025-01-06, 15:24:18
Echt interessant Intel Vergleicht AI Performance vs Nvidia ARM SOC nicht Apple oder AMD.
https://videocardz.com/press-release/intel-introduces-core-ultra-200h-200hx-200s-arrow-lake-cpus
Strix Halo soll ja neue Zen 5 CCDs bringen (IFOP weg und die neuen PHY). Kann schon sein, dass man hier was neues einbaut, als Vorbereitungstest für Zen 6.
Wenn hat das orginale CCD diese neuen Links schon, hat Zen4 ja auch. Es wird mit Sicherheit kein extra neues CCD dafür geben. Ich erinnere daran, dass 3 stinknormale Zen4 CCDs auf dem MI300A-Basedie sitzen.
dildo4u
2025-01-08, 09:22:37
Arrow Lake H vs Ryzen 365 und HX vs Ryzen 375
JLwW8id3efE
Undertaker
2025-01-08, 21:53:12
Wie erwartet dürften die Notebookmodelle, egal ob U/H/HX, die klaren Stars der ARL-Generation werden. Bei vollständiger TDP-Limitierung schlägt die massive Perf/Watt-Steigerung komplett durch und real wird man weit höhere Taktraten als bislang anliegen haben. Offenbar hat man auch in der Breite zahlreiche Design-Wins gelandet, ich schätze mal spätestens Februar/März dürfte eine breite Auswahl sofort lieferbarer Geräte zu finden sein. Jetzt fehlt nur noch eine 12 GB-Variante der RTX 5060/5070, die 5070 Ti als Pin-kompatible Option zur RTC 5080/5090 wäre mir persönlich etwas zu groß und geht wohl auch eher in die >1.800 Euro Klasse.
MSABK
2025-01-08, 23:10:54
Total vergessen, dass es noch Arrow Lake gibt. Ja es gab wirklich eine Geräteflut mit Intel-Chips auf der CES. Mobil ist Intel eine Macht, wird schwer für AMD da anzustinken.
mironicus
2025-01-09, 07:14:27
Intel kann bei Arrow Lake H nicht mit "Copilot+" werben, weil die verbaute NPU zu schwach ist. Finde ich seltsam. Lunar Lake als auch alle neuen Qualcomm und AMD-CPUs habe die entsprechende starke NPU verbaut.
dildo4u
2025-01-09, 08:12:55
Gibt es eine Regel das man die IGP nicht nutzen kann?
Intel bewirbt mit 99 Tops.
mironicus
2025-01-09, 08:14:07
Die Bezeichnung gibt es wenn die NPU mindestens 45 TOPs hat.
dildo4u
2025-01-09, 08:36:30
Erscheint mir Blödsinn eine IGP bringt voll Leistung im Akkubetrieb.
Mit den ganzen AI Einheiten in ARC könnte die Effizienz sogar besser sein, die NPU macht Sinn wenn die IGP Last Gen wie RDNA3 ist.
Daredevil
2025-01-09, 10:21:34
Ist ja auch blödsinn. Ein 5090 Rechner ist ja auch kein CoPilot+ PC in Kombination mit einem 9950X3D. Erstens ist CoPilot selbst ein Marketing Meme und zweitens sind die Anforderungen zwar klar kommuniziert, aber ein Witz. Es gibt mehr MacAI PCs als Windows AI PCs, weil die snapdragon Kisten keiner kauft ( <1% Marktanteil ) und sonst die Hardware für den Notebook Sektor überschaubar ist ( Ryzen ).
fondness
2025-01-09, 10:34:09
Ist ja auch blödsinn. Ein 5090 Rechner ist ja auch kein CoPilot+ PC in Kombination mit einem 9950X3D. Erstens ist CoPilot selbst ein Marketing Meme und zweitens sind die Anforderungen zwar klar kommuniziert, aber ein Witz. Es gibt mehr MacAI PCs als Windows AI PCs, weil die snapdragon Kisten keiner kauft ( <1% Marktanteil ) und sonst die Hardware für den Notebook Sektor überschaubar ist ( Ryzen ).
Naja, ein Witz. Es geht eben darum ob man den CoPilot+ verwenden kann oder nicht. Die Anforderungen dafür sind klar kommuniziert. Damit einhergehend kommen laut MS laufend neue Features wie AI Downsampling, die Live Translation jeder Sprache direkt in einem Video, etc. Das auf einer GPU zu berechnen würde viel zu viel Strom schlucken und könnte auch Latenztechnisch je nach Feature nicht unproblematisch sein. Man verbaut die NPU ja nicht aus Langeweile zusätzlich zur GPU.
Einen fail finde ich es da eher, dass Intel es nicht schafft bei einem Notebookchip eine ausreichend starke NPU zu verbauen.
dildo4u
2025-01-09, 10:37:48
Führt das dazu das Hersteller mehr auf AMD setzen ich sehe davon nix auf der CES.
Wenn du ein CoPilot Intel System haben wills gibt es ja Lunar Lake.
fondness
2025-01-09, 10:39:11
Die Bezeichnung gibt es wenn die NPU mindestens 45 TOPs hat.
40 TOPS sind die Mindestanforderungen.
MSABK
2025-01-09, 10:42:35
Der Markt wurde auf der Ces mit Lunar Lake Laptops geflutet. Wenn es um Notebooks mit dGPU ging, war oft der Arrow Lake verbaut.
fondness
2025-01-09, 10:45:56
Führt das dazu das Hersteller mehr auf AMD setzen ich sehe davon nix auf der CES.
Wenn du ein CoPilot Intel System haben wills gibt es ja Lunar Lake.
AMD hat sich wohl dazu entschieden auf maximale Marge zu setzen und Intel den Massenmarkt zu überlassen. Warum auch immer. Vielleicht bekommt man nicht ausreichend Wafer oder es ist eine Markenstrategie. Jedenfalls sind die Preise selbst für den kleinen Krackan Point sehr hoch und bewegen sich auf dem Niveau des vorherigen Topmodells.
dildo4u
2025-01-09, 10:47:52
Der Markt wurde auf der Ces mit Lunar Lake Laptops geflutet. Wenn es um Notebooks mit dGPU ging, war oft der Arrow Lake verbaut.
Was auch Sinn macht alle Ryzen APU haben kein 3D Cache würde mich wundern wenn sich Arrow Lake und Zen5 großartig Unterscheiden was Gameing angeht.
Undertaker
2025-01-09, 12:25:17
Der Markt wurde auf der Ces mit Lunar Lake Laptops geflutet. Wenn es um Notebooks mit dGPU ging, war oft der Arrow Lake verbaut.
Insbesondere die "Tier 1" GPUs RTX5090/5080/5070 Ti scheinen wohl faktisch exklusiv mit ARL zu kommen, die AMD-Modelle sind auf die günstigeren 5060er/5070er und was darunter noch kommt begrenzt. Laut Intel soll ARL in puncto Effizienz ja auch Strix schlagen, insofern wohl auch ein starkes Paket was die H- und HX-Serie da bietet. Schon erstaunlich, dass das fehlendes Copilot+-Schildchen offenbar keinen interessiert :D
dildo4u
2025-01-09, 12:29:22
Das G14 hat Ryzen plus 5080 scheint also keine Feste Regel zu geben.
Mal sehen ob das daran liegt das der GPU in diesen kleinen Chassis mit Ryzen mher Powa zugewiesen werden kann.
https://rog.asus.com/de/laptops/rog-zephyrus/rog-zephyrus-g14-2025/
Undertaker
2025-01-09, 13:01:08
Ah okay, das ist tatsächlich das erste Modell mit 5080 und Ryzen das ich in den Vorstellungen gesehen habe. :) Aber ja, das ein oder andere kommt sicher noch dazu.
fondness
2025-01-09, 15:56:16
Sieht so aus als hätten zumindest die Chinesen keinen Intel-Knebelvertrag unterschrieben:
https://videocardz.com/newz/worlds-fastest-gaming-laptops-with-amd-ryzen-9-9955hx3d-and-geforce-rtx-5090-announced-up-to-280w-power
davidzo
2025-01-09, 18:15:42
Das wäre Karma wenn die auch den europäischen Markt erreichen und in Asus's Verkaufszahlen schneiden.
Asus hätte sowas mehrfach verdient, nicht zuletzt wegen des Support Scam-Schemas dass die am laufen hatten.
mironicus
2025-01-12, 07:32:52
Insbesondere die "Tier 1" GPUs RTX5090/5080/5070 Ti scheinen wohl faktisch exklusiv mit ARL zu kommen, die AMD-Modelle sind auf die günstigeren 5060er/5070er und was darunter noch kommt begrenzt. Laut Intel soll ARL in puncto Effizienz ja auch Strix schlagen, insofern wohl auch ein starkes Paket was die H- und HX-Serie da bietet. Schon erstaunlich, dass das fehlendes Copilot+-Schildchen offenbar keinen interessiert :D
Razer Blade 16 mit HX370 und RTX 5090 sind angekündigt. :freak:
Razer hat hier Intel komplett durch AMD ersetzt (und kann mit Copilot Plus werben). :tongue:
https://www.computerbase.de/news/notebooks/razer-blade-16-2025-amd-ryzen-trifft-geforce-rtx-5000-im-schlankeren-chassis.90836/
Undertaker
2025-01-12, 11:34:08
Tatsächlich eine sehr exotische Wahl im Vergleich zur Masse an ARL bzw. den offenbar sehr seltenen Fire Range Modellen mit RTX 5090. Welche PCIe-Anbindung hätte die 5090 eigentlich in Verbindung mit Strix Point, PCIe 4.0 8x?
Badesalz
2025-01-12, 11:44:42
Welche PCIe-Anbindung hätte die 5090 eigentlich in Verbindung mit Strix Point, PCIe 4.0 8x?Geht es da nicht eh um Mobile? Oder ist das eine rein technische Frage, ohne allzuviel Bezug zum Praktischen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.