PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake Review-Thread


Seiten : [1] 2 3 4

Leonidas
2024-10-24, 14:47:56
Intel Arrow Lake
- Chip-Verbund aus vier Tiles (Compute, SoC, GPU, I/O) samt zwei Filler-Tiles, liegend auf einem Base-Tile
- 117,1mm² Compute-Tile @ TSMC N3B, 86,5mm² SoC-Tile @ TSMC N6, 23,0mm² GPU-Tile @ TSMC N6 & 24,4mm² I/O-Teil @ TSMC N5
- gesamte (aktive) Chipfläche 251,0mm², zuzüglich zwei Filler-Tiles (19,9mm²), auf einem Base-Tile (302,9mm²) unter Intel 22FFL
- gefertigt somit weitgehend von TSMC, von Intel kommen allein das Base-Tile sowie das Packaging
- 8 Performance-Kerne gemäß der "Lion Cove" Architektur mit lt. Intel +9% IPC-Gewinn gegenüber "Raptor Cove" (Raptor Lake)
- kompletter Verzicht auf HyperThreading schon auf Silizium-Ebene (obwohl die Lion-Cove-Architektur durchaus HyperThreading bieten könnte)
- 16 Effizienz-Kerne gemäß der "Skymont" Architektur mit lt. Intel +32% IPC-Gewinn gegenüber "Gracemont" (Raptor Lake)
- 3 MB Level2-Cache pro P-Kern (+33% gegenüber Raptor Lake) sowie 1 MB Level2-Cache pro E-Kern (unverändert gegenüber Raptor Lake)
- max. 36 MB Level3-Cache (unverändert gegenüber Raptor Lake)
- 4 Xe-Kerne (512 FP32) der Alchemist-Architektur
- 128 Bit Speicherinterface für DDR5-Speicher, offiziell bis DDR5/5600 (UDIMM) bzw. DDR5/6400 (CUDIMM)
- Sockel LGA1851, benutzbar somit nur auf Mainboards von Intels neuer 800er Chipsatz-Serie
- Verkaufsname: Core Ultra 200 (selbiger Verkaufsname wird auch von "Lunar Lake" benutzt)
- Marktstart: K/KF-Modelle am 25. Oktober 2024, restliches Portfolio & Mobile-Modelle zur CES 2025

|Kerne|P-Takt|E-Takt|L2+L3|iGPU|PBP/MTP|Liste|Release
Core Ultra 9 285K|8P+16E/24T|3.7/5.7 GHz|3.2/4.6 GHz|40+36 MB|4 Xe @ ≤2.0 GHz|125/250W|$589|25. Okt. 2024
Core Ultra 7 265K|8P+12E/20T|3.9/5.5 GHz|3.3/4.6 GHz|36+30 MB|4 Xe @ ≤2.0 GHz|125/250W|$394|25. Okt. 2024
Core Ultra 7 265KF|8P+12E/20T|3.9/5.5 GHz|3.3/4.6 GHz|36+30 MB|deaktiviert|125/250W|$379|25. Okt. 2024
Core Ultra 5 245K|6P+8E/14T|4.2/5.2 GHz|3.6/4.6 GHz|26+24 MB|4 Xe @ ≤1.9 GHz|125/159W|$309|25. Okt. 2024
Core Ultra 5 245KF|6P+8E/14T|4.2/5.2 GHz|3.6/4.6 GHz|26+24 MB|deaktiviert|125/159W|$294|25. Okt. 2024

Listen der Launch-Reviews bei 3DCenter (https://www.3dcenter.org/news/intel-arrow-lake-die-launch-reviews-gehen-online) und VideoCardz (https://videocardz.com/188838/intel-core-ultra-9-285k-ultra-7-265k-and-ultra-5-245k-review-roundup).

Linmoum
2024-10-24, 15:04:35
Doch nicht heute?

Lehdro
2024-10-24, 15:06:10
CPUs kann man schon kaufen, aber Testberichte gibt es noch nicht. Waren die so schlecht? :rolleyes:

mczak
2024-10-24, 15:10:41
- 3 MB Level2-Cache pro P-Kern (+33% gegenüber Raptor Lake) sowie 1 MB Level2-Cache pro E-Kern (+100% gegenüber Raptor Lake)

1MB L2 pro E-Kern ist so nicht korrekt, denn der ist nicht privat. Ausserdem hatte doch Raptor Lake S auch schon 4MB pro Cluster?

Der_Korken
2024-10-24, 15:12:42
1MB L2 pro E-Kern ist so nicht korrekt, denn der ist nicht privat. Ausserdem hatte doch Raptor Lake S auch schon 4MB pro Cluster?

Der L2 ist afaik bei Meteor Lake zwischenzeitlich halbiert worden und jetzt wieder auf Raptor-Lake-Niveau.

dreas
2024-10-24, 15:13:25
Soll wohl erst 17 Uhr soweit sein. Zwischen den Zeilen liest man aber schon von Windows- und Bios Problemen. Ergo nicht zu viel erwarten.

Linmoum
2024-10-24, 15:14:57
Wegen sowas verschieb ich den ganzen Launch (es sind ja nicht nur die Reviews heute) doch nicht nur um zwei Stunden.

Lehdro
2024-10-24, 15:15:47
Soll wohl erst 17 Uhr soweit sein. Zwischen den Zeilen liest man aber schon von Windows- und Bios Problemen. Ergo nicht zu viel erwarten.
Ja, aber mein Popcorn steht doch schon bereit :popcorn:

dildo4u
2024-10-24, 15:16:10
Hier steht jetzt November hab nix auf Lager gefunden.



https://www.alza.de/gaming/intel-core-ultra-9-285k-d12601692.htm?kampan=idealo_de_komponenty_procesory_intel_bou9285k&utm_source=idealo_de&utm_medium=product&utm_campaign=idealo_de_komponenty_procesory_intel_bou9285k

Dorn
2024-10-24, 15:17:13
Ja, aber mein Popcorn steht doch schon bereit :popcorn:Behalte noch den Börsen Kurs im Auge. :freak:

Leonidas
2024-10-24, 15:18:09
1MB L2 pro E-Kern ist so nicht korrekt, denn der ist nicht privat. Ausserdem hatte doch Raptor Lake S auch schon 4MB pro Cluster?

Die 1 MB pro E-Kern sind richtig *, nur die Verdopplung gegenüber RPL stimmt nicht. Auch RPL hatte schon 1 MB L2 pro E-Kern. Gefixt.

Update:
* Du meinst sicherlich, dass der nur im Cluster existiert. Das stimmt, es sind 4 MB pro 4 E-Kerne. Ich habe es nur anders geschrieben, damit man sich besser was drunter vorstellen kann.

Fusion_Power
2024-10-24, 15:21:35
Muss man da diese "Effizienz-Kerne" im BIOS immer noch deaktivieren damit Games gescheit laufen oder wurden solche Probleme mittlerweile behoben? Ich meine dass das mal ein echtes Problem war bei diesem Big/Little Design von Intel.

Pirx
2024-10-24, 15:22:18
17 Uhr :-/ https://videocardz.com/188838/intel-core-ultra-9-285k-ultra-7-265k-and-ultra-5-245k-review-roundup

edit: ahh einiges mydrivers ist klickbar^^

Lehdro
2024-10-24, 15:22:57
Behalte noch den Börsen Kurs im Auge. :freak:
Sub 20$ ?:redface:

fondness
2024-10-24, 15:26:11
https://news.mydrivers.com/1/1010/1010078_all.htm
https://imgur.com/s6vqgwa

mczak
2024-10-24, 15:29:28
Die 1 MB pro E-Kern sind richtig, nur die Verdopplung gegenüber RPL stimmt nicht. Auch RPL hatte schon 1 MB L2 pro E-Kern. Gefixt.
Das mag jetzt etwas spitzfindig sein, aber ich finde die Bezeichnung so nach wie vor nicht korrekt, denn das impliziert eben dass der L2 wirklich pro Kern ist. Das ist er aber eben nicht, die 4MB sind geshared im Cluster, auch wenn das natürlich rein arithmetisch dann 1MB pro Kern sind. (edit: ok habe gerade deine Ergänzung dazu in der Antwort gesehen.)
Aber danke für den Fix (war ja übrigens ganz interessant, beim L2 gab intel bei der Präsentation von Meteor Lake tatsächlich nirgends an dass das bloss 2MB pro Cluster sind - stattdessen stand da bloss dass die Crestmont-Architektur "up to 4MB" L2 pro Cluster hat).

Dorn
2024-10-24, 15:30:51
https://news.mydrivers.com/1/1010/1010078_all.htm
https://imgur.com/s6vqgwa
Definitiv kein Gaming CPU, ist aber auch nix neues.

Hakim
2024-10-24, 15:31:18
Lol, hatte schon Popcorn bereit gehabt. Na dann um 17 uhr :)

Atma
2024-10-24, 15:32:54
Muss man da diese "Effizienz-Kerne" im BIOS immer noch deaktivieren damit Games gescheit laufen oder wurden solche Probleme mittlerweile behoben? Ich meine dass das mal ein echtes Problem war bei diesem Big/Little Design von Intel.
Gibt nur wenige Titel die mit aktivierten E-Cores schlechter performen. Macht nicht wirklich Sinn die kleinen Helferlein zu deaktivieren, bringen sie in MT Szenarios doch immens viel.

Lehdro
2024-10-24, 15:33:48
Gibt nur wenige Titel die mit aktivierten E-Cores schlechter performen. Macht nicht wirklich Sinn die kleinen Helferlein zu deaktivieren, bringen sie in MT Szenarios doch immens viel.
Bei den gemunkelten Schedulingproblemen sind sie aber die erste Anlaufstelle :mad:

MSABK
2024-10-24, 15:35:25
Cool, Stromverbrauch auf Zen5 Level. Aber höher als beim 7800X3d.

fondness
2024-10-24, 15:37:32
Cool, Stromverbrauch auf Zen5 Level. Aber höher als beim 7800X3d.

Ja, nur bei desaströser Performance in Spielen weit unter Zen5.

Exxtreme
2024-10-24, 15:38:23
Gibt nur wenige Titel die mit aktivierten E-Cores schlechter performen. Macht nicht wirklich Sinn die kleinen Helferlein zu deaktivieren, bringen sie in MT Szenarios doch immens viel.

Kann sein, dass Micros~1 mal wieder den WinDOS-Scheduler verkackt hat und WinDOS erstmal einen Patch braucht. Wäre nicht das erste Mal.

Atma
2024-10-24, 15:38:38
Bei den gemunkelten Schedulingproblemen sind sie aber die erste Anlaufstelle :mad:
Welche Schedulingprobleme?

][immy
2024-10-24, 15:38:54
Cool, Stromverbrauch auf Zen5 Level. Aber höher als beim 7800X3d.

Bei aber gleichzeitig weniger Leistung. Also fps/W verliert Intel hier immernoch. Die x3d Prozessoren sind da ohne jegliche Konkurrenz unterwegs.

Kann sein, dass Micros~1 mal wieder den WinDOS-Scheduler verkackt hat und WinDOS erstmal einen Patch braucht. Wäre nicht das erste Mal.
Da es nicht mal HT gibt und nur einen thread je core, sollte es da eigentlich nicht so viele Probleme geben.

Hakim
2024-10-24, 15:39:00
Das gute ist das der 285k tatsächlich so sparsam ist wie der 7800X3D bei spielen, aber ja das ist halt bezüglich spiele Performance doch enttäuschend, der 9800X3D soll ja auch so rund 8% drauf packen angeblich. Für Leute die jede Gen upgraden langweilig diesmal, leider.

fondness
2024-10-24, 15:40:53
Das gute ist das der 285k tatsächlich so sparsam ist wie der 7800X3D bei spielen, aber ja das ist halt bezüglich spiele Performance doch enttäuschend, der 9800X3D soll ja auch so rund 8% drauf packen angeblich. Für Leute die jede Gen upgraden langweilig diesmal, leider.

Bitte da jetzt nicht zu cherry picken anfangen. Die Leistungsaufnahme in Spielen liegt laut dem Review im Schnitt deutlich über den 7800X3D. Du hast den einen Wert raus genommen wo das nicht so ist.

Leistungsaufnahme in SPielen ist ungefähr vergleichbar mit dem 9700X, was noch immer gut ist. Wenn denn die Leistung passen würde....

Hakim
2024-10-24, 15:42:58
Cherry picken? Ich hab nur ein einziges Review da gesehen, da gibt es nicht viel Auswahl zum Cherry picken

Edit: ok dachte ist Avg, sry hatte nur den einen gesehen und nicht weiter runtergescrollt

][immy
2024-10-24, 15:43:37
Das gute ist das der 285k tatsächlich so sparsam ist wie der 7800X3D bei spielen, aber ja das ist halt bezüglich spiele Performance doch enttäuschend, der 9800X3D soll ja auch so rund 8% drauf packen angeblich. Für Leute die jede Gen upgraden langweilig diesmal, leider.
Ist er nicht. Wenn überhaupt auf dem Level der non3d Prozessoren. Dabei sind die fos deutlich niedriger besonders im Vergleich zu den x3d Prozessoren. Zumindest spiele, die auf den ca He ansprechen laufen extrem viel besser.

Wundert mich das Intel das nicht noch mal auf legt mit mehr Cache. Hat den CPUs vor >10 Jahren auch schon sehr gut getan.

fondness
2024-10-24, 15:44:32
Cherry picken? Ich hab nur ein einziges Review da gesehen, da gibt es nicht viel Auswahl zum Cherry picken

Das ist nur ein Spiel, scrolle mal runter....

Hakim
2024-10-24, 15:45:55
Leute beruhigt euch, ja war ein Fehler meinerseits :)

Chrisch
2024-10-24, 15:47:08
Nicht so gut wie nen 7800X3D aber wohl bissel besser als die non-X3D

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=89895&stc=1&d=1729777569

Interessieren würde mich noch der Verbrauch des Gesamtsystems im normalen Desktopbetrieb, also surfen etc.

Die schlechte Speicherlatenz scheint an den E-Cores zu liegen bzw Windows od. AIDA bevorzugen diese wohl, wenn ich das hier richtig verstehe.

https://news.mydrivers.com/1/1010/1010078_all.htm

Raff
2024-10-24, 15:49:12
- 4 Xe-Kerne (512 FP32) der Alchemist-Architektur

Das finde ich übrigens am enttäuschendsten. Warum ist da noch kein Kampfmagier drin? :( Ähnlich kurios wie bei AMD, wo die interessanten Module auch zuerst in Mobile wandern.

MfG
Raff

Hakim
2024-10-24, 15:52:59
Gibt spiele die der CPU so gar nicht liegen, z.B Cyberpunk wo ein 14600k ~5% schneller ist als der 285K, puh.

Prinzenrolle
2024-10-24, 15:53:27
Die gelobte Effizienz scheint sich zu bewahrheiten, aber ich warte jetzt erstmal auf die richtigen Reviews und nicht diesen China-blödsinn.

Gibt spiele die der CPU so gar nicht liegen, z.B Cyberpunk wo ein 14600k ~5% schneller ist als der 285K, puh.

Da könnte es noch Updates geben, die Totalkatastrophe scheint auszubleiben, immerhin.

fondness
2024-10-24, 15:53:56
Die schlechte Speicherlatenz scheint an den E-Cores zu liegen bzw Windows od. AIDA bevorzugen diese wohl, wenn ich das hier richtig verstehe.

https://news.mydrivers.com/1/1010/1010078_all.htm

Okay, das ist wohl dasselbe wie bei Lunar Lake, neue Threads landen zuerst auf den eCores. Das spart natürlich Strom, kostet aber Performance wenn man immer einen ContextSwitch machen muss wenn man die Performance der P-Cores benötigt.

][immy
2024-10-24, 16:03:37
Die gelobte Effizienz scheint sich zu bewahrheiten, aber ich warte jetzt erstmal auf die richtigen Reviews und nicht diesen China-blödsinn.



Da könnte es noch Updates geben, die Totalkatastrophe scheint auszubleiben, immerhin.

Nun, wenn du raptor lake nicht auf Anschlag laufen lässt, säuft der auch nicht so viel. Die Effizienz ist bei den Fertigungssprung eher nicht so dolle. Zumal die p cores ja nun nicht mehr über frequentiert (fehlendes HT) werden, wodurch die CPU eigentlich mehr Pausen einlegen sollte.

fondness
2024-10-24, 16:44:47
https://nguyencongpc.vn/danh-gia-va-benchmark-vi-xu-ly-intel-core-ultra-5-245k

Raff
2024-10-24, 17:02:00
Los geht's!

Intel Arrow Lake im Test: Core Ultra 9 285K, Core Ultra 7 265K und Core 5 245K geben sich die Ehre (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/)

LuNSbcvOkFo

MfG
Raff

Matrix316
2024-10-24, 17:05:35
Dass bei Computerbase die 13000er Intel fehlen ist auch doof. Die könnten sicher noch sehr gut mithalten. Auch die 5 und 7000er Ryzens hätte man ruhig noch dabei lassen können.

fondness
2024-10-24, 17:08:39
Intel Core Ultra 200S im Test: Core Ultra 9 285K, 7 265K & 5 245K enttäuschen effizient
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/

Intel Core Ultra 200S alias Arrow Lake ist eine effiziente Enttäuschung. Intel hat es trotz der Verzögerungen, dem Sprung auf den Chiplet-Ansatz, neuen Kernen und dem spät verkündeten Wechsel auf TSMCs Vorzeige-Fertigung nicht geschafft die ausgelutschte Vorgängerarchitektur ausnahmslos zu übertreffen.

Core Ultra 9 285K, Core Ultra 7 265K und Core Ultra 5 245K zeigen teils beachtliche Fortschritte bei der Effizienz gegenüber den Vorgängern, verlieren auf Seiten der Leistung aber nicht nur das Gaming-Duell gegen AMD Ryzen 7000X3D, sondern auch gegenüber Core i9-14900K, Core i7-14700K und Core i5-14600K. In Anwendungen, die nicht extrem auf das Speichersystem ausgelegt sind (7-Zip), gelingt das zwar, aber auch hier gibt es einen Wermutstropfen: Ryzen 9000X ist ab Werk effizienter. Erst weit unterhalb der Werkseinstellungen wird es unschlagbar effizient.

dildo4u
2024-10-24, 17:17:22
Cyberpunk scheint sich auf Zen3 Level zu bewegen?
Win23h2 rennt bei dem Game am besten auf 285k.

3n537Z7pJug

rrym7146I_8

fondness
2024-10-24, 17:32:39
Wie sich schon vorher angedeutet hat liegt es wohl primär am Speichersubsystem, bzw. viel zu hohen RAM-Latenzen.

Hakim
2024-10-24, 17:43:34
Wie sich schon vorher angedeutet hat liegt es wohl primär am Speichersubsystem, bzw. viel zu hohen RAM-Latenzen.

Und lunar lake hat das Problem nicht weil der Speicher direkt am Chip ist?

Sardaukar.nsn
2024-10-24, 17:44:24
UyBHkf7zB7U

Die Sache mit dem DLVR ab 9:44 Min fand ich sehr interessant.

fondness
2024-10-24, 17:45:41
Und lunar lake hat das Problem nicht weil der Speicher direkt am Chip ist?

Naja, beim Lunar Lake kann man die Spieleperformance ja gar nicht testen, weil es keine dGPU Geräte gibt.

davidzo
2024-10-24, 17:46:08
Los geht's!

Intel Arrow Lake im Test: Core Ultra 9 285K, Core Ultra 7 265K und Core 5 245K geben sich die Ehre (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/)

MfG
Raff

Danke Raff.

Was ist da los mit dem L2 Cache?

Die Lesebandbreite hat sich gegenüber Raptorcove halbiert, write ist gleich geblieben und copy dementsprechend minus 30%.

Dazu steigt die latenz von 3,6 auf 4,0ns bei nur 100mhz taktdifferenz.
- Ist es vielleicht doch nicht nur die Speicherlatenz?

Der L2 ist ja privat und liegt auf dem TSMC N3E die, also nix mit fabric problemen. Da hätte es eigentlich keine Probleme geben sollen.

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1458051&page=2&draft=-1&rank=1

dildo4u
2024-10-24, 17:47:06
Und lunar lake hat das Problem nicht weil der Speicher direkt am Chip ist?
Schwer Testbar wenn es keine Geräte mit Nvidia GPU gibt.
Die IGP wird fast immer zu erst limitieren.

fondness
2024-10-24, 17:48:14
Danke Raff.

Was ist da los mit dem L2 Cache? Die Lesebandbreite hat sich gegenüber Raptorcove halbiert, write ist gleich geblieben und copy dementsprechend minus 30%. Dazu steigt die latenz von 3,6 auf 4,0ns bei nur 100mhz taktdifferenz.
- Ist es vielleicht doch nicht nur die Speicherlatenz?

Der L2 ist ja privat und liegt auf dem TSMC N3E die. Da hätte es eigentlich keine Probleme geben sollen.

https://www.pcgameshardware.de/commoncfm/comparison/clickSwitchNew.cfm?article=1458051&page=2&draft=-1&rank=1

Die Bandbreite ist ohne AVX512 Support wohl nicht nötig. Die Latenz steigt natürlich weil 50% mehr L2-Cache-Größe.

maximus_hertus
2024-10-24, 17:48:56
Im PRinzip keine wirkliche Überraschung. Gaming eher "dezent", Applikationen gut und endlich vernünftige Effizienz.

Aber das 24H2 Problem ist übel. Sowas ist man eher von AMD "gewohnt", aber von Intel?

Jetzt sieht Zen 5 doch echt gut aus (im Vergleich zu Arrowlake). Und ich bin auf den 9800X3D gespannt. Ich hoffe die Zugewinne sind zumindest bei 10% (zum 7800X3D).


Für Intel wird das wohl eher ein schwieriges Jahr werden.

fondness
2024-10-24, 17:50:50
Sowas ist man eher von AMD "gewohnt", aber von Intel?


Solche Aussagen, nachdem Raptor Lake jahrelang kaputt gingen? :ugly:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=618163

Unfassbar wie lange sich solche Vorurteile halten.

Sardaukar.nsn
2024-10-24, 17:59:43
... ich bin auf den 9800X3D gespannt. Ich hoffe die Zugewinne sind zumindest bei 10% (zum 7800X3D).


AMD spricht in eigenen Folien von 8%
https://www.computerbase.de/news/prozessoren/amd-ryzen-7-9800x3d-neue-generation-3d-cache-und-offizielle-leistungsangaben.90069/

maximus_hertus
2024-10-24, 18:04:45
Solche Aussagen, nachdem Raptor Lake jahrelang kaputt gingen? :ugly:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=618163

Unfassbar wie lange sich solche Vorurteile halten.

Hä? Vorurteile? Zen 5 Launch? Software (völlig egal wer "Schuld" war / ist) war halt noch nicht bereit für einen Launch. Das hat doch nichts mit Vorurteilen zu tun?

Dorn
2024-10-24, 18:05:29
Nur man muss bei allem bedenken TSMC hat geliefert, die Effizienz. Da Intel bei Ihren Fabs nicht mehr in der oberen Liega mit spielt. (Edit: Wobei TSMC außer Konkurrenz ist)

Da die Fertigung wohl schon bei der nächsten CPUs Gen wieder zu Intel (18A) zurück kehren soll, muss Intel auch zu TSMC aufschließen.

Ansonsten hat man nur ein solide CPU Architektur welcher aber auch nicht mehr Effizient ist.
Noch was falls es jemand schon vergessen haben sollte: 20A wurde übersprungen^^...

MSABK
2024-10-24, 18:08:39
Amd hat den Node Nachteil und kann trotzdem sehr gut mithalten. Intel braucht anscheinen Verbrauch ohne Ende um oben zu sein, unabhängig von der Fertigung.

MD_Enigma
2024-10-24, 18:11:05
Allein wenn ich mir die Core-Latenzen anschaue, wird klar wie schwer es wird diese Plattform zu optimieren.
https://pics.computerbase.de/1/1/4/5/6/5-00cb0ccd0b8b0c85/10-624.1b48a7a5.jpg (https://pics.computerbase.de/1/1/4/5/6/5-00cb0ccd0b8b0c85/10-1080.1b48a7a5.jpg)

Dazu ist die Plattform für den Desktop nicht wirklich Konkurenzfähig. Viel Spass Intel, ihr schaufelt euch das eigene Grab. Drücke euch die Daumen im Server-Umfeld.

Linmoum
2024-10-24, 18:12:07
Puh, das ist ja echt ziemlich mies. Nicht mal trotz besserem Node kann man sich bei der Effizienz von der Konkurrenz abheben, im Gegenteil. Da hängt man immer noch (deutlich) hinterher. Und Spiele sind ein Totalausfall vs. X3D.

arcanum
2024-10-24, 18:13:31
Der Verbrauch hat sich zwar ca. halbiert was mit den 2 Nodesprüngen auch mindestens zu erwarten war, aber mehr auch nicht. Beeindruckend ist die sehr gute Skalierung in CB im unteren Verbrauchsbereich was wohl den mobilen Chips sehr zu gute kommen wird, aber die diesjährigen neuen Desktop-CPUs kann man getrost vergessen. Mein größter Fehler war es keinen 7800X3D für 330€ zu schnappen. Jetzt werde ich erst mal bis 2025/2026 warten, bevor das Upgrade kommt.

Dorn
2024-10-24, 18:24:29
Der Computerbase Artikel finde ich nicht besonders gut, zum Beispiel geht man nur auf der letzten Seiten in einem Nebensatz darauf ein, dass die Fertigung von TSMC ist. (STRG-F TSMC Suche)

Da ist Igors Test ein ganz anderes Kaliber, wenn man gerne mehr Wissen möchte, nur zu.

mczak
2024-10-24, 18:40:43
Arrow Lake ist ein ziemlicher Mixed Bag, obwohl jetzt da auch nicht alles schlecht ist.
- Die iGPU mag nur Alchemist-Klasse sein, wurde aber deutlich aufgebohrt und erreicht Phoenix2 (8500G) Niveau. Damit viel besser für ein Spielchen zwischendurch geeignet als Raptor Lake (und die normalen Ryzen CPUs).
- Der Leerlaufstromverbrauch ist nur minimal gestiegen (das ist im Uebrigen kein Lob an intel, es wird Zeit dass AMD das Problem mal angeht).
- Die Anwendungsperformance ist nicht so schlecht wenn man die Voraussetzungen bedenkt - intel kann ja den Verzicht auf SMT schönreden (immerhin erspart man sich potenziell eine Menge sehr fieser und schwierig zu fixender Side-Channel-Attacken), aber da fehlen halt über die ganze CPU betrachtet trotzdem ~15% MT-Performance deswegen. Da ist das Ergebnis am Schluss (schneller als Raptor Lake, und ähnlich schnell wie Ryzen 9950X (jedenfalls wenn man keine Anwendungen berücksichtigt die AVX512 nutzen können), bei vernünftigem Verbrauch) ganz ok.
- Bei Spielen ist man auch Opfer davon geworden dass man Raptor Lake wohl dank der engen Verzahnung der Prozessor- und Fertigungsentwicklung bis ans extreme Limit (und wie sich gezeigt hat auch darüber hinaus...) takten konnte, was der ST-Performance zugutekam. Ich bin mir sicher intel verzichtet nicht aus Vernunftgründen auf die superhohen Taktraten (und Spannungen) sondern weil das einfach nicht mehr geht. Wobei der Hauptgrund für die schlechte Spieleperformance die sehr hohe Speicherlatenz sein dürfte. Dass die schlechter ist als bei Raptor Lake ist zwar einleuchtend (da war der MC direkt ein Teilnehmer am Ringbus) aber AMD zeigt ja dass das deutlich besser geht (und AMD hat da in der Theorie doch einen Nachteil wegen des "Old School" MCM-Packaging).

Bei diesen Enthusiasten-CPU ist halt Spiele-Performance sehr wichtig - ausgerechnet dort ist Arrow Lake dummerweise schlechter als die Konkurrenz (und der Vorgänger). Und dass man trotz nominell etwas besserer Fertigung und dem viel besseren Packaging da am Ende eigentlich nirgends wirklich gross Vorteile sieht gegenüber AMD (ausser beim Idle-Verbrauch...) ist auch kein Ruhmesblatt.

Ph0b0ss
2024-10-24, 18:50:31
Allein wenn ich mir die Core-Latenzen anschaue, wird klar wie schwer es wird diese Plattform zu optimieren.
https://pics.computerbase.de/1/1/4/5/6/5-00cb0ccd0b8b0c85/10-624.1b48a7a5.jpg (https://pics.computerbase.de/1/1/4/5/6/5-00cb0ccd0b8b0c85/10-1080.1b48a7a5.jpg)

Dazu ist die Plattform für den Desktop nicht wirklich Konkurenzfähig. Viel Spass Intel, ihr schaufelt euch das eigene Grab. Drücke euch die Daumen im Server-Umfeld.

Wie sieht es aus mit dem Ring-Takt? Der soll ja bei nur 3.800Mhz laufen. Bekommt man den auf 4.500Mhz - 5.000Mhz hoch? Sollte doch die Latenzen zwischen den P-Cores verringern und die Latenzen des L3 und zum Ram vielleicht auch etwas?

Entspricht der Takt des L3 dem des Ring-Takts?

Exxtreme
2024-10-24, 18:54:57
Ich finde die CPU jetzt auch nicht so übel. Mit der sehr guten Anwendungsleistung ist definitiv Potential drin.

Unter Linux läuft sie auch besser:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/18

Eventuell braucht das Spielzeug-OS wieder einen neuen Patch.

fondness
2024-10-24, 18:56:31
Ich finde die CPU jetzt auch nicht so übel. Mit der sehr guten Anwendungsleistung ist definitiv Potential drin.

Unter Linux läuft sie auch besser:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/18

Eventuell braucht das Spielzeug-OS wieder einen neuen Patch.

Hinter der 9900X 12 core Krücke nennst du besser? :ugly:

Exxtreme
2024-10-24, 18:57:37
Hinter der 9900X 12 core Krücke nennst du besser? :ugly:

Den Vorgänger schlägt sie im Schnitt um 14% beim halben Verbrauch. Also ja, ich nenne das schon besser.

fondness
2024-10-24, 18:58:17
Den Vorgänger schlägt sie im Schnitt um 14% beim halben Verbrauch. Also ja, ich nenne das schon besser.

In Anwendungen ist man ja auch unter Windows besser. Spiele sind die Baustelle.

Der_Korken
2024-10-24, 19:00:37
Die Kerne selbst laufen ganz ordentlich, wenn auch nicht überragend bezüglich Mehrperformance gegenüber Raptor Lake. Bei den Speicherlatenzen hat Intel aber mal richtig Mist gebaut. Da bekomme ich noch stärkere Zen-1-Vibes als bei Zen 5. Das Dumme für Intel ist nur, dass man im Desktop hauptsächlich über Spieleperformance verkauft. Die Vanilla Zen 5 haben sich schlecht verkauft, jeder will und wollte den 7800X3D. Ich glaube die Retailverkäufe von Arrow Lake werden so schlecht, dass Intel sich die Plattform auch fast hätte sparen können und lieber noch einen Raptor Lake Re-Refresh bringen sollen mit Skymont-Kernen, portiert auf den hauseigenen Intel 3/4 statt Intel 7.

x-force
2024-10-24, 19:11:05
laut pcgh ist das topmodel in cyberpunk unter(!) 12700k niveau ;D

Loeschzwerg
2024-10-24, 19:12:50
Die Sache mit dem DLVR ab 9:44 Min fand ich sehr interessant.

Ohja, finde ich ebenfalls sehr spannend. Gerade für Tüftler bietet die Plattform viele Stellschrauben für Optimierungen, das ist schon ziemlich cool. An der mauen Spieleleistung ändert das natürlich nur wenig, aber ich bin trotzdem darauf gespannt was Enthusiasten noch so herauskitzeln können.

Atma
2024-10-24, 19:15:36
- Die Anwendungsperformance ist nicht so schlecht wenn man die Voraussetzungen bedenkt - intel kann ja den Verzicht auf SMT schönreden
Der Vergleich ist nicht ganz fair, verdeutlicht aber wie sehr ein gut gebinnter und optimierter Raptor Lake dem neuen Arrow Lake die Stirn bietet:

Im Computerbase Test erreicht der Ultra 9 285K 2420 Punkte in Cinebench 2024 bei angenommenen 240-250 Watt weil AVX Volllast. Mein 14900KS mit 5,5 GHz auf den P-Cores und 4,5 GHz auf den E-Cores bei gleichzeitig deutlich reduzierter Spannung macht 2411 Punkte bei 250-270 Watt.

Fortschritt gleich null trotz enormen Sprung bei der Node. Arrow Lake hat schon fast was vom Rocket Lake Rohrkrepierer.

aufkrawall
2024-10-24, 19:18:09
Rocket Lake hatte durch die Bank IPC-Gewinne, gerade auch in Spielen mit gut getuntem RAM. Das hier ist eigentlich viel schlechter.

mocad_tom
2024-10-24, 19:20:14
Dieser Tester ist letztens auch schonmal aufgefallen, weil er

A) Tests mit CPU-intensiven Spielszenen macht

B) teuren schnellen RAM reinknallt und auch den Ringbus übertaktet

https://www.alza.cz/intel-core-ultra-9-285k-recenze-a-testy

Und dann sei nochmal bei Phoronix auf die Compilation-Benches hingewiesen:
https://www.phoronix.com/review/intel-core-ultra-9-285k-linux/4
Das schaut sehr fein aus.
24 Threads schlagen 32 Threads.
Ich glaube schon auch, dass da noch ein bisschen fine wine rauskommen kann.
Das hat sich in den letzten beiden Tagen mehr nach Katastrophe angehört und jetzt ist es doch nicht so gekommen.

dildo4u
2024-10-24, 19:24:44
Linux sieht echt gut aus bekommen Server diese Kerne überhaupt oder sind das andere Architekturen?

The_Invisible
2024-10-24, 19:25:15
AMD spricht in eigenen Folien von 8%
https://www.computerbase.de/news/prozessoren/amd-ryzen-7-9800x3d-neue-generation-3d-cache-und-offizielle-leistungsangaben.90069/

Hoffentlich falsch, das wird sonst wirklich lame...

Atma
2024-10-24, 19:29:22
Rocket Lake hatte durch die Bank IPC-Gewinne, gerade auch in Spielen mit gut getuntem RAM.
Mag sein, war trotzdem ein Rückschritt von 10 auf 8 Kerne und hat gesoffen wie ein Loch.

Robbson
2024-10-24, 19:55:46
Ich verstehe das ganze Gemeckere nicht.
Bei Applications ist man auf Augenhöhe mit AMD und hat dabei vergleichbare Verbräuche.
Die Unterschiede bei der Game Performance kann man wie gehabt vernachlässigen, insbesondere Richtung GPU-limitierten Sachen und 4K, bei letzterem ist man im Schnitt 2% langsamer als der 7800X3D, wen juckt das?

Unter idle ist man stets effizienter als AMD... ja und die Bootzeiten sind schön kurz :wink: .

Dass man ansonsten aus der neuen Architektur und dem 3nm Prozess nicht mehr rausholen kann, ist freilich schon ein wenig enttäuschend, wenn man den Gesamtmarkt betrachtet, also insbesondere ARM einbezieht... der schnellste von Intel erreicht also gerade mal die Single Core Performance des aktuellen iPhones :D.

dreas
2024-10-24, 19:57:16
unterwältigend, irgendwie.

Freestaler
2024-10-24, 20:08:34
unterwältigend, irgendwie.

Sehr gut zusammengefasst

Sardaukar.nsn
2024-10-24, 20:13:14
Ohja, finde ich ebenfalls sehr spannend. Gerade für Tüftler bietet die Plattform viele Stellschrauben für Optimierungen, das ist schon ziemlich cool. An der mauen Spieleleistung ändert das natürlich nur wenig, aber ich bin trotzdem darauf gespannt was Enthusiasten noch so herauskitzeln können.

Roman hat in seinem Video ganz schon Hand angelegt. Inkl. Delidden und OC auf mehreren Ebenen. Insgesamt eine spannende neue Plattform, aber darf gerne noch etwas reifen.

Gaming Performance würde ich auch nicht zu hoch hängen. So sind die CPUs aktuell doch ziemlich nah beisammen: https://www.techpowerup.com/review/intel-core-ultra-9-285k/22.html

dargo
2024-10-24, 20:28:46
Und die nächste Enttäuschung bei PC-Hardware. :uclap: PC-Hardware ist einfach nur noch *gähn*. Von Generation zu Generation wirds immer schlimmer. Aber keine Sorge... die nächste Enttäuschung ist schon im Anmarsch.... Zen5 X3D.

Linmoum
2024-10-24, 20:39:27
Man stelle sich vor, wie das ganze ohne TSMC aussehen würde. Und selbst das rettet nur halbwegs die Effizienz von ARL, dass man den Abstand zu AMD nur verkürzt und das trotz besserer Fertigung.

Und Marketing-Fuzzis sollten langsam mal echt ihre Klappe halten, wobei Hallock bei AMD schon vorne mit dabei war. "Wir sind nur 5% hinter dem 7800X3D der Konkurrenz" am Arsch, genauso albern wie AMDs rumgelüge bei RDNA3. Am Ende sind's (fast) +20% für den 7800X3D, der 9800X3D wird den Vorsprung auf 25-30% ausbauen.

Man braucht nicht einmal konkrete Zahlen zu kennen um zu wissen, dass ARL in der Herstellung massivst teurer ist, als Zen5. AMD hat bei den Preise noch enorm viel Spielraum nach unten, um trotzdem weiterhin hohe Margen zu fahren. Das sehe ich bei ARL nicht einmal ansatzweise.

Voodoo6000
2024-10-24, 21:06:04
Am Ende sind's (fast) +20% für den 7800X3D, der 9800X3D wird den Vorsprung auf 25-30% ausbauen.

Zumindest aus Gaming-Sicht ist Arrow Lake wirklich ein Desaster. Der Vorsprung von AMD war in diesem Bereich seit Zen nie größer, denn Zen2,Zen3,Zen3 x3d waren nicht 20+% schneller als Intels Spitzenmodell. Außerdem hat Intel im Gegensatz zu den letzten Generationen sogar die bessere Fertigung.

Exxtreme
2024-10-24, 21:11:36
Ja, wie vermutet. Die RAM- und L3-Latenzen hauen hier rein. Kann sein, dass BIOS-Updates das noch fixen können. Und interessant ist, dass WinDOS 11 24h2 langsamer ist als 23h2, laut PCGH sogar spürbar.

MSABK
2024-10-24, 21:26:32
Man kann ja auch unter Linux spielen, zeigt ja das Stem Deck. Könnten die Tester da nicht auch auf Linux wechseln? Mit immer komplexer werden CPU-Aufbauten scheint Microsoft Probleme zu bekommen.

x-force
2024-10-24, 21:27:10
so sieht also braindrain bei intel aus.
dabei hätte es nichtmal viel hirn bedarft:
hätten sie den 14900 einfach nur gefixed und geshrinked, wären sie in allen punken besser gelandet.

GerryB
2024-10-24, 21:27:19
Definitiv kein Gaming CPU, ist aber auch nix neues.
???

mir persönlich reichen gute ... mit ner preiswerten CPU
minFps@4k

Eigentlich erstaunlich gute Werte, wenn man bedenkt, das der Cache auf nem separaten Die liegt.

mocad_tom
2024-10-24, 21:27:55
Der8auer sagt Cyberpunk 2077 läuft gut auf Arrow Lake


Bei alca.cz läuft aber Cyberpunk 2077 nicht gut auf dem Arrow Lake

https://www.alza.cz/intel-core-ultra-9-285k-recenze-a-testy

Der8auer sagt Remnant 2 (ein Beispiel für UE5) läuft gut.
Der zeigt dann aber nicht her, wie gut Remnant 2 mit OC Ring läuft, ich denke Arrow Lake legt dort ebenso gut zu.

UE5 games(Remnant 2, Black Myth Wukong), dann auch Hogwarts und auch Spiderman laufen halt wirklich, wirklich gut auf Arrow Lake und dazu Ring OC und Arrow Lake schiebt sich nach vorne.

fondness
2024-10-24, 21:30:02
Man kann ja auch unter Linux spielen, zeigt ja das Stem Deck. Könnten die Tester da nicht auch auf Linux wechseln? Mit immer komplexer werden CPU-Aufbauten scheint Microsoft Probleme zu bekommen.

Also in Anwendungen liegt arrow Lake unter Linux wesentlich schlechter als unter Windows, nämlich sogar hinter dem 9900X laut Phoronix. Da reden wir von 12 vs 24 cores.

Daredevil
2024-10-24, 21:31:54
Vorweg: Mir ist bewusst, das mein Anwendungsfall eine Nische ist. ( 24/7 Perf/Watt in MT )

Das der dickste Arrow Lake allerdings 77% schneller ist bei herunter gedrosselten 45w als ein sonst schon sehr effizienter 9950X ist ein ziemlich nettes Ergebnis. Arrow Lake skaliert nach oben hin schlechter und einzeln hat es seine Problemchen, im MT und im Low Power liefert es richtig nett ab, i like!
Edit: Link vergessen: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-5#abschnitt_effizienz_in_anwendungen
https://s20.directupload.net/images/241024/hnscmozw.png
Ein 45w 285K würde somit auf die Cinebench MT Leistung eines 14600K kommen, welcher 170-200w in Anwendungen verbraucht. Obendrauf kommt noch, dass der Idle Verbrauch bei ca. 10w erfreulich niedrig ist, auch wenn die Kiste mit Kernen um sich wirft.

Im Schnitt ist das aber echt ne brutale Bastelbude. Da gibts sicherlich vieles zu optimieren und sehr viele Erkenntnisse in die nächsten Wochen. Für mich also recht spannend. Mal schauen was sonst noch so passiert die nächsten Wochen.

fondness
2024-10-24, 21:35:35
Vorweg: Mir ist bewusst, das mein Anwendungsfall eine Nische ist. ( 24/7 Perf/Watt in MT )

Das der dickste Arrow Lake allerdings 77% schneller ist bei herunter gedrosselten 45w als ein sonst schon sehr effizienter 9950X ist ein ziemlich nettes Ergebnis. Arrow Lake skaliert nach oben hin schlechter und einzeln hat es seine Problemchen, im MT und im Low Power liefert es richtig nett ab, i like!
https://s20.directupload.net/images/241024/hnscmozw.png
Ein 45w 285K würde somit auf die Cinebench MT Leistung eines 14600K kommen, welcher 170-200w in Anwendungen verbraucht. Obendrauf kommt noch, dass der Idle Verbrauch bei ca. 10w erfreulich niedrig ist, auch wenn die Kiste mit Kernen um sich wirft.

Im Schnitt ist das aber echt ne brutale Bastelbude. Da gibts sicherlich vieles zu optimieren und sehr viele Erkenntnisse in die nächsten Wochen. Für mich also recht spannend. Mal schauen was sonst noch so passiert die nächsten Wochen.

Liegt an AMDs io Die mit off Chip Kommunikation die ziemlich viel Strom schluckt. Dass man dann bei last und trotz 3nm schlechter liegt ist natürlich nicht gerade positiv für Intel. Idle und bei sehr niedriger Power hat man aber natürlich Vorteile.

/Edit: der Knick sieht aber interessant aus. Kann es sein, dass Intel ab einer gewissen tdp die p cores abschaltet?

aufkrawall
2024-10-24, 21:37:29
Also in Anwendungen liegt arrow Lake unter Linux wesentlich schlechter als unter Windows, nämlich sogar hinter dem 9900X laut Phoronix.
Intel macht da seit Alder Lake auch auf AMD und diverse Optimierungen fürs Scheduling auf der Architektur kleckern nur scheibchenweise über die Jahre rein. Ist mit little.big halt nur noch "etwas" dramatischer...

Sardaukar.nsn
2024-10-24, 21:42:59
"Wir sind nur 5% hinter dem 7800X3D der Konkurrenz" am Arsch, genauso albern wie AMDs rumgelüge bei RDNA3. Am Ende sind's (fast) +20% für den 7800X3D, der 9800X3D wird den Vorsprung auf 25-30% ausbauen.

Hm? Beim TPU Minimum FPS Benchmark (Link oben) sind es +9% bei 1080p.

Realistisch wird wohl kaum jemand mit Kaliber 7800x3D bzw. 285K und RTX 4090 auf FullHD rumgurken.

Daredevil
2024-10-24, 21:43:11
Liegt an AMDs io Die mit off Chip Kommunikation die ziemlich viel Strom schluckt. Dass man dann bei last und trotz 3nm schlechter liegt ist natürlich nicht gerade positiv für Intel. Idle und bei sehr niedriger Power hat man aber natürlich Vorteile.
Absolut, hat natürlich seine Vor- und Nachteile. AMD lässt in dem Bereich halt im hocheffizienzbereich etwas liegen, dafür klotzen sie an anderer Stelle.
Fürs Gaming ist Arrow Lake aber unterm Schnitt natürlich echt nichts neues ( Natürlich kann man drauf games, aber X3D rockt alles weg ), da muss Intel mit dem Preis kommen. ( AM5 ist allgemein eh günstiger als die neue 1851 Plattform ).
Die 45w oder niedriger sind natürlich zu vergleiche mit Apples Ansatz, die eben nicht die 200w+ sprengen. Ein 285k wäre ca. 2x so schnell wie mein M1 Max im CB bei gleichem Verbrauch, das ist für X86 Bereiche ganz okay, wobei ein M3/M4 natürlich nochmal in anderen Regionen spielt oder spielen wird.
Aber Mac ist halt Mac und Windows Windows.

fondness
2024-10-24, 21:46:06
Hm? Beim TPU Minimum FPS Benchmark (Link oben) sind es +9% bei 1080p.


Sind das überhaupt aktuelle Werte mit Windows Patch?

dreas
2024-10-24, 21:48:46
Hm? Beim TPU Minimum FPS Benchmark (Link oben) sind es +9% bei 1080p.

Realistisch wird wohl kaum jemand mit Kaliber 7800x3D bzw. 285K und RTX 4090 auf FullHD rumgurken.
In Zeiten von DLSS gar nicht mal so klar.

fondness
2024-10-24, 21:49:21
Absolut, hat natürlich seine Vor- und Nachteile. AMD lässt in dem Bereich halt im hocheffizienzbereich etwas liegen, dafür klotzen sie an anderer Stelle.
Fürs Gaming ist Arrow Lake aber unterm Schnitt natürlich echt nichts neues ( Natürlich kann man drauf games, aber X3D rockt alles weg ), da muss Intel mit dem Preis kommen. ( AM5 ist allgemein eh günstiger als die neue 1851 Plattform ).
Die 45w oder niedriger sind natürlich zu vergleiche mit Apples Ansatz, die eben nicht die 200w+ sprengen. Ein 285k wäre ca. 2x so schnell wie mein M1 Max im CB bei gleichem Verbrauch, das ist für X86 Bereiche ganz okay, wobei ein M3/M4 natürlich nochmal in anderen Regionen spielt oder spielen wird.
Aber Mac ist halt Mac und Windows Windows.

Sieht auch mein Edit, das sieht sehr seltsam aus. Zwischen 125 und 75 Watt fast die selben Punkte?

Linmoum
2024-10-24, 21:57:43
Hm? Beim TPU Minimum FPS Benchmark (Link oben) sind es +9% bei 1080p.

Realistisch wird wohl kaum jemand mit Kaliber 7800x3D bzw. 285K und RTX 4090 auf FullHD rumgurken.Ich fange diese sinnlose Diskussion über Benchmarks von CPUs im GPU-Limit (und wie bescheuert das ist) nicht schon wieder an. Irgendwann hat man da einfach keinen Bock mehr drauf, weil es bei wirklich jedem CPU-Launch dasselbe ist. Die Zeit kann ich anders investieren.

Es sind +17% bei PCGH, +19% bei CB und +20% bei HWUB, darauf beruht meine Aussage.

Freestaler
2024-10-24, 22:01:32
so sieht also braindrain bei intel aus.
dabei hätte es nichtmal viel hirn bedarft:
hätten sie den 14900 einfach nur gefixed und geshrinked, wären sie in allen punken besser gelandet.

Ausser vermutlich in der effizient. Hier ist doch das alte Desgin am limit acuh mit 2 nodes kleiner.

Sardaukar.nsn
2024-10-24, 22:09:21
@Linmoum: Keiner will euch die 720p Tests wegnehmen, aber sie sind halt nur ein Teil. Zum Gesamtbild gehören da noch weitere Tests, da bricht sich doch niemand nen Zacken aus der Krone. Ich finde Igor trifft es ganz gut: https://www.igorslab.de/intel-core-ultra-9-285k-core-ultra-7-265k-und-core-ultra-5-245k-im-test-wenn-aus-mehr-ploetzlich-weniger-wird/3/

Jedoch laufen in 720p alle CPUs gleichermaßen ins Limit, so dass es durchaus ein brauchbarerer Gradmesser für die maximalen Performance-Unterschiede, selbst wenn es mit der gelebten Realität eher nichts zu tun hat.

Ähnlich TPU im Wortlaut und machen halt ein paar gängige Auflösungen. So what. https://www.techpowerup.com/review/intel-core-ultra-9-285k/18.html

Of course, nobody buys a PC with an RTX 4090 to game at 720p, but the results are of academic value because [...] Our 720p tests hence serve as synthetic tests in that they are not real world (720p isn't a real-world PC-gaming resolution anymore) even though the game tests themselves are not synthetic (they're real games, not 3D benchmarks).

raffa
2024-10-24, 22:10:23
Und der 9800x3d wird dann nochmal gewaltige 3-7% drauflegen. Die paar Prozente sind doch total wumpe, da nimmt man die für einen attraktivste Kombi aus Leistung, Leistungsaufnahme und Money.

Ich bin seit längerem von einem Intel CPU Release mal nicht gelangweilt.

M4xw0lf
2024-10-24, 22:15:20
Liegt an AMDs io Die mit off Chip Kommunikation die ziemlich viel Strom schluckt. Dass man dann bei last und trotz 3nm schlechter liegt ist natürlich nicht gerade positiv für Intel. Idle und bei sehr niedriger Power hat man aber natürlich Vorteile.

/Edit: der Knick sieht aber interessant aus. Kann es sein, dass Intel ab einer gewissen tdp die p cores abschaltet?
Zumindest scheinen sie erst ab ~130W wirklich anzufangen zu arbeiten; darunter wohl nur/zuallererst die e-cores.

//differentRob
2024-10-24, 22:43:24
Das würde ja dem LNL Thread Director entsprechen. Zunächst eCores dann erst pCore.

Grundsätzlich ja nicht verkehrt, da Skymont zwischen zen3 und zen4 landet. Was wiederum mit einigen Gamebenches einher geht.

L3 und Ram Latency sind halt sehr unsexy und so reagieren Games halt drauf.

Ich sitze das aus und versuche an einen 5800x3d zukommen.

memory_stick
2024-10-24, 23:20:06
Wie misst CB die package power? Kann es ein dass da das Asus board mit dem routen von einigen cpu vrm stages über den 24Pin statt regulären 12V EPS (siehe GamersNexus und HW unboxed) niedrigere Werte generiert als die CPU effektiv schluckt? Würde sie absurde Effizienz vor allem bei low power (Annahme: fast ganze cpu power via 24pin statt 12V eps) erklären...

Platos
2024-10-24, 23:59:06
Die Effizienz ist unter Vollast und Gaming verglichen mit Raptorlake zwar massiv gestiegen, aber verglichen mit dem 7800X3D ist es trotzdem noch weit weg davon (dafür ist Intel wie immer bei Niedriglast einfach besser).

Von der Perfomance dann im Gaming aber meist schlechter als AMD und das bei leicht höherem Stromverbrauch.

Bei Anwendungen dann gute Perfomance, aber Stromverbrauch immer noch viel höher wie AMD.

Naja: Ich fühle "Zen 1 Moment". Könnte was werden, aber wird wohl noch weitere 2-3 Generationen dauern.

Intel muss sich mal beeilen, sonst wird das nix.

aufkrawall
2024-10-25, 00:03:07
Von der Perfomance dann im Gaming aber meist schlechter als AMD und das bei leicht höherem Stromverbrauch.

Bei HWUB sind es bei vergleichbaren fps in TLOU ~70% mehr Verbrauch als ein 7800X3D.

iamthebear
2024-10-25, 00:12:13
https://s20.directupload.net/images/241024/hnscmozw.png

Ein 45w 285K würde somit auf die Cinebench MT Leistung eines 14600K kommen, welcher 170-200w in Anwendungen verbraucht. Obendrauf kommt noch, dass der Idle Verbrauch bei ca. 10w erfreulich niedrig ist, auch wenn die Kiste mit Kernen um sich wirft.

Den komischen Knick kann ich mir zwar nicht wirklich erklären aber dass ARL bei 45W deutlich effizienter ist liegt daran, dass der neue Ringbus eben nicht nur sehr lahm ist sondern auch deutlich weniger verbraucht. AMDs Idle Verbrauch bei den 16 Kernern war noch nie so berauschend.

Was den Vergleich mit dem 14600K angeht: Der hat eben deutlich weniger Kerne. Ein 13900K auf 105W schlägt auch einen 12900K mit 240W in Cinebench. Solche Vergleiche hinken gewaltig.

Zumindest scheinen sie erst ab ~130W wirklich anzufangen zu arbeiten; darunter wohl nur/zuallererst die e-cores.

Das wäre aber ziemlich dämlich. Mit 130W laufen die E Cores schon auf Maximaltakt. Viele Kerne mit niedrigem Takt ist immer effizienter als wenige Kerne hochzuprügeln.
Bei Lunar Lake im 8W Modus mag das zwar sinnvoll sein, mit 130W aber nicht.



Hier ein sehr interessanter Test von CB: Verbrauch und Performance von 8P bzw. 1P+16E in Cinebench
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-6#abschnitt_ipc_vs_raptor_lake_und_granite_ridge

Bei 4GHz brauchen RPL und ARL P Cores ohne SMT genau gleich viel Energie. Die P Cores sind 7% schneller.
Wenn ich mir die Spannungen bei Maximaltakt ansehe habe ich den Eindruck als wären zumindest die P Cores trotz 2 Node Shrinks überhaupt nicht effizienter. Intel hat sie nur etwas weniger weit geprügelt.

Die E Cores haben in Cinebench ca. 35% mehr IPC aber verbrauchen nur ca. 10% mehr und sind immer noch sehr kompakt.

Mein Fazit:
.) Skymont ist echt in Ordnung. Nun machen die E Cores erstmals Sinn.
.) Lion Cove ist ein absoluter Reinfall. Keine Ahnung was da schief gegangen ist aber das Design kann man wohl komplett einstampfen.
.) Das Chipletdesign ist bei Lunar Lake echt gut gelungen. Bei Arrow Lake im Notebook wird es wohl auch noch Sinn machen aber für Arrow Lake Desktop ist es komplett unbrauchbar. Hier braucht es sowohl einen schnelleren Ringbus als auch einen Memory Controller im Compute Tile zumindest solange man keinen VCache hat.

Meiner Meinung nach war es ein schwerer Fehler das 8+32 Design zu canceln. Das hätte zwar an der mieserablen Gaming Performance nichts geändert aber man hätte zumindest einen Bereich gehabt wo man eindeutig gewinnt. So hat es AMD geschafft Zen1 in den Markt zu bringen.

Gipsel
2024-10-25, 00:14:41
Vorweg: Mir ist bewusst, das mein Anwendungsfall eine Nische ist. ( 24/7 Perf/Watt in MT )

Das der dickste Arrow Lake allerdings 77% schneller ist bei herunter gedrosselten 45w als ein sonst schon sehr effizienter 9950X ist ein ziemlich nettes Ergebnis. Arrow Lake skaliert nach oben hin schlechter und einzeln hat es seine Problemchen, im MT und im Low Power liefert es richtig nett ab, i like!
Edit: Link vergessen: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-5#abschnitt_effizienz_in_anwendungen
https://s20.directupload.net/images/241024/hnscmozw.png
Ein 45w 285K würde somit auf die Cinebench MT Leistung eines 14600K kommen, welcher 170-200w in Anwendungen verbraucht. Obendrauf kommt noch, dass der Idle Verbrauch bei ca. 10w erfreulich niedrig ist, auch wenn die Kiste mit Kernen um sich wirft.Falls AMD mal die Stromsparfunktionen der Links zwischen CCDs und IO-Die auch im Desktop aktivieren würde (hat AMD mal bei irgendwelchen mobilen Chiplet-basierten Lösungen gemacht, wo das deutlich was gebracht hat), könnte man die gemessene Kurve bei Anwendungen ohne hohe Speicherlast und/oder Kommunikationsaufwand zwischen den CCDs (wie Renderbenchmarks) wohl so grob 15W nach links schieben. So sieht das natürlich bei solch niedrigen TDPs recht unattraktiv aus (und verursacht auch einen recht hohen idle-Verbrauch).
Mal so als Anmerkung: In CB R24 schlägt ein 12-Kern Strix Point bei sogar noch niedrigeren TDPs (~1000 Punkte @33W, ~920 Punkte @28W) den 16-Kerner @45W (~780 Punkte?) bereits merklich. Also wenn das Dein Anwendungsbereich ist, kaufst Du Dir eventuell am besten ein Notebook. ;)

Daredevil
2024-10-25, 00:33:45
Wenn ich P/L CPU Leistung will, könnte ich mir auch 10 MacMinis kaufen mit nem Base M3.
Da ich aber nebenbei und kombiniert auch noch ne Windows Zockkiste haben möchte, muss es halt Desktop Windows sein ( Games ) wo ich 2025 dann ne 5090 zustecke für 4K120 Gaming+Mining.

Am Ende wird's ein Rechner, der 22/7 Zahlen berechnet mit CPU/GPU und damit maximal im Sweet Spot fahren muss und die restliche Zeit wird halt mal mit den Jungs was gespielt. :redface:
Da scheint der dickste Arrow Lake gerade ein wenig optimaler zu sein als Zen5, selbst wenn nun die X3D Version kommen sollte. Gaming ist bei mir ja dann eher ein Randbereich, Sweet Spot Multithreading der Hauptbereich und da scheinen die E-Cores wohl zu glänzen. Lieber wär mir aber ein fiktiver M4 Ultra, den ich mit einer 5090 kombinieren könnte. Not gonna Happen. :D

ashantus
2024-10-25, 01:12:18
Was mir heute am meisten auffällt und mich beinah zum heulen bringt: ich vermisse mein anandtech!

Slipknot79
2024-10-25, 02:34:07
Wieder Kohlen gespart. (y)

Leonidas
2024-10-25, 03:29:21
Linux sieht echt gut aus bekommen Server diese Kerne überhaupt oder sind das andere Architekturen?

Server bekommen Lion Cove.

konkretor
2024-10-25, 05:58:09
Joar das Latenz Thema drückt das etwas. Endlich mal wieder etwas zum tüfteln.

Die Board Preise sind Stellenweise mal richtig abgehoben. Wird schon seine Abnehmer finden. Mal sehen wie die nächste Generation aussieht.

Leonidas
2024-10-25, 06:09:58
https://x.com/Olrak29_/status/1849470570116923754
https://i.imgur.com/KAv5Rml.jpeg

Tarkin
2024-10-25, 06:20:13
https://www.youtube.com/watch?v=u-zNyDCIo9Q&t=189s 40 Games ... Ryzen mit 8000er RAM getestet!

Prinzenrolle
2024-10-25, 06:47:24
Es gibt auf alle Fälle ordentlich was zu basteln mit "Error" Lake.
Wird als Nachfolger für den 11900F herhalten müssen, jetzt ist es Zeit zu upgraden.

Pirx
2024-10-25, 06:47:52
Das Asus ROG Maximus Z890 Hero zieht anscheinend einen Teil der Energie für die CPU über den ATX-Stecker -kA, wieviele Tester das Mainboard hatten und ob sie es beachtet haben.

https://www.youtube.com/watch?v=3n537Z7pJug&t=651s

edit: Computerbase hatte es bspw. und kommt bei Vollast nur auf 200W (Handbrake) statt wie HWU auf 258W (Cinebench MT)
... ok, als Maximum hat CB 263 W gemessen, trotzdem ist da ein Fragezeichen für alle Verbrauchstests mit dem Asus
...ok2 CB misst gar nicht sondern nimmt HWInfo also ist das vielleicht ok so bei denen

soLofox
2024-10-25, 06:57:18
Intel hat einen Zen-Moment

https://www.golem.de/news/core-ultra-9-285k-arrow-lake-im-test-intel-hat-einen-zen-moment-2410-190157.amp.html



Die Überschrift ist wirklich Mal schlecht gewählt.

ChaosTM
2024-10-25, 07:03:56
Passt ziemlich perfekt finde ich.
Man versucht einen neuen Ansatz, der wie beim ersten ZEN noch so seine Macken hat.
Um diese Gen würde ich selbst als Intel-Only Person noch einen (großen) Bogen machen und auf die nächste warten.

Mr Schnabel
2024-10-25, 07:27:53
Zumindest scheinen sie erst ab ~130W wirklich anzufangen zu arbeiten; darunter wohl nur/zuallererst die e-cores.

Ab 80Watt halbiert sich der Gradient, d.h. da fangen die ineffizienteren P-Cores an zu arbeiten. Wenn man bedenkt, dass die P-Cores das Ergebnis nur zu 1/3 (2400 zu 1800) steigern aber 60% der Fläche verbrauchen, macht es da nicht mehr Sinn, sich voll und ganz auf die E-Cores zu konzentrieren?
Gibt es Spiele Benchmarks, bei denen nur die E-Cores aktiviert sind?

Zossel
2024-10-25, 07:47:08
bei Anwendungen ohne hohe Speicherlast und/oder Kommunikationsaufwand zwischen den CCDs (wie Renderbenchmarks) wohl so grob 15W nach links schieben.

Wo sollen Renderbenchmarks einen hohen Kommunikationsaufwand zwischen Cores haben?
Je nach CPU-Bumms stellt man die Job-Größe ein um den Kommunikationsaufwand vernachlässigen zu können.

][immy
2024-10-25, 08:22:13
Passt ziemlich perfekt finde ich.
Man versucht einen neuen Ansatz, der wie beim ersten ZEN noch so seine Macken hat.
Um diese Gen würde ich selbst als Intel-Only Person noch einen (großen) Bogen machen und auf die nächste warten.

Allerdings war Zen gegenüber Bulldozer ein gigantischer Sprung. Das kann man hier nicht sagen. Und der Verbrauch geht gegenüber einem gezügelten Intel Vorgänger auch nicht wirklich runter.

fondness
2024-10-25, 08:28:36
[immy;13636777']Allerdings war Zen gegenüber Bulldozer ein gigantischer Sprung. Das kann man hier nicht sagen. Und der Verbrauch geht gegenüber einem gezügelten Intel Vorgänger auch nicht wirklich runter.

Wollte ich auch gerade schreiben. Das entscheidende bei Zen war, dass man endlich wieder konkurrenzfähig war. Bei Intel ist genau das Gegenteil passiert.

Daredevil
2024-10-25, 08:38:39
Ein 14900k war voll konkurrenzfähig, er hat halt nur viel gesoffen.
Nun haben wir die Leistung eines 14900k +\- mit deutlich niedrigerem Verbrauch auf einer brandneuen Plattform mit MultiDIE Technologie, die für Intel das bauen von kommenden Prozessoren deutlich flexibler macht.
Teilweise kommt Arrow Lake mit Zen5 mit oder ist sogar im MT effizienter, was sicher keine schlechte Basis ist für kommende Server Produkte.
Im Gaming liegt man hinten, das ist sich Intel aber auch bewusst. X3D kann man nicht auch „nebenbei“ noch schlagen.

Wenn man davon ausgeht, das dies nun die schlechteste Implementierung ist der neuen Plattform, bekommt AMD langsam wieder Konkurrenz. Mal davon ab, das an jeder Ecke Platz zum tweaken ist, wie der8auer im Video schon gezeigt hat. It’s a Zen1 Moment, hoffentlich.

Arrow Lake ist der 1800X und AMD hält die Hand mit dem 7700K aka 7800X3D auf. :D

Freestaler
2024-10-25, 08:52:32
Vollkonkurrenzfähig war Leistung und Preis. Zuverlässigkeit (Qualität) wie auch Leistungsaufnahme ist am "ar...". Das Desgin ist am Ende. Zudem war 1800x Rückstand unter 15% im Gaming, Vorsprung Applikation war auch grösser als der 285 jetzt (gegen 7700k damals, 4 Cores vs. 8). 285 wird zu 9000x3d vermutlich 30% oder mehr im Gaming zurück sein und in Anwendungen keine neue Bestmarken setzen mit riesen Abstand. Mal schauen ob Intel über den Preis macht.

gnomi
2024-10-25, 09:06:23
Bei weniger Gaming Leistung als der Vorgänger brauche ich mich gar nicht groß mit beschäftigen.
Intel ist nach Coffee Lake nicht mehr vorne.
Und bei den Problemen fühlt sich selbst eine CPU im Abverkauf aus der 13er/14er Serie falsch an.
Ich bleibe also noch ein wenig länger bei der alten Plattform.
60fps plus FG obendrauf sind auch okay.

fondness
2024-10-25, 09:08:53
Vollkonkurrenzfähig war Leistung und Preis. Zuverlässigkeit (Qualität) wie auch Leistungsaufnahme ist am "ar...". Das Desgin ist am Ende. Zudem war 1800x Rückstand unter 15% im Gaming, Vorsprung Applikation war auch grösser als der 285 jetzt (gegen 7700k damals, 4 Cores vs. 8). 285 wird zu 9000x3d vermutlich 30% oder mehr im Gaming zurück sein und in Anwendungen keine neue Bestmarken setzen mit riesen Abstand. Mal schauen ob Intel über den Preis macht.

Ja ich habe auch den Eindruck, dass hier manche ein falsches Bild von Zen 1 haben. Der war weitaus konkurrenzfähiger als das hier. Und hatte zudem den schlechteren, nicht den besseren Fertigungsprozess.

Ich sehe auch in Anwendungen keine höhere Performance als bei einem 9950X. Und dabei wird der 9950X schon bei 200W abgeriegelt, hat nur 16 Kerne, wird nur in 4nm gefertigt. Von Spielen brauchen wir gar nicht erst reden. Einen Rückstand von voraussichtlich 30% gab es zuletzt bei Bulldozer. AMD hat ein paar Krümel liegen lassen wie die 15W mehr Idle Verbrauch, aber das reicht wohl kaum um Leute zu überzeugen Intel zu kaufen.

Freestaler
2024-10-25, 09:23:46
Ja, Zen 1 hat sich mit der HEDT Plattform von Intel angelegt. Arrow Lake hat soweit ich sehe "nichts" ausser besseren Idle verbrauch. Sonst ist alles schlechter als Konkurrenz. Und selbst gegenüber den Vorgänger nur die besser Effizienz, dies aber bei schlechterer Leistung overall. Und dies mit neuerer Fertigungstechnologie. Und den Vorgänger kann man selbst in Ab/altverkauf (falls es sowas bei Intel mal geben sollte) nicht empfehlen wegen Qualitätsmängel. Wirklich selten dumme Situation. Schlecht für uns. Hoffentlich greift Intel wenigsten über den Preis an. Sonst machts sich AMD das zu einfach.

Platos
2024-10-25, 09:41:00
Bei HWUB sind es bei vergleichbaren fps in TLOU ~70% mehr Verbrauch als ein 7800X3D.

Hab mich jetzt auf den Computerbase-Test bezogen. Da gibts aber auch ein paar Aussreisser, wo der Stromverbrauch in etwa ähnlich viel höher ist, wie du jetzt sagst. Hab jetzt keinen Durchschnitt errechnet, aber meistens ist es nicht so krass (das liegt aber vermutlich daran, dass bei den meisten Spielen die Auslastung hald einfach nicht so hoch ist).

Edit: Bei CB gibts allerdings einen Durchschnittswert: 62Watt vs 90 Watt. vs. 169Watt (14900K). Ok, das sind dann 45% höher zwischen Arrowlake und 7800X3D. Vermutlich also so ~+50% bezogen auf Zen5. Ist viel schlechter als AMD, aber deutlich besser, wie bei Raptorlake.

Loeschzwerg
2024-10-25, 09:42:58
Als Arbeitsgerät mit Bedarf an viel Konnektivität finde ich LGA1851 als Plattform gar nicht mal so verkehrt. Aber wenn da wirklich maximal nur ein Refresh noch nachgeschoben wird... puhh.
Naja, mal schauen wie sich der Preis bis zum Lauch der non-K und B-Chipsätzen so entwickelt.

Kriegsgeier
2024-10-25, 09:57:47
INTEL ULTRA 9 285K vs INTEL i7-13700K | Test in 6 Games
https://www.youtube.com/watch?v=n-kLP3ao6fE

285K ist doch wesentlich schneller als z.B. 13700K? Krass. Also ist die CPU doch brauchbar?

Gipsel
2024-10-25, 10:01:24
Wo sollen Renderbenchmarks einen hohen Kommunikationsaufwand zwischen Cores haben?
Je nach CPU-Bumms stellt man die Job-Größe ein um den Kommunikationsaufwand vernachlässigen zu können.Genau das schrieb ich. ;)
.. Anwendungen ohne hohe Speicherlast und/oder Kommunikationsaufwand zwischen den CCDs (wie Renderbenchmarks)..

Ph0b0ss
2024-10-25, 10:02:33
SkatterBencher hat die Latency zum Ram auf 65,5ns runter bekommen:

https://cdn.skatterbencher.com/wp-content/uploads/2024/10/cachemem-8600-png.webp

Dabei waren wohl NGU und D2D übertaktet, aber Ring noch auf Standard. Wäre also noch etwas Potential übrig, vielleicht Richtung 60ns?

Zitat:
By enabling the DDR5-8400 XMP profile, the bandwidth increases by more than 50%, and the latency improves by 25%. Further memory subsystem performance optimization with tweaked sub-timings, increased NGU and D2D operating frequencies, and adjusted DRAM Clock Period, yields another 30 percentage points additional bandwidth and doubles the improvement in memory latency.

https://skatterbencher.com/2024/10/24/arrow-lake-memss-overclocking/

dildo4u
2024-10-25, 10:05:49
INTEL ULTRA 9 285K vs INTEL i7-13700K | Test in 6 Games
https://www.youtube.com/watch?v=n-kLP3ao6fE

285K ist doch wesentlich schneller als z.B. 13700K? Krass. Also ist die CPU doch brauchbar?
Fake Benches in 4k würde die GPU Limitieren in Games wie God of War.

13600K schafft 100fps Plus.

https://i.ibb.co/2vzcmTm/Bildschirmfoto-vom-2024-10-25-10-07-26.png (https://ibb.co/5rQstPt)

https://www.pcgameshardware.de/God-of-War-Ragnaroek-Spiel-73016/Specials/God-of-War-Ragnaroek-Ragnarok-Hands-on-Tech-1456085/3/

Kriegsgeier
2024-10-25, 10:07:47
stimmt, wo du es sagst. Wer hat die Zeit dafür solch ein Fakevideo zu machen - ohje

Raff
2024-10-25, 10:16:37
Moin! Nachschlag. :biggrin:

Intel Core Ultra 200 (Arrow Lake) zu langsam? Diese Stellschrauben und Tipps helfen! (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Specials/Arrow-Lake-Latenzen-APO-Tuning-Rebar-Core-Ultra-200-Test-Troubleshooting-1458242/)

MfG
Raff

Matrix316
2024-10-25, 10:17:24
Fake Benches in 4k würde die GPU Limitieren in Games wie God of War.

13600K schafft 100fps Plus.

[...]

https://www.pcgameshardware.de/God-of-War-Ragnaroek-Spiel-73016/Specials/God-of-War-Ragnaroek-Ragnarok-Hands-on-Tech-1456085/3/

Aber vielleicht nicht mit einer 3090TI. PCGH nutzt ja eine 4090.

Wenn ich die Reviews so überschlage testen fast alle in max 1440p und meistens in 720 oder Full HD Low und einer 4090, aber die wenigsten mit einer älteren Karte in Ultra HD und allen Details. Wer weiß wie sich Arrowlake da verhält?

Gibt auch ein "Vergleich" zum 13900K

ivi2SuRnSQ4

Bei JayzTwoCents ist z.B. in Cyberpunk der 13900K gleichauf mit dem 7800X3D und der 14900K dahinter und noch weiter dahinter der 285K. Aber auch wieder in Full HD Medium mit einer 4090 ohne RT.

_X8Kr43xbk8

Palpatin
2024-10-25, 10:17:47
Teilweise kommt Arrow Lake mit Zen5 mit oder ist sogar im MT effizienter, was sicher keine schlechte Basis ist für kommende Server Produkte.
Genau da wo er bei MT Anwendungen gut mit Zen 5 mithalten kann, zieht er aber dann auch wieder gut 30-40% mehr Strom als Zen 5.....

dildo4u
2024-10-25, 10:30:08
Aber vielleicht nicht mit einer 3090TI. PCGH nutzt ja eine 4090.

Wenn ich die Reviews so überschlage testen fast alle in max 1440p und meistens in 720 oder Full HD Low und einer 4090, aber die wenigsten mit einer älteren Karte in Ultra HD und allen Details. Wer weiß wie sich Arrowlake da verhält?

Gibt auch ein "Vergleich" zum 13900K

https://youtu.be/ivi2SuRnSQ4

Bei JayzTwoCents ist z.B. in Cyberpunk der 13900K gleichauf mit dem 7800X3D und der 14900K dahinter und noch weiter dahinter der 285K. Aber auch wieder in Full HD Medium mit einer 4090 ohne RT.

https://youtu.be/_X8Kr43xbk8

Deswegen machen 7600X für 200€ noch Sinn schon in 1440p schrumpft der Vorsprung der High End Modell gewaltig.

Alles in der Mitte nimmt sich kaum was.

https://i.ibb.co/P9YJqTF/CP2077-p.webp (https://ibb.co/pRPNYWb)


https://www.techspot.com/review/2911-intel-core-ultra-9-285k/

Die Ausnahmen sind natürlich Simulationen und City Builder.

Undertaker
2024-10-25, 10:40:56
Wollte ich auch gerade schreiben. Das entscheidende bei Zen war, dass man endlich wieder konkurrenzfähig war. Bei Intel ist genau das Gegenteil passiert.

Das ist nicht korrekt. Ryzen 1 lag im CB Spiele-Rating knapp hinter einem 4790K, aktuell war zu dieser Zeit die 7. Generation. Gesoffen hat er ebenfalls erheblich mehr als der 7700K. Einzig die Anwendungsperformance war solide und lag über der Mainstream-Core-Plattform.

Arrow Lake liegt in Anwendungen, Spielen und vom Verbrauch ziemlich genau auf dem Level des 9950X, mit kleineren Vorteilen für den ein oder anderen je nach konkretem Anwendungsfall. Besser, aber auch teurer werden einzig die X3D-Modelle sein, wenn man denn Spiele in den Hauptfokus rückt.

Zossel
2024-10-25, 10:45:05
Genau das schrieb ich. ;)

Ich sollte von oralen Kaffee auf intravenösen Kaffee umsteigen :-)

Matrix316
2024-10-25, 10:45:25
Deswegen machen 7600X für 200€ noch Sinn schon in 1440p schrumpft der Vorsprung der High End Modell gewaltig.

Alles in der Mitte nimmt sich kaum was.
[...]
https://www.techspot.com/review/2911-intel-core-ultra-9-285k/

Die Ausnahmen sind natürlich Simulationen und City Builder.

Ob du Cyberpunk mit 129 oder 200 FPS spielst ist ja egal. Aber in Ultra HD und Max Details machen dann schon wenige FPS einen spürbaren Unterschied. Wobei OK: Laut Techpowerup sind die Unterschiede nicht so groß wie im Video. Wobei hier auch eine 4090 getestet wurde und keine 3090TI oder so.

https://www.techpowerup.com/review/intel-core-ultra-9-285k/21.html


Das ist nicht korrekt. Ryzen 1 lag im CB Spiele-Rating knapp hinter einem 4790K, aktuell war zu dieser Zeit die 7. Generation. Gesoffen hat er ebenfalls erheblich mehr als der 7700X. Einzig die Anwendungsperformance war solide und lag über der Mainstream-Core-Plattform.

Arrow Lake liegt in Anwendungen, Spielen und vom Verbrauch ziemlich genau auf dem Level des 9950X, mit kleineren Vorteilen für den ein oder anderen je nach konkretem Anwendungsfall. Besser, aber auch teurer werden einzig die X3D-Modelle sein, wenn man denn Spiele in den Hauptfokus rückt.
Ja dann wird es Zeit, dass Intel endlich die Arrow Lake X3D Variante bringt. ;)

Aber ich verstehe das nicht. Wie kann man in Cinebench und anderen Anwendungen so weit vorne liegen - selbst im Single Core - und dann in Games zum Teil weit hinter alten CPUs die selbst nicht mal X3D haben?

Das gilt für Ryzen 9000 wie für Arrow Lake eigentlich. Ist das diese Effizienz Sache? Beide verbrauchen weniger Strom, aber haben auch weniger Leistung in Games. In Anwendungen verbrauchen sie dann wieder deutlich mehr Strom und leisten auch deutlich mehr. Wasn das fürn Quatsch? =)

Mega-Zord
2024-10-25, 10:46:22
Dass die CPU im Gaming kein Land sehen wird, war ja eigentlich abzusehen. Uninteressant finde ich die Architektur dennoch nicht.

Dieses DLVR-Feature wäre doch der Hammer, wenn es dynamisch betrieben wird. Im Idle- und Teillast-Betrieb sorgt es für effiziente Spannungsversorung der einzelnen Kerne und im Lastbetrieb wechselt man zur externen Spannungsregelung.

Loeschzwerg
2024-10-25, 10:47:26
Zitat:
By enabling the DDR5-8400 XMP profile, the bandwidth increases by more than 50%, and the latency improves by 25%. Further memory subsystem performance optimization with tweaked sub-timings, increased NGU and D2D operating frequencies, and adjusted DRAM Clock Period, yields another 30 percentage points additional bandwidth and doubles the improvement in memory latency.

https://skatterbencher.com/2024/10/24/arrow-lake-memss-overclocking/

Nice, da geht echt einiges :)

Zossel
2024-10-25, 10:47:38
SkatterBencher hat die Latency zum Ram auf 65,5ns runter bekommen:

Dabei waren wohl NGU und D2D übertaktet, aber Ring noch auf Standard. Wäre also noch etwas Potential übrig, vielleicht Richtung 60ns?


Schafft die Karre dann auch mehrere Stunden compilieren ohne Bumm?

HOT
2024-10-25, 11:02:04
Matrix316
Lt. MLIDs Video mit dem Intel-Ingeneur ist Adamantine gescheitert, weil er kaum was brachte und der ELLC wird erst mit Nova Lake erwartet. So lange ist also X3D-Durststrecke für Intel.

KodeX
2024-10-25, 11:05:59
Intel hat einen Zen-Moment

https://www.golem.de/news/core-ultra-9-285k-arrow-lake-im-test-intel-hat-einen-zen-moment-2410-190157.amp.html



Die Überschrift ist wirklich Mal schlecht gewählt.

Auch das Fazit fällt - meines Erachtens - viel zu positiv aus und ist voll des Lobs. Könnten hier finanzielle Interessen eine Rolle gespielt haben? ;-)

Matrix316
2024-10-25, 11:13:48
Matrix316
Lt. MLIDs Video mit dem Intel-Ingeneur ist Adamantine gescheitert, weil er kaum was brachte und der ELLC wird erst mit Nova Lake erwartet. So lange ist also X3D-Durststrecke für Intel.
Hab ich leider schon gehört.

Vielleicht ist es auch einfach der Aufbau der CPUs selbst. Dass die P-Cores nicht mehr alle nebeneinander sind ist schon komisch. In einer CPU gibt es doch nix wichtigeres wie Signalwege. Die müssen doch so kurz wie möglich sein.

Vielleicht müsste man 3D Cores erstellen, nicht nur Cache. Also z.B. unten die E-Cores und darüber gestackt die P-Cores. Oder die E-Cores in die P-Cores integrieren. :uponder: Keine Ahnung. ;)

maximus_hertus
2024-10-25, 11:17:43
Das ist nicht korrekt. Ryzen 1 lag im CB Spiele-Rating knapp hinter einem 4790K,

Ja, in dem alten Parcours. Mit dem Zen 1 hat CB einen neuen, aktuellen Parcour erstellt und nicht mehr mit fraps, sondern per FCAT gemessen. Siehe CB:

Der von ComputerBase im Artikel „CPU-Skalierung im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle“ eine Woche vor dem Marktstart von Ryzen vorgestellte überarbeitete Testparcours mit neueren Treibern und mehr sowie vor allem neueren Spielen sieht Ryzen hingegen vor dem Core i5-7600K und offenbart weitere wesentliche Erkenntnisse.

und

aber nur noch vier Prozent Rückstand sind es zum Core i7-7700K. Der Core i5-7600K wird hingegen um zehn Prozent geschlagen. Hintergrund: Die neueren Spiele und Treiber profitieren stärker von mehr Kernen und Threads.



aktuell war zu dieser Zeit die 7. Generation. Gesoffen hat er ebenfalls erheblich mehr als der 7700X. Einzig die Anwendungsperformance war solide und lag über der Mainstream-Core-Plattform.

Solide? Nun ja, im Schnitt über 20% vorne und bei Applikationen, die von 8 Kernen profitierten sogar 60+% vorne. DAs ist imo mehr als "nur" solide.



Arrow Lake liegt in Anwendungen, Spielen und vom Verbrauch ziemlich genau auf dem Level des 9950X, mit kleineren Vorteilen für den ein oder anderen je nach konkretem Anwendungsfall. Besser, aber auch teurer werden einzig die X3D-Modelle sein, wenn man denn Spiele in den Hauptfokus rückt.

Ja, wobei ich mir nicht sicher bin, ob ein X3D wirklich teurer als ein 1851er sein wird. Die Boardpreise für Arrowlake sind teils absurd. Man kann nur hoffen, dass die sich eher früher als später zumindest ein wenig nach unten bewegen.

Was die Sache aber durchaus enttäuschend macht, ist der nicht-Vorsprung trotz 3nm vs AMDs 4nm Zen 5.

Dazu die Ungewissheit, ob es eine neue Gen für die sehr teuren Boards geben wird (also echte neue Gen, kein +100 MHz Refresh).



Alles in allem ist Arrowlake eigentlich eine solide Basis. Die (Heupt) Probleme sind halt: Die eigenen Vorgänger (bzw. deren Performance) und AMDs X3D.
Die 24H2 Probleme helfen da auch nicht weiter.

Zum Jahreswechsel, mit den dann erscheinenden B Boards und den non K CPUs könnte Arrowlake sicherlich eine solide Option sein, je nachdem, was AMD bis dahin macht.

Prinzenrolle
2024-10-25, 11:18:14
Auch das Fazit fällt - meines Erachtens - viel zu positiv aus und ist voll des Lobs. Könnten hier finanzielle Interessen eine Rolle gespielt haben? ;-)

Ich glaube viel eher, dass die CPU doch teilweise was kann und es sehr auf die Spiele/System ankommt.

HOT
2024-10-25, 11:22:58
Final wird denke ich mal die Ringbus-Geschwindigkeit korrekt laufen auch mit ausgeglichen, 24H2 gefixt werden und geringfügig über 23H2 landen und man wird knapp unter RPL/Zen5 rauskommen bei Spielen langfristig. Damit kann man leben, ist nicht optimal aber geht.
Dafür ist man dann bei Anwendungen, bis auf den AVX512-Nachteil, der bei Phoronix gut zu sehen ist, auf Augenhöhe mit Zen5.

KodeX
2024-10-25, 11:26:05
Ich glaube viel eher, dass die CPU doch teilweise was kann und es sehr auf die Spiele/System ankommt.

Naja, man sollte das "Können" einer CPU aber immer in Relation mit dem direkten Vorgänger und dem Konkurrenzprodukt sehen.

Verglichen mit dem Vorgänger ist die Anwendungsleistung leicht besser, die Spieleleistung schwächer. Der Verbrauch ist deutlich besser.

Verglichen mit dem Konkurrenzprodukt, dem 9950X, ist die Anwendungsleistung ähnlich (tendenziell pro AMD), die Spieleleistung leicht schwächer und auch der Verbrauch in Summe ähnlich (ebenfalls tendenziell pro AMD).

Das ist alles andere als berauschend. Der 9950X3D wird da nochmal eine gute Schippe drauflegen.

maximus_hertus
2024-10-25, 11:28:38
Ich glaube viel eher, dass die CPU doch teilweise was kann und es sehr auf die Spiele/System ankommt.

Genau das!

Wenn man ein neues System kaufen möchte und primär Anwendungsperformance haben möchte, dann sind 9950X und 285K auf einem Niveau. Genauso bei der Effizienz.

Erst der 9950X3D wird wohl das ganze in Richtung AMD "kippen" lassen. Deutlich mehr Gaming Performance, grob gleiche Anwendungsperformance (im Schnitt) und (leicht) bessere Energieffizienz (im Schnitt).


Ergo:

wer primär / nur zockt: 7800X3D bzw. dann wahrscheinlich 9800X3D
wer zockt UND arbeitet: 7950X3D bzw. 9950X3D
wer primär arbeitet und auch mal zockt: 285K oder 9950X, beide auf Augenhöhe


Leider ist die Ungewissheit, wie lange man die Plattform nutzen kann, eher ein Minuspunkt bei Intel. Gerade da die Boardpreise ziemlich eskalieren.

anddill
2024-10-25, 11:36:15
Hab ich leider schon gehört.

Vielleicht ist es auch einfach der Aufbau der CPUs selbst. Dass die P-Cores nicht mehr alle nebeneinander sind ist schon komisch. In einer CPU gibt es doch nix wichtigeres wie Signalwege. Die müssen doch so kurz wie möglich sein.

Vielleicht müsste man 3D Cores erstellen, nicht nur Cache. Also z.B. unten die E-Cores und darüber gestackt die P-Cores. Oder die E-Cores in die P-Cores integrieren. :uponder: Keine Ahnung. ;)

Verteilung der thermischen Last. Die Wärme überträgt sich innerhalb des Tiles sehr gut, so können die E-Cores die P-Cores praktisch mitkühlen. Latenz ist da vermutlich nur minimal beeinträchtigt, da die Cores sowieso an einem Ring hängen und die E-Cores tempomäßig gegenüber den P-Cores massiv aufgeholt haben. Bei Vollast willst Du die auch zügig bedienen, zumal die weniger lokalen Cache haben.

fondness
2024-10-25, 11:46:58
Das ist nicht korrekt.

Das ist korrekt. Du bist nur wie üblich sehr kreativ beim interpretieren von Aussagen ;-). Bulldozer war meilenweit weg, Zen war wieder konkurrenzfähig. Mehr habe ich nicht gesagt. Und nein ich führe jetzt keine Diskussion darüber das konkurrenzfähig bedeutet.

Undertaker
2024-10-25, 11:50:57
Ja, wobei ich mir nicht sicher bin, ob ein X3D wirklich teurer als ein 1851er sein wird. Die Boardpreise für Arrowlake sind teils absurd. Man kann nur hoffen, dass die sich eher früher als später zumindest ein wenig nach unten bewegen.


Das war doch bei AM5 das gleiche, da ging es anfangs auch nur weit über 200 Euro Einstiegspreis los. 9950X und 285K, 9900X und 265K und 9700X und 245K sind preislich direkte Gegner, auch inkl. Plattform. Die direkte Vergleichbarkeit klappt für 9950X und 285K am besten, bei den kleineren Modellen hat Intel den Anwendungsvorteil, AMD die Vorteile bei Gaming.

Bei den X3D-Modellen wird man wohl mit 100-150 Euro Aufpreis rechnen können, dafür gibt es dann wohl etwa 25% mehr Spieleleistung, wohl aber nur eine ähnliche Anwendungsleistung (und damit in dieser Metrik ein entsprechend schlechteres P/L). Bei gemischtem Anwendungsprofil wäre dann abzuwägen, ob 9900X/265K/9800X3D bei mutmaßlich ähnlichen Preisen die besten Wahl ist.

Undertaker
2024-10-25, 11:54:15
Das ist korrekt. Du bist nur wie üblich sehr kreativ beim interpretieren von Aussagen ;-). Bulldozer war meilenweit weg, Zen war wieder konkurrenzfähig. Mehr habe ich nicht gesagt. Und nein ich führe jetzt keine Diskussion darüber das konkurrenzfähig bedeutet.

Ryzen 1 war zum damaligen Intel-Portfolio in der Gesamtmetrik ST, MT, Gaming und Verbrauch weniger konkurrenzfähig als Arrow Lake zu Zen 5. Und musste sich deshalb auch preislich deutlich weiter unten ansiedeln. Arrow Lake kann bis ~600 Euro sehr gut mit dem 9950X konkurrieren, nur zu den kommenden und teureren X3D gibt es kein vergleichbares Pendant. Diese Konkurrenzfähigkeit hatte Zen 1 damals nicht.

Zossel
2024-10-25, 11:54:24
Das war doch bei AM5 das gleiche, da ging es anfangs auch nur weit über 200 Euro Einstiegspreis los. 9950X und 285K, 9900X und 265K und 9700X und 245K sind preislich direkte Gegner, auch inkl. Plattform. Die direkte Vergleichbarkeit klappt für 9950X und 285K am besten, bei den kleineren Modellen hat Intel den Anwendungsvorteil, AMD die Vorteile bei Gaming.

Nur werden die Margen für Intel bei diesen Dingern recht unterirdisch sein.

soLofox
2024-10-25, 11:56:29
Passt ziemlich perfekt finde ich.


Zen war für AMD DER Moment und der Befreiungsschlag für ein schon fast totgeglaubtes Unternehmen.

Intel ist mit Arrow Lake weit von einem Zen-Moment entfernt.

fondness
2024-10-25, 11:57:48
Ryzen 1 war zum damaligen Intel-Portfolio in der Gesamtmetrik ST, MT, Gaming und Verbrauch weniger konkurrenzfähig als Arrow Lake zu Zen 5. Und musste sich deshalb auch preislich deutlich weiter unten ansiedeln. Arrow Lake kann bis ~600 Euro sehr gut mit dem 9950X konkurrieren, nur zu den kommenden und teureren X3D gibt es kein vergleichbares Pendant. Diese Konkurrenzfähigkeit hatte Zen 1 damals nicht.

Klar kann man jetzt die X3D Modelle völlig ausblenden. Ebenso den besseren Prozess vs dem schlechteren von Zen1. Oder oder. Aber diese Diskussion führt zu nichts. In Summe war Zen1 wieder konkurrenzfähig, bei arrow Lake sehe ich diesen Sprung eben nicht sondern eher einen Rückschritt. Von daher ist der Vergleich für mich unpassend. Du kannst das gerne anders sehen. ;-)

M4xw0lf
2024-10-25, 12:01:29
Zen war für AMD DER Moment und der Befreiungsschlag für ein schon fast totgeglaubtes Unternehmen.

Intel ist mit Arrow Lake weit von einem Zen-Moment entfernt.
Jo, Arrow Lake ist (leistungs)technisch nicht Bulldozer, aber von der Außenwirkung her näher daran als an Zen.

KodeX
2024-10-25, 12:06:09
Zen war für AMD DER Moment und der Befreiungsschlag für ein schon fast totgeglaubtes Unternehmen.

Intel ist mit Arrow Lake weit von einem Zen-Moment entfernt.

Genauso ist es. Zen-Moment (für Arrow Lake) könnte nicht unpassender sein. Ich meine, sogar Bulldozer schnitt leistungstechnisch besser gegen seinen direkten Vorgänger ab als es Arrow Lake tut (allerdings bei höherem Verbrauch).

Undertaker
2024-10-25, 12:08:37
Klar kann man jetzt die X3D Modelle völlig ausblenden. Ebenso den besseren Prozess vs dem schlechteren von Zen1.

Ich blende weder X3D noch den Prozess aus - was andersherum übrigens auch keinen Sinn ergibt, ich könnte auch hypothetische Aufschläge für Zusatzcache oder einen Speichercontroller im Compute-Tile bei Arrow Lake ansetzen. Ich vergleiche konkrete Produkte, wo zwischen Arrow Lake und Zen5 in den genannten Disziplinen sehr gute Vergleichbarkeit besteht. Bei Zen5 X3D, auch das habe ich angeführt, hast du die Option gegen Aufpreis mehr Gaming-Performance zu bekommen, was dir im Gegenzug bei diesem Preispunkt allerdings unterlegene Anwendungsperformance bescheren wird (9800X3D vs 9900X vs 265K). Oder du gehst zum 9950X3D ohne diesen Abstrich, hast dafür aber auch die 100-150 Euro Preisaufschlag ggü. 9950X und 285K.

Matrix316
2024-10-25, 12:13:22
Btw. warum gibt es eigentlich kaum CPUs zu kaufen? Sollten die nicht in Massen in den Regalen liegen? :ugly:

EDIT: kaum sag ichs, sind bei Alternate z.B. welche lieferbar. Aber 654 Euro für einen 285K ist schon gewagt...

fondness
2024-10-25, 12:36:24
Ich blende weder X3D noch den Prozess aus - was andersherum übrigens auch keinen Sinn ergibt, ich könnte auch hypothetische Aufschläge für Zusatzcache oder einen Speichercontroller im Compute-Tile bei Arrow Lake ansetzen. Ich vergleiche konkrete Produkte, wo zwischen Arrow Lake und Zen5 in den genannten Disziplinen sehr gute Vergleichbarkeit besteht. Bei Zen5 X3D, auch das habe ich angeführt, hast du die Option gegen Aufpreis mehr Gaming-Performance zu bekommen, was dir im Gegenzug bei diesem Preispunkt allerdings unterlegene Anwendungsperformance bescheren wird (9800X3D vs 9900X vs 265K). Oder du gehst zum 9950X3D ohne diesen Abstrich, hast dafür aber auch die 100-150 Euro Preisaufschlag ggü. 9950X und 285K.

Das Preisargument finde ich ein schwaches. Wenn er deutlich billiger zu produzieren wäre okay, aber so kann AMD jederzeit die Preise senken. Das haben sie ja auch schon zum Teil gemacht. Die herstellungskosten würden es locker hergeben die X3D Modelle geben arrow Lake zu stellen.

Undertaker
2024-10-25, 12:43:57
Das Preisargument finde ich ein schwaches. Wenn er deutlich billiger zu produzieren wäre okay, aber so kann AMD jederzeit die Preise senken. Das haben sie ja auch schon zum Teil gemacht. Die herstellungskosten würden es locker hergeben die X3D Modelle geben arrow Lake zu stellen.

Spekulationen zu Herstellungskosten finde ich ein sehr schwaches Argument, wenn der Verkaufspreis für den Endkunden absolut objektiv bewertbar bekannt ist. Zen5 ist nicht billiger als die Arrow Lake Pendants und Zen5X3D wird, da lehne ich mich mal weit aus dem Fenster, entsprechend teurer sein. Damit muss sich AMD auch gegen die entsprechenden preislichen Konkurrenten messen und bietet hier entweder grob das gleichen Angebot (285K vs. 9950X) oder mehr Gaming-Lwistung bei schlechterer Anwendungsperformance (kleinere Modelle bzw. X3D). Das ist die Wahl für den Käufer.

Der_Korken
2024-10-25, 13:00:49
Genauso ist es. Zen-Moment (für Arrow Lake) könnte nicht unpassender sein. Ich meine, sogar Bulldozer schnitt leistungstechnisch besser gegen seinen direkten Vorgänger ab als es Arrow Lake tut (allerdings bei höherem Verbrauch).

Gerade das letzte ist mehr als nur eine Randnotiz. Bulldozer hat beim Verbrauch massiv zugelegt und dass trotz einem Fullnode Vorsprung gegenüber dem alten Phenom 2. Bulldozer-Vergleiche sind imho nur Polemik. Wer sowas schreibt, hat den Bulldozer-Launch wohl nicht live miterlebt.

Den Begriff "Zen-Moment" finde ich ebenfalls unpassend, da er einen massiven Leistungssprung gegenüber einem (wenig gelungenen) Vorgänger suggeriert, indem man eine komplett neue Architektur hochgezogen hat. Man kann aber trotzdem Parallelen zu Zen 1 ziehen bezüglich des Verhältnisses von Anwendungs- und Spieleleistung.

KodeX
2024-10-25, 13:09:39
Gerade das letzte ist mehr als nur eine Randnotiz. Bulldozer hat beim Verbrauch massiv zugelegt und dass trotz einem Fullnode Vorsprung gegenüber dem alten Phenom 2. Bulldozer-Vergleiche sind imho nur Polemik. Wer sowas schreibt, hat den Bulldozer-Launch wohl nicht live miterlebt.

Den Begriff "Zen-Moment" finde ich ebenfalls unpassend, da er einen massiven Leistungssprung gegenüber einem (wenig gelungenen) Vorgänger suggeriert, indem man eine komplett neue Architektur hochgezogen hat. Man kann aber trotzdem Parallelen zu Zen 1 ziehen bezüglich des Verhältnisses von Anwendungs- und Spieleleistung.

Na sicher war ich live dabei und unheimlich enttäuscht.

Wenn man den ersten Computerbase-Test ("Ein schwarzer Mittwoch") heranzieht, war Bulldozer in Anwendungen 18 Prozent und in Spielen 1 Prozent schneller als sein Vorgänger. Der Verbrauch war IDLE ähnlich und unter Last 21 Watt höher.

Wo ist das denn bitte Polemik, wenn man auf "Zen-Moment" reagiert und einfach mal den verhunzten Bulldozer-Launch als Vergleich hinzuzieht?

Der_Korken
2024-10-25, 13:16:04
Sorry, wenn das zu harsch rüberkam. Das war eigentlich gar nicht mal so direkt auf dich gemünzt. Es ist eher so, dass ich seit gestern seitenübergreifend zu viele leichtfertige Bulldozer-Vergleiche gelesen habe, deswegen bin ich da etwas allergisch :redface:.

maximus_hertus
2024-10-25, 13:16:22
9950X und 285K, 9900X und 265K und 9700X und 245K sind preislich direkte Gegner, auch inkl. Plattform.

Nope, aktuell gibt es nur sehr teure Z890 Boards (Intel), während es bei AMD Boards in allen Preisklassen gibt.

Das wird sich ein Stück weit Anfang 2025 ändern (wenn bei Intel der B Chipsatz kommt), aber wer aktuell entweder einen Zen 5 oder einen Arrowlake kaufen will, muss bei Intel bei dem Board deutlich tiefer in die Taschen greifen (egal ob man die (Zusatz)Features vom Board braucht oder nicht).

Je günstiger die CPU, desto mehr macht das aktuell auch aus. Bei einem Ultra 5 sind die aktuellen Boardpreise ein echter "Killer".


Klar, die AMD B Boards können weniger als ein Z890, keine Frage. Aber bei Intel ist man aktuell gezwungen ein Z Board zu kaufen. Ein Ultra 5 mit einem z.B. ASUS TUF Board liegt bzusammen bei rund 700 Euro.

Dafür bekomme ich ein AM5 PCIe 5 ASUS TUF Board plus 9900X.


Wie geschrieben, das wird sich 2025 ändern. Aber bis dahin sind Ultra 5 und teilweise Ultra 7 mit dem "Problem" am Start, dass die Boardpreise deutlich höher sind als bei den AMD Varianten bzw. es bei AMD eben Boards in den verschiedensten Preis und Ausstattungsvarianten gibt.


Ergo (imo):

Ultra 5 ist aufgrund der heftigen Boardpreise aktuell sehr unattraktiv.
Ultra 7 hat einen Preisnachteil durch die teuren Boards, kann aber z.B. bei Applikationen mehr bieten / ist näher dran an 9950X/285K (als z.B. der 9900X)
Ultra 9 ist solide und auf Augenhöhe mit dem 9950X. Mit Board ist man etwas teurer als der 9950X, aber relativ ist das noch okay.

KodeX
2024-10-25, 13:24:14
Sorry, wenn das zu harsch rüberkam. Das war eigentlich gar nicht mal so direkt auf dich gemünzt. Es ist eher so, dass ich seit gestern seitenübergreifend zu viele leichtfertige Bulldozer-Vergleiche gelesen habe, deswegen bin ich da etwas allergisch :redface:.

Alles gut. Arrow Lake hat tatsächlich große Stärken im Low-Power-Bereich. Ansonsten sehe ich da aber nur sehr anwendungsspezifische Stärken - aber genau dann ist der Verbrauch auch ziemlich hoch.

Undertaker
2024-10-25, 13:35:41
Nope, aktuell gibt es nur sehr teure Z890 Boards (Intel), während es bei AMD Boards in allen Preisklassen gibt.

Das wird sich ein Stück weit Anfang 2025 ändern (wenn bei Intel der B Chipsatz kommt), aber wer aktuell entweder einen Zen 5 oder einen Arrowlake kaufen will, muss bei Intel bei dem Board deutlich tiefer in die Taschen greifen (egal ob man die (Zusatz)Features vom Board braucht oder nicht).

Je günstiger die CPU, desto mehr macht das aktuell auch aus. Bei einem Ultra 5 sind die aktuellen Boardpreise ein echter "Killer".


Klar, die AMD B Boards können weniger als ein Z890, keine Frage. Aber bei Intel ist man aktuell gezwungen ein Z Board zu kaufen. Ein Ultra 5 mit einem z.B. ASUS TUF Board liegt bzusammen bei rund 700 Euro.

Dafür bekomme ich ein AM5 PCIe 5 ASUS TUF Board plus 9900X.


Wie geschrieben, das wird sich 2025 ändern. Aber bis dahin sind Ultra 5 und teilweise Ultra 7 mit dem "Problem" am Start, dass die Boardpreise deutlich höher sind als bei den AMD Varianten bzw. es bei AMD eben Boards in den verschiedensten Preis und Ausstattungsvarianten gibt.


Ergo (imo):

Ultra 5 ist aufgrund der heftigen Boardpreise aktuell sehr unattraktiv.
Ultra 7 hat einen Preisnachteil durch die teuren Boards, kann aber z.B. bei Applikationen mehr bieten / ist näher dran an 9950X/285K (als z.B. der 9900X)
Ultra 9 ist solide und auf Augenhöhe mit dem 9950X. Mit Board ist man etwas teurer als der 9950X, aber relativ ist das noch okay.

Wie oben schon geschrieben, ist das doch der Normalfall bei einer neuen Plattform und traf auch AM5 kurz nach dem Start. Aber ja: Wenn ich diese Hochlaufphase nicht abwarten kann und jetzt kaufen muss, fließt das sicherlich in die Entscheidung ein.

Palpatin
2024-10-25, 13:39:19
Jo, Arrow Lake ist (leistungs)technisch nicht Bulldozer, aber von der Außenwirkung her näher daran als an Zen.
Phenom II Moment für Intel. ;)

Cubitus
2024-10-25, 13:45:37
Hab gestern mal den Baur Cyperpunk Bench nachgestellt.
Joe mein sehr gut eingestellter 13900er gepaart mit den B-Dice Royal-Z Ram, ist schneller und sparsamer.

Roman hatte in 1080p maxxed out Settings:

168 FPS AVG
117,2 Watt
und 92 Min FPS gemessen.

Kam mit meinem gut eingestellten 13900er (System im Profil) auf

172 FPS AVG
100 Watt
99,71 FPS

Naja mal sehen, wie es in 1-2 Jahren ist..
Mit der 5090 werde ich mir überlegen vielleicht aufzurüsten..

Bis dahin, Popcorn und abwarten.

Piccolo
2024-10-25, 14:24:30
Bin ziemlich:freak: seit gestern bei diveren Testberichten. Muss gestehen,habe mich auch sehr lange damit nicht mehr beschäftigt (RL ging vor) .Ging davon aus, das Intel abliefert und habe mir deswegen 265k vorbestellt + Rest.

Überlege gerade ob ich das zurück schicke. Oder doch behalten :confused: Für 4k Max sollte der reichen. Überall ließt man,hol dir den 7800X3D oder den Nachfolger.

MSABK
2024-10-25, 14:35:58
An sich ein solider Chip was die Effizienz betrifft, also in Relation zu den Vorgängern. Aber erkauft durch einen Nodevorsprung.

Lehdro
2024-10-25, 14:39:08
Edit: Bei CB gibts allerdings einen Durchschnittswert: 62Watt vs 90 Watt. vs. 169Watt (14900K). Ok, das sind dann 45% höher zwischen Arrowlake und 7800X3D. Vermutlich also so ~+50% bezogen auf Zen5. Ist viel schlechter als AMD, aber deutlich besser, wie bei Raptorlake.
Ich würde auf die CB Verbrauchswerte derzeit überhaupt nichts geben. Denn die messen nicht, sondern lesen HWinfo64 aus. Je nach Einstellung und Board gibt es massive Abweichungen vom Realverbrauch, dafür gibt es schon einiges an Indizien:
Der8auer, Igor und GamersNexus haben davon berichtet, wie schwer es je nach Board (ja, das ist boardabhängig) die reale Leistungsaufnahme präzise zu bestimmen. Wer nur EPS-12V misst, macht ebenso ALLES falsch, genau wie es sinnlos ist, sich nur auf die Softwaremessung zu verlassen. Nur wer ATX und EPS Stecker durchmisst, hat solide Werte. Wer in Low- oder Teillast auf absurde Effizienzen verweist, dem sei gesagt, das je nach Board teilweise 50W nur über den ATX Stecker gezogen werden und diese dann logischerweise beim EPS Stecker nicht messbar sein werden. Die Leistungsaufnahme die die CPU über HWinfo ausgibt, lässt sich mit Einstellungen im UEFI beeinflussen (andere Loadline reicht schon), in dem man indirekt an den Versorgungsspannungen dreht. Schon kleinere Abweichungen können teilweise ein Dutzend Watt ausmachen. Wir wissen derzeit noch nicht welcher Hersteller dort was genau anlegt, aber die Unterschiede sind da.

Auf der relativ sicheren Seite mit Sensorendaten ist man nur, wenn man die gemessene Ausgangsleistung der Spannungswandler des Mainboards als Maßstab nimmt, aber auch das hat Pferdefüße.

mocad_tom
2024-10-25, 14:49:42
Mich wundert die Collage von Olrak sehr.

https://x.com/Olrak29_/status/1849470570116923754

Und diese CPU als "nicht für Gaming geeignet" zu titulieren ist eine glatte Themaverfehlung.

Bei Computerbase "Senua's Saga: Hellblade II" -> ein UE5 Titel -> Arrow Lake schneidet gut ab.

Bei Computerbase "Star Wars Outlaws" -> ein UE5 Titel -> Arrow Lake schneidet gut ab.

Bei Der8auer Remnant2 -> ein UE5 Titel -> Arrow Lake schneidet gut ab.

Black Myth Wukong hat kein Tester getestet. WIESO???

Zukünftig werden immer mehr Games mit UE5 erstellt.

Was nützen 900 FPS bei CS2?
Das ist doch der komplette Witz-Benchmark.

Mit diesen alten Schinken bei 720P dann CPU tests zu machen hat sich doch überlebt?
(da macht sich doch das ganze Genre zum Volltrottel)

Und dann schaut man bei Computerbase auf das Anwendungs-Leistungs-Rating und dann steht da Arrow Lake auf Platz 1!!

https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-3

Und dort hat man sogar die Config mit den guten RAMs weggelassen, sonst wäre es nochmal böser geworden (aber das passt ja nicht ins Narrativ).

Lehdro
2024-10-25, 14:56:43
Black Myth Wukong hat kein Tester getestet. WIESO???
Weil das Game hoffnunslos im GPU Limit ist, selbst in 1080p.

Exxtreme
2024-10-25, 15:06:20
Weil das Game hoffnunslos im GPU Limit ist, selbst in 1080p.

Nicht wenn man Pathtracing einschaltet. Das haut dann auch auf die CPU.

Lehdro
2024-10-25, 15:12:52
Nicht wenn man Pathtracing einschaltet. Das haut dann auch auf die CPU.
Und wenn man sich die PCGH so anschaut, ist es wohl besser dass keiner das Game mit dem 285K getestet hat. Mit Pathtracing hat selbst ein 14900K Schedulingprobleme. (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Prozessor-Test-Benchmarks-1454239/)

robbitop
2024-10-25, 15:19:59
Meiner Meinung nach war es ein schwerer Fehler das 8+32 Design zu canceln. Das hätte zwar an der mieserablen Gaming Performance nichts geändert aber man hätte zumindest einen Bereich gehabt wo man eindeutig gewinnt. So hat es AMD geschafft Zen1 in den Markt zu bringen.
Synthetic Benchmarks zum sich einen Runterholen? X-D
Ganz ehrlich wie viele relevante Anwendungen skalieren mit so vielen Threads und wie viel Prozent der user nutzt das? Wenn AMD gewollt hätte, hätten wir auch im Desktop schon längst 32 und mehr Cores. Nur bringt das realworld halt kaum noch was.

robbitop
2024-10-25, 15:27:31
Moin! Nachschlag. :biggrin:

Intel Core Ultra 200 (Arrow Lake) zu langsam? Diese Stellschrauben und Tipps helfen! (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Specials/Arrow-Lake-Latenzen-APO-Tuning-Rebar-Core-Ultra-200-Test-Troubleshooting-1458242/)

MfG
Raff
Keine Benchmarks, was das bringt? Wenig Zeit ok - aber nicht mal einen? ^^

dildo4u
2024-10-25, 16:01:58
Hier mal kein Total Ausfall aber AMD hat zu stark zugelegt mit den Windows Updates


XHoXlrQjTCo

Sardaukar.nsn
2024-10-25, 16:03:55
Black Myth Wukong hat kein Tester getestet. WIESO???

Zukünftig werden immer mehr Games mit UE5 erstellt.

Was nützen 900 FPS bei CS2?
Das ist doch der komplette Witz-Benchmark.

Mit diesen alten Schinken bei 720P dann CPU tests zu machen hat sich doch überlebt?

Wukong ist ja mit Warhammer 40k Space Marine 2 im Rennen für das GOTY 2024. Für letzteres gibt es jetzt ein kostenlostes 4K Textur-Paket, welches alleine 160GB groß ist. Das gesamte Hauptspiel hat nur 75 GB.

Dadurch steigen die "empfohlenen" CPU Anforderungen von AMD Ryzen 9 5900X / Intel Core i7-12700 auf AMD Ryzen 9 7900X3D / Intel Core i9-14900K.

https://www.pcgamer.com/games/third-person-shooter/space-marine-2s-free-4k-texture-pack-takes-up-more-space-than-the-entire-base-game-and-youre-gonna-need-some-serious-hardware-to-run-it/ Ich denke in Zukunft werden wir noch mehr solcher Brecher sehen.

Matrix316
2024-10-25, 16:05:57
Phenom II Moment für Intel. ;)
Der Phenom II war doch richtig gut. :) Überall schneller als der Phenom 1 und weniger Stromverbrauch meine ich. Intel war halt damals weit weg.

Arrowlake erinnert mich meisten eher an Ryzen 9000. Beide Generationen sind zum ersten Mal keine wirklichen Verbesserungen im Gaming. Und sind zum Teil sogar langsamer. Anwendungen sind Top. Aber wayne interessiert das hier im "3D Center" Forum bzw. im Internet? ;) Wenn Adobe oder Blender oder Handbrake schneller läuft ist das ja schön für die zwei Leute die das machen, aber die Gamingbranche ist doch viel wichtiger für uns oder? ;)

Intel sollte vielleicht ähnlich wie AMD die Arbeits CPUs und Gaming CPUs wieder trennen. Also zum Arbeiten der Arrow-Lake und zum Spielen einen Raptor Lake ReRefresh mit etwas weniger TDP und vielleicht ohne E-Cores und so.

Undertaker
2024-10-25, 16:17:05
Nur wer ATX und EPS Stecker durchmisst, hat solide Werte.

Dieses Vorgehen ist übrigens auch völlig Banane. Gamers Nexus inkludiert damit mit Ausnahme des GPU-Slots weiterhin sämtliche 12V-Verbraucher des Mainboards in die CPU-Leistungsaufnahme. Nach deren eigener Messung liegen hier bereits idle rund 15 Watt an, was ein Vielfaches mehr ist, als die CPU ohne Belastung benötigt. Da fragt man sich fast, ob dieses Vorgehen Blödheit oder Bias ist... :x

Ohne kompletten Overkill zu betreiben und jeden Spannungs/Masse-Pin der CPU einzeln zu vermessen, bleibt aktuell (bei Intel wie AMD) eigentlich nur ein sinnvoller Weg: Keine DLVR-Settings verdrehen und die Package Power auslesen. Die sollte man via TDP-Vergleich im Power-Limit und grober Gegenüberstellung zum Systemverbrauchs initial zumindest einmal validieren, ist dann aber mutmaßlich (auch wenn sie ebenfalls nicht perfekt stimmen mag) besser als alles andere, was manche Seiten hier alternativ "zusammenbasteln".

00-Schneider
2024-10-25, 16:23:17
0aIHMvs0zps

Lehdro
2024-10-25, 16:43:48
Dieses Vorgehen ist übrigens auch völlig Banane. Gamers Nexus inkludiert damit mit Ausnahme des GPU-Slots weiterhin sämtliche 12V-Verbraucher des Mainboards in die CPU-Leistungsaufnahme. Nach deren eigener Messung liegen hier bereits idle rund 15 Watt an, was ein Vielfaches mehr ist, als die CPU ohne Belastung benötigt. Da fragt man sich fast, ob dieses Vorgehen Blödheit oder Bias ist... :x

Ohne kompletten Overkill zu betreiben und jeden Spannungs/Masse-Pin der CPU einzeln zu vermessen, bleibt aktuell (bei Intel wie AMD) eigentlich nur ein sinnvoller Weg: Keine DLVR-Settings verdrehen und die Package Power auslesen. Die sollte man via TDP-Vergleich im Power-Limit und grober Gegenüberstellung zum Systemverbrauchs initial zumindest einmal validieren, ist dann aber mutmaßlich (auch wenn sie ebenfalls nicht perfekt stimmen mag) besser als alles andere, was manche Seiten hier alternativ "zusammenbasteln".
Die Messung über ATX + EPS ist aber deutlich präziser als nur die Sensorenwerte, weil jene, wie geschrieben schon Default je nach Board wild schwanken. Du kannst gerne mal alle Reviews durchforsten und dann mal schauen wer alles >250W gemessen hat und bei wem der 285K auf magischer Weise sein Limit bei rund 220W hat. Dann schaust du wie sie das "gemessen" haben und mit welchem Board und bildest dir daraus ein Diagramm. Es ist ziemlich offensichtlich das man bei ARL-S mit herkömmlichen Methoden nicht besonders weit kommt. Bei Leonidas Launchanalyse wird das sicherlich auch ersichtlich werden.

Dass die HWinfo Verbrauchswerte abweichen können, ist übrigens auch ohne ARL-S nicht neu. Dafür wurde sogar eine extra Metrik eingeführt um das nachweisen zu können.

Undertaker
2024-10-25, 16:51:45
Die Messung über ATX + EPS ist aber deutlich präziser als nur die Sensorenwerte, weil jene, wie geschrieben schon Default je nach Board wild schwanken.


Bei welchen Reviews, die ohne DLVR-Anpassung die Leistungsaufnahme via Package Power gemessen haben, hast du denn Inkonsistenzen in der Leistungsaufnahme bei gleicher Belastung gesehen? Mir ist da bislang nichts bekannt, freue mich aber auf Beispiele. :) ATX plus EPS ist bereits erwiesenermaßen falsch, wenn Gamers Nexus dort 15 Watt im idle misst. Man hätte es ja zumindest etwas korrigieren können, in dem man bei allen CPUs ATX + EPS heranzieht, genau das wurde aber nicht getan und damit ausschließlich bei Arrow Lake der 12V-Verbrauch des Mainboards inkludiert. :ugly:

fondness
2024-10-25, 17:21:01
Ganz interessante Analyse von CB: https://www.computerbase.de/news/prozessoren/intel-core-ultra-200s-im-detail-ipc-analyse-der-p-und-e-cores-vs-raptor-lake-und-zen-5.90078/

Auch neun Prozent IPC-Zugewinn auf den P-Cores sind nicht nichts, doch eine Offenbarung sind die neuen Lion-Cove-Kerne nicht. Erstens, weil berücksichtigt werden muss, dass ihnen Hyper-Threading genommen wurde, und zweitens, weil sie die höhere IPC in Cinebench bei 4,0 GHz mit quasi demselben Verbrauch wie die Vorgängerkerne auf die Straße bringen – TSMC 3 nm stehen allerdings Intel 10 nm (Intel 7) gegenüber.

Die E-Cores sind in Anwendungen wiederum das versprochene Pfund: Über 30 Prozent mehr Leistung bei gleichem Takt gibt es trotz Sprung in der Fertigung zwar ebenfalls nicht umsonst, aber die Effizienz hat signifikant zugelegt. In Summe sorgen die E-Cores für eine gestiegene Anwendungs-Leistung gegenüber Raptor Lake bei gleichzeitig gestiegener Effizienz.

Die P cores sind wirklich eine Baustelle.

Zossel
2024-10-25, 17:55:14
Ohne kompletten Overkill zu betreiben und jeden Spannungs/Masse-Pin der CPU einzeln zu vermessen,

Der Strom in einem Stromkreis ist überall gleich, deswegen reicht es Vcc zu vermessen.
Ansonsten fließt auch Strom über die Signal Pins ab.

Man könnte die Spulen des Schaltreglers kippen und auf der dann hohen Seite mit Draht überbrücken der von einem Stromsensor umgeben ist.
Kompletter Overkill wäre das nicht, aber jeder der etwas Übung im Umgang mit einem Lötkolben hat sollte das hinbekommen.

mocad_tom
2024-10-25, 18:04:14
Und wenn man sich die PCGH so anschaut, ist es wohl besser dass keiner das Game mit dem 285K getestet hat. Mit Pathtracing hat selbst ein 14900K Schedulingprobleme. (https://www.pcgameshardware.de/Black-Myth-Wukong-Spiel-72938/Specials/Prozessor-Test-Benchmarks-1454239/)

Deshalb wird bei PCGH HT bei den P-Cores abgeschalten.
Arrow Lake hat aber erst gar kein HT auf den P-Cores.



Dann nächste Frage:
Warum läuft City Skylines II so brutal gut auf Arrow?
(ist das eine späte Spielszene mit vielen Bauwerken?)

Nochmal - ich bleib dabei - wenn man D2D-Takt / Ringbus-Takt / NGU-Takt hochschraubt und einen guten RAM reinkauft, dann hat man eine brutale Basis für zukünftige UE5-Knochenbrecher-Titel (wobei ich nicht weiß warum Warhammer 40.000: Space Marine 2 nicht gut läuft, das wäre auch ein UE5 Titel).

Und das absolut teuerste in dem System ist dann immer die 4090 oder später 5090 und alles andere an Hardware daneben fällt dann unter die Kategorie "Krümel".

Und bei Der8auer und bei CapframeX hat man zwischen den Zeilen schon ein bisschen rausgehört, dass sie die Plattform reizt.

Raff
2024-10-25, 19:11:23
Keine Benchmarks, was das bringt? Wenig Zeit ok - aber nicht mal einen? ^^

Das soll in erster Linie ein Trouble-Shooting-Guide für Interessenten oder Erstkäufer sein, mit allen Infos hot off the test bench. :)

Deshalb wird bei PCGH HT bei den P-Cores abgeschalten.
Arrow Lake hat aber erst gar kein HT auf den P-Cores.

Yep, ohne SMT läuft bereits Raptor Lake durchschnittlich besser in Spielen (der Scheduler hat das mittlerweile im Griff). Das System davor lief mit 8 P-Kernen plus SMT. Positiver Nebeneffekt für höhere Leistung: Lässt man die E-Kerne an und nutzt nur die physischen Kerne, lässt sich das Ding wesentlich besser kühlen und somit etwas höher takten.

(wobei ich nicht weiß warum Warhammer 40.000: Space Marine 2 nicht gut läuft, das wäre auch ein UE5 Titel).

Nee, das nutzt eine Eigenbau-Engine: https://www.pcgameshardware.de/Warhammer-40000-Space-Marine-2-Spiel-74358/Specials/Release-Test-Benchmarks-1454891/

Bei Computerbase "Star Wars Outlaws" -> ein UE5 Titel -> Arrow Lake schneidet gut ab.

Nee, das nutzt die Snowdrop-Engine von Ubi/Massive: https://www.pcgameshardware.de/Star-Wars-Outlaws-Spiel-74306/Specials/Review-Test-Release-Benchmark-Grafikkarte-CPU-1454951/

Gottseidank ist (noch) nicht alles Unreal-basiert. :)

Wukong ist ja mit Warhammer 40k Space Marine 2 im Rennen für das GOTY 2024. Für letzteres gibt es jetzt ein kostenlostes 4K Textur-Paket, welches alleine 160GB groß ist. Das gesamte Hauptspiel hat nur 75 GB.

Dadurch steigen die "empfohlenen" CPU Anforderungen von AMD Ryzen 9 5900X / Intel Core i7-12700 auf AMD Ryzen 9 7900X3D / Intel Core i9-14900K.

https://www.pcgamer.com/games/third-person-shooter/space-marine-2s-free-4k-texture-pack-takes-up-more-space-than-the-entire-base-game-and-youre-gonna-need-some-serious-hardware-to-run-it/ Ich denke in Zukunft werden wir noch mehr solcher Brecher sehen.

Ich bin ja bekennender Fan von Texturpaketen und GPU-Quälerei, allerdings macht dieses Texturpaket komische Dinge und muss noch etwas reifen.

MfG
Raff

mocad_tom
2024-10-25, 19:14:33
Hier bei diesem Test mit hochgetaktetem Ring schneidet Warhammer 40.000: Space Marine 2 dann auch plötzlich gut mit Arrow Lake ab:

https://www.alza.cz/intel-core-ultra-9-285k-recenze-a-testy


@Raff
Danke für die Info - Warhammer ist dann kein UE5 - aber scheint mit ordentlich Ringtakt dann auch gut zu laufen.

aufkrawall
2024-10-25, 19:20:07
Gottseidank ist (noch) nicht alles Unreal-basiert. :)

Ja. Dass mit Ubisofts glorreicher Eigenkreation selbst 4080-Besitzer mit zunehmender Spieldauer monatelang Matschtexturen zu sehen bekamen (und immer noch bekommen?), hat das wirklich eindrucksvoll gezeigt.

Undertaker
2024-10-25, 19:21:27
Der Strom in einem Stromkreis ist überall gleich, deswegen reicht es Vcc zu vermessen.
Ansonsten fließt auch Strom über die Signal Pins ab.


Nur weil der Strom in einem Kreis gleich ist, musst du ihn trotzdem erst einmal messen. Wenn wir nur eine relevante Versorgungsspannung haben, die an jedem Versorgungspin in hinreichender Genauigkeit identisch anliegt (ist das so?) und es einen sinnvollen Messpunkt für den kumulierten Strom gibt (ob z.B. direkt nach den SpaWas nicht noch einmal etwas für sonstige Nebenverbraucher separat weitergewandelt wird, wüsste ich jetzt nicht), wäre diese Vereinfachung aber denkbar.

Unterm Strich wäre technisch sicherlich das ein oder andere möglich, nur sehe ich aktuell kein Review, dessen Messeaufbau ich mehr Genauigkeit als der Package Power (bei korrekter Konfiguration) zutraue. Und ich würde mir IMMER externe Messungen des Gesamtsystem-Deltas für eine grobe Validierung wünschen, um zumindest die ganz groben Schnitzer so wie bei Gamers Nexus erahnen zu können. ;)

Sardaukar.nsn
2024-10-25, 19:21:39
Hier bei diesem Test mit hochgetaktetem Ring schneidet Warhammer 40.000: Space Marine 2 dann auch plötzlich gut mit Arrow Lake ab:

https://www.alza.cz/intel-core-ultra-9-285k-recenze-a-testy

Wie du schon schriebst, reagiert Cities Skylines 2 ja auch sehr gut auf schnellen RAM. Bei CB +28% zum AMD 7800x3D. https://i.imgur.com/dQ0ENtO.jpeg

Im gleichen Test sind ja auch Dragons Dogma 2, Horizon Forbidden West, und Senua Hellblade 2 schneller. Also mir scheint das da doch Potential schlummert: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-2

Gerne erinnere ich an das Theater was AMD mit der SMT-Problematik in CP2077 hatte. Ich denke das es bei der neuen Intel Architektur wohl noch enige solcher Pferdefüße gibt: https://www.computerbase.de/2023-07/cyberpunk-2077-smt-problematik-8-kern-amd-prozessoren/

Raff
2024-10-25, 19:24:30
Ja. Dass mit Ubisofts glorreicher Eigenkreation selbst 4080-Besitzer mit zunehmender Spieldauer monatelang Matschtexturen zu sehen bekamen (und immer noch bekommen?), hat das wirklich eindrucksvoll gezeigt.

Ich finde das natürlich auch doof, aber: Auf Ekel-Streaming hatte zuvor jahrelang Epic eine Art Monopol. ;) Ich mag die UE5, aber eben nicht in absolut jedem Spiel. Einheitsbrei wird schnell fad.

MfG
Raff

Linmoum
2024-10-25, 19:36:45
Wie du schon schriebst, reagiert Cities Skylines 2 ja auch sehr gut auf schnellen RAM. Bei CB +28% zum AMD 7800x3D. https://i.imgur.com/dQ0ENtO.jpeg

Im gleichen Test sind ja auch Dragons Dogma 2, Horizon Forbidden West, und Senua Hellblade 2 schneller. Also mir scheint das da doch Potential schlummert: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-2
In Cities liegt der 285K mit RAM-OC 19% vor dem 14900KS, das P1 ist plötzlich aber 18% (!) langsamer. Komplette Bananensoftware. Bei 2 der 3 anderen Beispiele liegt der 285K zwar bei den avg. FPS vorne, dafür lässt er dann aber wiederum beim P1 vs. 7800X3D leicht federn (DD2 und Hellblade).

Die Vergleiche sind aber auch wenig zielführend, da man dafür auch den X3D mit flottem RAM ausstatten müsste. Bringt nicht derart viel, aber trotzdem noch einiges (iirc gab's dazu im PCGH-Heft auch (sogar relativ aktuelle?) Werte zu).

Sardaukar.nsn
2024-10-25, 19:49:01
@Linmoum: Die Tschechen bei Alza haben wohl etwas mehr mit Ringbus, Ram und Latenzen getüftelt und siehe da. Arrow Lake liegt von dem 7800x3D Gaming Champ in: World of Warcraft, Starfield, Howarts Legacy, Spider-Man, The Witcher 3, Warhammer (Kopf-an-Kopf)

Bei Computerbase sind ja auch einige relevante Titel dabei wo Intel vorne liegt. Lass die Architektur mal etwas reifen, ich denke da steckt noch einiges an Potential.

Radeonfreak
2024-10-25, 19:51:04
Wenn ich sehe wo bei den Tschechen der 7950X3d liegt spreche ich denen die Kompetenz mit dem richtigen Umgang mit X3d Prozessoren ab. :freak:

DeadMeat
2024-10-25, 19:58:35
Ein non X3d ist bei denen in WoW gleichschnell mit einem X3d das halte ich für ausgeschlossen das hab ich selber oft genug getestet, die Zahlen sehen eher nach GPU scene als CPU aus. Mal ganz davon abgesehen wo zb der 7950x3d steht im vergleich zum 7600x, absolut daneben der Test.
Edot: Das Video dazu zeigt ja ganz deutlich das es hier nicht um einen CPU Test geht.

Sardaukar.nsn
2024-10-25, 20:04:26
Wird doch auch erklärt warum WoW - War Within interessant ist:

The last version of World of Warcraft became a very interesting test for us. The game benefits from a fast cache, but at the same time it has recently received several improvements improving the utilization of cores. The processors here performed evenly, although the game still does not use E-Cores at all. What is interesting is the drop in Ryzen processors with two CCDs, where the scheduler throws work on CCD1, thus the game loses the benefit provided by V-CACHE.

Here the Ultra 9285 claimed 38% less power than the i9-14900K for the same amount of power, not bad at all either.

DeadMeat
2024-10-25, 20:21:55
Kann ich hier nicht nachvollziehen, und die Scene ist trotzdem nicht CPU Intensiv und damit recht sinnlos.
Mal davon abgesehen das ein 2CCD 3dCache mit Auto settings zu betreiben enorm verschwendet ist, vor allem da offenbar mit PBO und sonder Ram Einstellungen getestet wird.
Zum Rest kann ich nicht viel sagen auch wenn die Werte doch teils deutlich von allen anderen abweichen aber die WoW Werte sind halt doch eher fragwürdig.

Lehdro
2024-10-25, 23:34:08
Bei welchen Reviews, die ohne DLVR-Anpassung die Leistungsaufnahme via Package Power gemessen haben, hast du denn Inkonsistenzen in der Leistungsaufnahme bei gleicher Belastung gesehen?
Habe das jetzt extra rausgesucht, Erklärung:
italic = Softwaremessung
bold = Hardwaremessung NUR für EPS auf MSI, da dort ATX nicht mit benutzt wird
normal = Hardwaremessung EPS + ATX auf ASUS Boards

Es fällt auf das reine Softwaremessungen meisten Fällen geringer ausfallen als die Hardwaremessungen. Ich würde gerne PCGH und auch andere reinnehmen, allerdings sind dort nur Durchschnitte und keine individuellen Verbräuche aufgeführt.

Cinebench 2024:
Computerbase: 222W
Hardwareunboxed: 258W auf MSI bzw. 196W + 60W auf dem Asus
HWLuxx: 258W

Starfield:
HWLuxx: 105W
TPU: 120W
CB: 128W
THW: 135W
GN: 148W

Cyberpunk:
THW: 107W
der8auer: 117W
TPU: 127W
HWU: 145W
Igor: 150W

Last of Us:
Igor: 133W
HWU:145W

Baldurs Gate 3:
CB: 77W
THW: 77W
GN: 88W
TPU: 94W

HWLuxx: ASUS ROG Maximus Z890 Hero + Hardwaremessung ATX + EPS
GN: ASUS ROG Maximus Z890 Hero + Hardwaremessung ATX + EPS
CB: Asus ROG Maximus Z890 Hero + Softwaremessung
Hardwareunboxed: MSI MEG Z980 Ace + Hardwaremessung EPS
Igor: MSI MEG Z980 Ace + Hardwaremessung ATX + EPS
THW: ASUS ROG Maximus Z890 Hero + Software
der8auer: ASUS ROG Maximus Z890 Extreme + Software
TPU: MSI Z890 Carbon + Hardware EPS


Man hätte es ja zumindest etwas korrigieren können, in dem man bei allen CPUs ATX + EPS heranzieht, genau das wurde aber nicht getan und damit ausschließlich bei Arrow Lake der 12V-Verbrauch des Mainboards inkludiert. :ugly:
Jop. Oder einfach ein nicht-ASUS Board nehmen. :confused:

@Linmoum: Die Tschechen bei Alza haben wohl etwas mehr mit Ringbus, Ram und Latenzen getüftelt und siehe da. Arrow Lake liegt von dem 7800x3D Gaming Champ in: World of Warcraft, Starfield, Howarts Legacy, Spider-Man, The Witcher 3, Warhammer (Kopf-an-Kopf)

Ja geil, lass mal ARL-S mit Tuning gegen einen fast Stock 7800X3D antreten und siehe da, er legt zu. Woah, was für eine Erkenntnis. Das man dem 7800X3D auch beschleunigen kann, siehe PCGH, das wird da einfach mal vergessen. Die Gewinne des X3D waren auch nicht gerade klein...
Das ist genau dieselbe Diskussion wie bei 13th/14th Gen "just tune it". Ja, danke für nichts bei einem Apfel - Birnen - Vergleich.

OpenVMSwartoll
2024-10-26, 00:45:06
Habe das jetzt extra rausgesucht, Erklärung:
italic = Softwaremessung
bold = Hardwaremessung NUR für EPS auf MSI, da dort ATX nicht mit benutzt wird
normal = Hardwaremessung EPS + ATX auf ASUS Boards

Es fällt auf das reine Softwaremessungen meisten Fällen geringer ausfallen als die Hardwaremessungen. Ich würde gerne PCGH und auch andere reinnehmen, allerdings sind dort nur Durchschnitte und keine individuellen Verbräuche aufgeführt.
[...



Danke

Fusion_Power
2024-10-26, 01:18:46
Egal obs ein Desktop oder ein Laptop wird, in meinem nächsten PC ist garantiert ne stromsparende und effiziente Mobile APU verbaut. Sowas wie den Arrow Lake hier tu ich mir nicht mehr an als Plattform.

Zossel
2024-10-26, 08:02:07
Nur weil der Strom in einem Kreis gleich ist, musst du ihn trotzdem erst einmal messen. Wenn wir nur eine relevante Versorgungsspannung haben, die an jedem Versorgungspin in hinreichender Genauigkeit identisch anliegt (ist das so?) und es einen sinnvollen Messpunkt für den kumulierten Strom gibt (ob z.B. direkt nach den SpaWas nicht noch einmal etwas für sonstige Nebenverbraucher separat weitergewandelt wird, wüsste ich jetzt nicht), wäre diese Vereinfachung aber denkbar.
Elektrik und der elektrische Aufbau von aktuellen Computer sind nicht so dein Ding?
Unterm Strich wäre technisch sicherlich das ein oder andere möglich, nur sehe ich aktuell kein Review, dessen Messeaufbau ich mehr Genauigkeit als der Package Power (bei korrekter Konfiguration) zutraue. Und ich würde mir IMMER externe Messungen des Gesamtsystem-Deltas für eine grobe Validierung wünschen, um zumindest die ganz groben Schnitzer so wie bei Gamers Nexus erahnen zu können. ;)
Elektrisch und physikalisch sind die meisten real existierenden "Reviewer" eher so lala, daher würde ich mich hüten daraus einen Maßstab zu generieren.
Die Menschen die irgendwann den Lötkolben neben der Tastatur gegen eine Maus getauscht gehen halt langsam in Rente bzw. tun in Regelfall andere Dinge.

robbitop
2024-10-26, 08:34:56
Das soll in erster Linie ein Trouble-Shooting-Guide für Interessenten oder Erstkäufer sein, mit allen Infos hot off the test bench. :)

Als Leser fragt man sich aber was das bringt. Wenigstens eine Indikation dafür (am Besten als Graph) wäre nett. ;)

Sonyfreak
2024-10-26, 09:57:40
Arrow Lake ist zwar interessant, weil es so viele neue Stellschrauben gibt, im Großen und Ganzen aber leider nicht wirklich konkurrenzfähig. Ich hoffe, dass Intel diese Architektur, wie AMD bei Zen, iterativ verbessern wird. Dann könnte in ein oder zwei Generationen etwas wirklich Nettes dabei herauskommen.

mfg.

Sonyfreak

Zossel
2024-10-26, 10:13:54
Arrow Lake ist zwar interessant, weil es so viele neue Stellschrauben gibt,

Früher nannte man so was Bananenware.

The_Invisible
2024-10-26, 11:01:34
In Cities liegt der 285K mit RAM-OC 19% vor dem 14900KS, das P1 ist plötzlich aber 18% (!) langsamer. Komplette Bananensoftware. Bei 2 der 3 anderen Beispiele liegt der 285K zwar bei den avg. FPS vorne, dafür lässt er dann aber wiederum beim P1 vs. 7800X3D leicht federn (DD2 und Hellblade).

Die Vergleiche sind aber auch wenig zielführend, da man dafür auch den X3D mit flottem RAM ausstatten müsste. Bringt nicht derart viel, aber trotzdem noch einiges (iirc gab's dazu im PCGH-Heft auch (sogar relativ aktuelle?) Werte zu).

Jo, der x3d liefert zudem auch die konsistentere Performance, der Intel liegt oft sehr weit zurück. Wäre aber trotzdem interessant was man mit max Tuning rausholen könnte, aber dann auch für x3d.

fondness
2024-10-26, 11:07:12
Ich finde das im übrigen sehr interessant. Man schafft es offensichtlich mit Tuning ARL auf ähnliche Speicherlatenzen zu bringen wie Konkurrenzprodukte, also in den ~6Xns Bereich. Die Frage ist, warum macht Intel das dann nicht default? Geht dann der Stromverbrauch wieder durch die Decke? Läuft das nicht stabil? Ist schon sehr ungewöhnlich, dass man so viel Latenz liegen lässt.

dildo4u
2024-10-26, 11:10:50
Natürlich weil das nicht jeder Chip schafft was man mit mehr Spannung "lösen" könnte aber logischerweise hat man dann wieder die Gefahr das die Chips mit der Zeit degradieren.

CompEx
2024-10-26, 11:44:52
Übersieht man ja leicht bei den vielen Tests (mit dem geradezu zwanghaften Vergleich von K-Modellen):
Bei PCGH ist der 245k bei Spielen ziemlich gleichauf mit dem 14600 (non-k) - bei der Geschwindigkeit UND bei der Effizienz.
Der neue lohnt also nicht mal unter Effizienzgesichtspunkten... Da kann man bei den älteren Schluckspechten von Intel einfach den subjektiv passenden Betriebspunkt wählen und sich den Neukauf sparen.

Und bei den übertakteten/getunten Einstellungen, mit denen alza testet, sieht es ähnlich aus. Die Effizienz kann man sich da aber nur am Beispiel Starfield ansehen.

Ich suche für's Gaming ja wirklich verzweifelt nach Argumenten für den neuen, aber ich finde einfach keine...


LG

robbitop
2024-10-26, 11:45:27
Schafft nicht jeder chip und jeder ram. War doch schon immer so dass man gute 10-20 ns durch Optimierung (vs default) runterbekommt. Bei meinem alten 4790K kam ich von iirc 60…65ns runter auf 42. Bei Zen und Nachfolgern war IIRC auch einiges zu holen. Aber gerade bei Zen1 brachte das mächtig Performance weil der L3 damals noch relativ klein war und die penalty der IF vs dem kleinen Ringbus der Intel 4 und 6 Kerner relativ hoch war. Mit zunehmender L3 Größe wurde der Einfluss kleiner. Und weil bei Intel mit 8 und mehr Kernen der Ringbus auch immer langsamer (latenz) wurde.

Matrix316
2024-10-26, 12:14:22
QOMt2qrNVm4

Undertaker
2024-10-26, 12:36:54
Habe das jetzt extra rausgesucht, Erklärung:
italic = Softwaremessung
bold = Hardwaremessung NUR für EPS auf MSI, da dort ATX nicht mit benutzt wird
normal = Hardwaremessung EPS + ATX auf ASUS Boards

Es fällt auf das reine Softwaremessungen meisten Fällen geringer ausfallen als die Hardwaremessungen. Ich würde gerne PCGH und auch andere reinnehmen, allerdings sind dort nur Durchschnitte und keine individuellen Verbräuche aufgeführt.

Cinebench 2024:
Computerbase: 222W
Hardwareunboxed: 258W auf MSI bzw. 196W + 60W auf dem Asus
HWLuxx: 258W

Die Differenzen liegen in einer recht realistischen Größenordnung für die zu erwartenden Verluste in Leitungen, Kontaktstellen und vor allem den Spannungswandlern bei einer Messung an der EPS-Versorgung. Das die Package Power als reine Verlustleistung des Chips je nach Board vielleicht 10-15% niedriger ausfällt, ist da eher systematischer Messfehler der EPS-Methode als ein Beleg für Ungenauigkeiten der Package Power.

Fusion_Power
2024-10-26, 12:42:57
ETA Prime testet auch mal iGPU Gaming auf Arrow Lake. Nicht dass das für diese Art von CPU irgend ne Rolle spielt aber immerhin machts mal einer.

Z_5jtoku5u8

dildo4u
2024-10-26, 12:43:30
https://youtu.be/QOMt2qrNVm4

Kein Plan warum aber er testet Ryzen in Win10 also ohne Ryzen Fix?

mocad_tom
2024-10-26, 14:21:25
Hier diskutiert Der8auer CS2

https://youtu.be/UyBHkf7zB7U?t=324

Er sagt, obwohl er schnellen RAM benutzt mag CS2 überhaupt nicht loslegen.

CS2 macht mit diesen CPU 700FPS und in jedem einzelnen Frame eine hohe Menge an Draw-Calls in Richtung PCIe.

Durch den niedrigen Ringtakt wird mit Hilfe des IMC und durch die Draw-Calls in zusammenarbeit der Ring saturiert.

Später OCed er den Ring und plötzlich geht auch bei CS2 die Leistung hoch.
Weil für beide Ringteilnehmer (PCIe und IMC) genügend Bandbreite da ist.


Warum lassen sich jetzt Beobachtungen für CS2 nicht auch für Star Wars Outlaws/ Warhammer / Spider Man 2 fortschreiben?

Weil in CS2 die Calls viel 'kleinfleckiger' sind.
In den modernen Titeln sind Calls größere Chunks.

Ist CS2 noch ein guter CPU-Benchmark?
Ich glaube nicht.

Exxtreme
2024-10-26, 14:24:23
Ist CS2 noch ein guter CPU-Benchmark?
Ich glaube nicht.

Ja, es ist ein guter CPU-Benchmark:
https://steamdb.info/charts/

Lehdro
2024-10-26, 14:30:10
Die Differenzen liegen in einer recht realistischen Größenordnung für die zu erwartenden Verluste in Leitungen, Kontaktstellen und vor allem den Spannungswandlern bei einer Messung an der EPS-Versorgung. Das die Package Power als reine Verlustleistung des Chips je nach Board vielleicht 10-15% niedriger ausfällt, ist da eher systematischer Messfehler der EPS-Methode als ein Beleg für Ungenauigkeiten der Package Power.
WENN du so kommst, wäre für dich doch rein logisch ein Vergleich von EPS Messungen zu Software NOCH beschissener, da alle NICHT mit Software "gemessenen" Werte reine Makulatur sind, da sie eben inhärent etwas anderes messen. Man könnte damit bei Zen 5 pauschal dieselben Werte abziehen womit das Effizienzargument von ARL-S gegenüber Zen 5 noch mehr in den Brunnen fallen würde, als es jetzt schon gefallen ist. Augenwischerei ob des Faktes, dass ich genau das in umgekehrter Weise kritisiere: Software ist eine Rechnung und keine Messung - Abweichungen sind selbst bei guten Daten vorprogrammiert.

Nimm dazu die teilweise deutlichen Abweichungen der Software"messungen" unter HWinfo (Stichwort: Power Deviation Accuracy) und ziehe dein einzig mögliches Fazit: Software"messungen" sind grobe Schätzeisen und maximal auf dem selben Mainboard vergleichbar. Auf keinen Fall sollte man daran einen Effizienzvergleich aufstellen, der mit gemessenen Werten vergleicht. Die Unterschiede sind auf gleich mehreren Ebenen eklatant. Von daher würde ich vorerst sämtliche Softwaredaten exkludieren bei der Effizienzbetrachtung von ARL-S. Eine EPS Messung mit einen nicht-ASUS Mainboard ist die logische Lösung und gleichlautend eine einfache Fortführung der bisherigen Herangehensweise und bleibt damit selbstverständlich auch 1:1 vergleichbar mit anderen Messdaten.

Catrovacer
2024-10-26, 15:16:58
Hallo zusammen, meint ihr Verbesserungen an Windows könnten Arrow Lake noch helfen, vergleichbar zu Zen 5, oder ist das Hauptproblem tatsächlich die Speicherlatenz?

Lehdro
2024-10-26, 15:29:51
Hallo zusammen, meint ihr Verbesserungen an Windows könnten Arrow Lake noch helfen, vergleichbar zu Zen 5, oder ist das Hauptproblem tatsächlich die Speicherlatenz?
Klar helfen Windows Fixes, oder gar ein besseres APO, weil es noch einiges beim Scheduling zu korrigieren gibt. Dazu noch der Windows Powerplan für den Ringbus um diesen komischen Stolperstein aus dem Weg zu räumen.

Bei der Speicherlatenz, also der Gameperformance allgemein, hilft nur Tuning vom User. Intel wird da nichts machen können.

Exxtreme
2024-10-26, 15:43:15
Hallo zusammen, meint ihr Verbesserungen an Windows könnten Arrow Lake noch helfen, vergleichbar zu Zen 5, oder ist das Hauptproblem tatsächlich die Speicherlatenz?

Das lässt sich pauschal nicht beantworten. Kann sein, dass Intel noch an den Speicherlatenzen was dreht. Es gibt schon einige Overclocker, die diese auf unter 70 ns gedrückt haben. Sprich, da scheint es viel Potential zu geben. Und eventuell ist der jetzige Microcode sehr konservativ eingestellt und Intel könnte peu a peu die Latenzen senken.

Und was die Verbesserungen am Scheduler angeht, da könnte man auch Tests fahren indem man die Anwendungen/Spiele hart an bestimmte Kerne pinnt. Da würde man sehen ob das was bringt.

dildo4u
2024-10-26, 15:59:34
Testet jeder Cyberpunk im Benchmark im echten Gameplay sieht Arrow Lake ok aus.


https://youtu.be/7n1Xjm6UGBM?si=HKkgjxczwPaol09Q&t=307

mocad_tom
2024-10-26, 16:22:59
Der testet beide mit dem gleichen RAM.

Wenn man da jetzt noch 8800er RAM reinknallt und den Ring hochtaktet, dann ist der durchweg über 7800x3d.

Der Flight Simulator Bench ist vllt auch ein richtig cooler Benchmark.
New York zieht ganz schön Ressourcen.

Das muss man mal im Auge behalten.

dildo4u
2024-10-26, 16:41:21
Cyberpunk zieht aber auch über 100 Watt bei Intel aber vermutlich 50 Watt weniger als Raptor Lake.

ChaosTM
2024-10-26, 16:44:42
In einer "normalen" Spielumgebung merkt man sowieso keinen Unterschied zwischen den beiden CPUs.
Die 720/1080p Benchmarks sind zwar interessant, aber ziemlich irrelevant.
Ein paar FPS rauf oder runter bei den Min. FPS merkt keine Sau. Speziell ab 1440p.

Trotzdem ist der Launch "disappointing"

dildo4u
2024-10-26, 16:49:43
Bei CB rennt der 285k in Cyberpunk nur 6% schneller als 245k aber nimmt 50% mehr Strom.
Das Game scheint viele Cores zu belasten ohne echten Performance Gewinn.

Matrix316
2024-10-26, 17:00:37
Kein Plan warum aber er testet Ryzen in Win10 also ohne Ryzen Fix?
Sind die Werte in Windows 10 nicht eh besser bei Ryzen als bei Windows 11 am Anfang? Dazu hat er ja auch Videos gemacht. Z.B.:

mVpv-EpEoGM

Was ich lustig finde, die PCGH hat im neuen Heft den ausführlichen Test nicht drinnen, weil sie dachte die niedrigen Spielebenchmarks wären falsch... :freak:

dildo4u
2024-10-26, 17:09:51
Hängt vermutlich vom Game ab Cyberpunk/Hogwarts performen schlechter auf dem 9700X mit Win10.

https://i.ibb.co/9c6JvxR/Screenshot-2024-10-26-170926.png (https://ibb.co/ydtDRzL)

https://i.ibb.co/dm9CKbp/Screenshot-2024-10-26-171058.png (https://ibb.co/XYB0Jy5)

https://youtu.be/izqEZmjTfuM?si=awcfGan-t9MDximx&t=909

Hardcoregamer
2024-10-26, 17:31:02
Bei CB rennt der 285k in Cyberpunk nur 6% schneller als 245k aber nimmt 50% mehr Strom.
Das Game scheint viele Cores zu belasten ohne echten Performance Gewinn.

Das scheint so zu sein. Das ist mir auch schon aufgefallen. Ich habe bei meiner CPU (13900K) nur noch 4 E-Cores aktiv und ich habe in CP keinen großen Unterschied bemerkt als ich den Bechmark hab laufen lassen.

][immy
2024-10-26, 17:35:57
Testet jeder Cyberpunk im Benchmark im echten Gameplay sieht Arrow Lake ok aus.


https://youtu.be/7n1Xjm6UGBM?si=HKkgjxczwPaol09Q&t=307
Da ist weder die GPU noch die CPU ausgelastet in den Benches. Schau dir mal die cyberpunk-Benches von Digital Foundry an, da ist die CPU auf Anschlag. Einfach nur durch die Stadt rasen lastet halt nichts wirklich aus.

dildo4u
2024-10-26, 17:43:24
Digital Foundry nutzt RT daher sind die Werte niedriger RT und fahren dürfte die höste Last erzeugen.

][immy
2024-10-26, 17:59:35
Digital Foundry nutzt RT daher sind die Werte niedriger RT und fahren dürfte die höste Last erzeugen.
Eben darum schalten sie es auch ein. Sonst drehen die CPUs ja fast nur Däumchen und müssen ab und an einspringen.

Aber ja, das Spiele teilweise nur Beschäftigungstherapie mit zusätzlichen Kernen durchführen, ohne das es wirklich schneller wird, hab ich ja über die Jahre auch schon mehrfach angesprochen. Die Anwendungsfälle wirklich viele Threads zu nutzen so das diese auch wirklich sinnvoll beschäftigt sind, sind halt auch nur sehr begrenzt. Häufig sind die Kerne auch einfach nur beschäftigt, da der Scheduler die Aufgaben von Kern zu Kern schiebt und so nie wirklich zur ruhe kommen. Zumindest wirkt es häufig so, wenn mehr als 6-8 Kerne von einem Spiel ausgelastet werden.

maximus_hertus
2024-10-26, 18:13:33
Was ich lustig finde, die PCGH hat im neuen Heft den ausführlichen Test nicht drinnen, weil sie dachte die niedrigen Spielebenchmarks wären falsch... :freak:

Echt? Autsch. Gab es sowas schon einmal?

aufkrawall
2024-10-26, 18:28:13
[immy;13637802']Häufig sind die Kerne auch einfach nur beschäftigt, da der Scheduler die Aufgaben von Kern zu Kern schiebt und so nie wirklich zur ruhe kommen. Zumindest wirkt es häufig so, wenn mehr als 6-8 Kerne von einem Spiel ausgelastet werden.
Würde annehmen, dass in Fortnite bei Spitzen auf ~80% Last (bereits gecachete Shader) über 8C 16T während schneller Fahrt es positive Skalierung mit HT gibt.
Könnte man mal irgendwann mit einem Replay testen.

Raff
2024-10-26, 18:29:26
Echt? Autsch. Gab es sowas schon einmal?

In dieser Form noch nicht.

Testet jeder Cyberpunk im Benchmark im echten Gameplay sieht Arrow Lake ok aus.

https://youtu.be/7n1Xjm6UGBM?si=HKkgjxczwPaol09Q&t=307

Nope. Die PCGH-Benchmarks (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/2/) finden auch mit echtem Gameplay und maximalen Details statt. Läuft einfach nicht gut (14900K knapp 30 Prozent schneller als 285K).

MfG
Raff

aufkrawall
2024-10-26, 18:31:03
Hätte er das HWUB-Video geschaut, wüsste er auch, dass das genau wie bei PCGH eine fordernde reale Spielszene war.

ryan
2024-10-26, 18:31:33
Die iGPU lässt sich mit Luftkühlung auf 3 Ghz übertakten.

https://skatterbencher.com/2024/10/24/arrow-lake-graphics-overclocking/

Intel müsste PTL-H auf LGA1851 portieren, ansonsten sieht es schlecht für die nächsten 2 Jahre im Desktop. Das haben sie damals bei Broadwell mit edram gemacht. Es gab kein Broadwell-S lineup, die haben einfach Broadwell BGA auf LGA portiert für 2-3 SKUs.

Raff
2024-10-26, 18:34:59
Die iGPU lässt sich mit Luftkühlung auf 3 Ghz übertakten.

Wird Battlemage eigentlich im gleichen Verfahren gefertigt? Also BMG-G21 beispielsweise. Arrow Lake hat ja nur einen Alchemist-Backport, aber 3 GHz sind etwas, mit dem man arbeiten kann. :D

MfG
Raff

dildo4u
2024-10-26, 18:38:19
Angeblich N5 für Battlemage in Arrow Lake



https://www.techpowerup.com/327930/intel-arrow-lake-s-die-visibly-larger-than-raptor-lake-s-die-size-estimated

Undertaker
2024-10-26, 18:40:14
WENN du so kommst, wäre für dich doch rein logisch ein Vergleich von EPS Messungen zu Software NOCH beschissener, da alle NICHT mit Software "gemessenen" Werte reine Makulatur sind, da sie eben inhärent etwas anderes messen. Man könnte damit bei Zen 5 pauschal dieselben Werte abziehen womit das Effizienzargument von ARL-S gegenüber Zen 5 noch mehr in den Brunnen fallen würde, als es jetzt schon gefallen ist.


Moment, nicht die Kritikpunkte vermischen:
1) Kritisiert habe ich zum einen dediziert GN, weil deren "Messung" ARL durch Einbezug der gesamten ATX-12V-Leistungsaufnahme systematisch benachteiligt und damit für einen Modellvergleich ungeeignet ist.
2) Kritikpunkt Nummer 2 betrifft die EPS-Messung insofern, als dass sie prinzipbedingt – und ja, selbstverständlich modellübergreifend – Wandlerverluste und mögliche Nebenverbraucher mit Speisung über den EPS-Input mit in den CPU-Verbrauch einbezieht. Dies ist zwar nicht einseitig unfair für einzelne Modelle sondern betrifft alle Probanden, liefert aber zum einen systematisch zu hohe Verbräuche und erzeugt auch eine starke Abhängigkeit vom jeweiligen Mainboard und insbesondere dessen Wandlerwirkungsgrad. Für eine gute Vergleichbarkeit und verlässliche CPU-Verbrauchswerte sind das sehr schlechte Voraussetzungen.

Software ist eine Rechnung und keine Messung - Abweichungen sind selbst bei guten Daten vorprogrammiert.

Ich möchte die CPU Package Power (und das denke ich gleichermaßen auch bei AMD) keineswegs als unfehlbar bis aufs Mikrowatt bezeichnen, ich halte sie aber für qualitativ erheblich besser als z.B. die diskutierte EPS-Messung mit von vornherein unausweichlichen, signifikanten und zudem vom jeweiligen Board abhängigen Verfälschungen wie den SpaWa-Verlusten.
Eine möglichst exakte Verbrauchsermittlung ist essentiell für ein effizientes Power-Management, die Performance-Maximierung und natürlich auch den Bauteilschutz, entsprechend viel Aufwand fließt hier hinein. Gibt hier auch ein paar spannende Papers z.B. zu Intels "RAPL". ;) Ein gutes SW-Modell, welches natürlich auch mit umfänglichen MESSwerten gefüttert wird, erscheint mir da tatsächlich die beste Variante zur Verbrauchsermittlung, zumindest im Vergleich zu den begrenzten Möglichkeiten der gängigen HW-Testseiten.

ryan
2024-10-26, 18:41:21
Wird Battlemage eigentlich im gleichen Verfahren gefertigt? Also BMG-G21 beispielsweise. Arrow Lake hat ja nur einen Alchemist-Backport, aber 3 GHz sind etwas, mit dem man arbeiten kann. :D

MfG
Raff



BMG dGPU wird in N4P gefertigt soweit ich weiß, ARL-S iGPU in N5. Also nicht ganz. G21 BMG hat man schon mit 2850 Mhz (https://videocardz.com/newz/intel-battlemage-gpu-leak-shows-2-85-ghz-clock-20-xe2-cores-and-12gb-vram)im Geekbench gesehen.

w0mbat
2024-10-26, 18:52:05
Angeblich N5 für Battlemage in Arrow Lake



https://www.techpowerup.com/327930/intel-arrow-lake-s-die-visibly-larger-than-raptor-lake-s-die-size-estimated
Oder N5P. Aber auf jeden Fall eine N5 Variante.

Tralalak
2024-10-26, 19:27:43
Intel Core Ultra 7 265K @ Kocicak CPU-Z 2.11.2 x64 (Version 17.01.64)

Paradigm shift: 12c .LITTLE Atom Skymont E-cores beats 8C big Lion Cove P-cores !

https://www.techpowerup.com/forums/attachments/cpu-z-265k-p-e-cores-png.369006/

source: https://www.techpowerup.com/forums/threads/share-your-cpuz-benchmarks.216765/post-5360549


Thank you Kocicak alias BoggledBeagle on techpowerup forum.

Intel Core Ultra 7 265K (20C/20T) - 12c Atom Skymont (12c/12T)
• CPU (ST) : 740,6
• CPU (MT) : 8 916,10


Intel Core Ultra 7 265K (20C/20T) - 8C Lion Cove (8C/8T)
• CPU (ST) : 877,2
• CPU (MT) : 6 127,9


AMD Ryzen AI 9 HX 370 (12C/24T) - 8c Zen5c (8c/8T)
• CPU (ST) : 519
• CPU (MT) : 5 294


Intel Core i5 13500H (4P + 8E / 16T) - E-cores Gracemont 1.9GHz @ 3.5GHz (8c/8T)
• CPU-Z (ST): 399,3
• CPU-Z (MT): 3 015,8


ZHAOXIN KaiXian KX-7000 3.0GHz @ 3.6GHz (8C/8T)
• CPU-Z (ST): 335,9
• CPU-Z (MT): 2 517,2


source: https://diit.cz/clanek/preview-asus-zenbook-s16-s-amd-ryzen-ai-9-hx-370-je-v-redakci
source: https://www.techpowerup.com/forums/threads/share-your-cpuz-benchmarks.216765/post-5360549
source: https://www.techpowerup.com/forums/attachments/cpu_z_2_09_i5_13500h-jpg.354625/

Gipsel
2024-10-26, 19:47:28
Intel Core Ultra 7 265K @ Kocicak CPU-Z 2.11.2 x64 (Version 17.01.64)

Paradigm shift: 12c .LITTLE Atom Skymont E-cores beats 8C big Lion Cove P-cores !

https://www.techpowerup.com/forums/attachments/cpu-z-265k-p-e-cores-png.369006/

source: https://www.techpowerup.com/forums/threads/share-your-cpuz-benchmarks.216765/post-5360549As the CPU-Z "benchmark" is basically an instruction latency test for scalar SSE (as long as the tested cores have at least roughly comparable OoOE windows and >2 FPU pipes), this is to be expected. People should stop paying attention to these numbers as they are mostly meaningless anyway.

Edit:
Chips'n Cheese: CPU-Z’s Inadequate Benchmark (https://chipsandcheese.com/p/cpu-zs-inadequate-benchmark)

Lehdro
2024-10-26, 20:48:06
Ich möchte die CPU Package Power (und das denke ich gleichermaßen auch bei AMD) keineswegs als unfehlbar bis aufs Mikrowatt bezeichnen, ich halte sie aber für qualitativ erheblich besser als z.B. die diskutierte EPS-Messung mit von vornherein unausweichlichen, signifikanten und zudem vom jeweiligen Board abhängigen Verfälschungen wie den SpaWa-Verlusten.
Zumindest für AM4 ist das halt Quatsch mit Soße, gerade auf MSI Boards. (https://www.hwinfo.com/forum/threads/explaining-the-amd-ryzen-power-reporting-deviation-metric-in-hwinfo.6456/) Die Abweichungen sind enorm.

Eine möglichst exakte Verbrauchsermittlung ist essentiell für ein effizientes Power-Management, die Performance-Maximierung und natürlich auch den Bauteilschutz, entsprechend viel Aufwand fließt hier hinein. Gibt hier auch ein paar spannende Papers z.B. zu Intels "RAPL". ;) Ein gutes SW-Modell, welches natürlich auch mit umfänglichen MESSwerten gefüttert wird, erscheint mir da tatsächlich die beste Variante zur Verbrauchsermittlung, zumindest im Vergleich zu den begrenzten Möglichkeiten der gängigen HW-Testseiten.
Setzt halt voraus das Soft- und Hardware da entsprechend gut zusammenarbeiten. Und dass zum Launch alles auch unterstützt wird. Für Launchreviews von neuen Plattformen, die radikal anders aufgebaut sind, ARL-S z.B., sehe ich da nur 3 große Fragezeichen.

mocad_tom
2024-10-26, 23:34:41
https://x.com/CapFrameX/status/1850261657555013653

Cyberpunk Ergebnisse sind halt einfach bloß verbuggt.

Und sie sollten fixable sein.