Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake (Lion Cove+Skymont, Xe HPG, LGA1851, 20A+N3B, 2024)
Seiten :
1
2
3
4
5
6
7
[
8]
9
Kriegsgeier
2024-10-23, 07:03:55
ohje, krass: die ARROW Lakes sind auch von den Unstabilitäten betroffen! KRASS!
Das ändert ALLES!
9800X3D kann nun zu 800€ verkauft werden!
OgrEGT
2024-10-23, 07:13:50
Die Frage die sich stellt ob das an der Hardware oder am Microcode liegt... letzteres könnte noch relativ schnell vor allem silent vor Launch gefixt werden... ersteres wäre extrem schlecht...
Kriegsgeier
2024-10-23, 07:17:39
aber dennoch: wenn 80% der Tester morgen von den Bluescreens berichten? Dann kann intel die 285K nicht mal für 249€ verkaufen.
Tarkin
2024-10-23, 07:47:56
Na die Reviews werden lustig. Langsamer bzw. nicht schneller als der Vorgänger und dazu noch instabil. Auf die ERROR LAKE Memes bin ich gespannt.
Twodee
2024-10-23, 08:50:13
Freu mich schon auf den Battle zwischen Zen5 Percent vs. Error Lake ;D
Exxtreme
2024-10-23, 09:16:16
Launch wird angeblich ein Desaster
https://youtu.be/V_UHVWcfeTg
OK, das würde Igors Aussage hier erklären:
https://www.igorslab.de/community/threads/intel-arrow-lake-s-und-h-in-der-kurzvorstellung-deutlich-h%C3%B6here-effizienz-k%C3%BChler-und-nicht-langsamer.10360/page-2#post-284752
Wenn die CPU wirklich Stabilitätsprobleme hat dann kein Wunder, dass kein Händler was bestellt.
Ist schon scheiße wenn man für 1,4 Milliarden N3-Chips bestellt und dann gezwungen ist so einen Schrott zu verkaufen... Das ist weit schlimmer als Bulldozer, denn der war nur langsam.
dildo4u
2024-10-23, 09:33:04
Lunar Lake rennt doch vermutlich nimmt Intel Desktop nich wirklich ernst da dort kein Geld gemacht wird.
In Notebooks muss du den OEM hingegen beweisen das es sich lohnt neue Geräte zu bauen.
Daredevil
2024-10-23, 09:34:46
Launch wird angeblich ein Desaster
https://youtu.be/V_UHVWcfeTg
"It seems like more efficient than Zen5" :eek:
Also neben dem ganzen Crap, der offenbar mitschwingen sollte, finde ich das schon sehr beachtlich, wenn es stimmen sollte. Hoffentlich auch im SC und im Gaming ( Wobei 7X3D zu erreichen schier unmöglich scheint ), das wäre neben der geringen Performance für mich wirklich ein immenser Fortschritt.
Vielleicht hat CB ja deswegen in ihren in Gaming Charts nun auch CPU Package Power hinzugefügt, weil das das einzig interessante sein wird? :confused:
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-intel-core-gaming-benchmarks-windows-11-24h2.90044/seite-2#abschnitt_anno_1800
https://s20.directupload.net/images/241023/dk3o6vj8.png
aber dennoch: wenn 80% der Tester morgen von den Bluescreens berichten? Dann kann intel die 285K nicht mal für 249€ verkaufen.
Finewine, nehme ich. ;D
Der_Korken
2024-10-23, 09:37:31
Ist schon scheiße wenn man für 1,4 Milliarden N3-Chips bestellt und dann gezwungen ist so einen Schrott zu verkaufen... Das ist weit schlimmer als Bulldozer, denn der war nur langsam.
lol, Bulldozer war 30% langsamer als die Konkurrenz bei doppeltem Verbrauch. Um auf diese Verhältnisse zu kommen, kann Intel die Dinger mit 4,5Ghz bei maximaler Voltage laufen lassen und dann werden die auch stabil sein (sofern die Voltage selbst nicht das Problem ist).
Managed einfach eure Erwartungen. Das Ding ist kein neuer Conroe. Aber vielleicht ein neuer Nehalem ...
MfG
Raff
fondness
2024-10-23, 09:41:43
lol, Bulldozer war 30% langsamer als die Konkurrenz bei doppeltem Verbrauch. Um auf diese Verhältnisse zu kommen, kann Intel die Dinger mit 4,5Ghz bei maximaler Voltage laufen lassen und dann werden die auch stabil sein (sofern die Voltage selbst nicht das Problem ist).
Naja, von den 30% wird man nicht so weit weg sein wenn man sieht dass schon der 7800X3D um 10% vorne ist und der 9800X3D da wohl 15% drauf legt.
https://www.computerbase.de/artikel/prozessoren/amd-ryzen-intel-core-gaming-benchmarks-windows-11-24h2.90044/#abschnitt_leistungsrating_fps_und_frametimes
Und die X3D-Dinger sind auch sehr sparsam....
/Edit: Und laut dem Leak hinten liegt man mit dem 285K hinter einem 13900K in Gaming, da wären wir also locker bei 30% Vorsprung für AMD.
Naja, von den 30% wird man nicht so weit weg sein wenn man sieht dass schon der 7800X3D um 10% vorne ist und der 9800X3D da wohl 15% drauf legt.
Und die X3D-Dinger sind auch sehr sparsam....
9800X3D ist bei den Arrow-Reviews aber noch kein (handfestes) Thema. Gut für Intel. :ugly:
MfG
Raff
fondness
2024-10-23, 09:44:22
9800X3D ist bei den Arrow-Reviews aber noch kein (handfestes) Thema. Gut für Intel. :ugly:
MfG
Raff
Auf den zwei Wochen kann man sich nicht wirklich ausruhen. :ugly:
Kriegsgeier
2024-10-23, 09:46:26
Managed einfach eure Erwartungen. Das Ding ist kein neuer Conroe. Aber vielleicht ein neuer Nehalem ...
MfG
Raff
Nehalem bedeuten dann was genau?
robbitop
2024-10-23, 09:52:07
Gleich schnell (oder leicht schneller) wie der Vorgänger aber braucht weniger Takt. So war es zumindest IIRC bei Nehalem. Aber IIRC waren damals viele Reviews im GPU Limit. X-D
dildo4u
2024-10-23, 09:53:02
Nehalem bedeuten dann was genau?
In den Benchmarks machte Nehalem insgesamt eine sehr gute Figur. Einzig in Spielen konnte Nehalem zu Beginn noch keine Vorteile gegenüber der Vorgängergeneration verbuchen. In den theoretischen Tests konnten die Nehalem-Prozessoren 22 bis 26 Prozent mehr Leistung gegenüber den Q9000-CPUs mit gleicher Taktrate (den Turbo-Modus vernachlässigt) verbuchen. Wer in Multimedia- und Office-Anwendungen arbeitete, der konnte ebenfalls knapp 17 bis 21 Prozent mehr Leistung erwarten. Das ging soweit, dass das Einsteigermodell Core i7 920 das vorherige Flaggschiff QX9770 Extreme Edition in realen Anwendungen um drei Prozent hinter sich ließ.
https://www.computerbase.de/2023-11/im-test-vor-15-jahren-der-erste-intel-core-i7-legte-als-echter-quad-core-vor/
fondness
2024-10-23, 09:55:24
Gleich schnell (oder leicht schneller) wie der Vorgänger aber braucht weniger Takt. So war es zumindest IIRC bei Nehalem. Aber IIRC waren damals viele Reviews im GPU Limit. X-D
Laut MLID reicht es nicht mal für den 13900K. Aber mal abwarten. Zumindest die selben Performance wie der 14900K wird man hoffentlich schon bringen. Sonst wird das wirklich ein Bulldozer-Szenario in Gaming.
Anwendungsleistung des 285K ist laut ihm auf 9950X Niveau. Von daher passt Nehalem schon ein bisschen.
Kriegsgeier
2024-10-23, 09:56:10
ach was, die Rede ist vom Core i7 920 - cool, hatte ich auch! War sehr gute CPU. Hat bei mir bis 8700k gereicht!
robbitop
2024-10-23, 10:00:43
Laut MLID reicht es nicht mal für den 13900K. Aber mal abwarten. Zumindest die selben Performance wie der 14900K wird man hoffentlich schon bringen. Sonst wird das wirklich ein Bulldozer-Szenario.
Naja Bulldozer ist übertrieben. Der war extrem durstig und wurde vom Wettbewerb mit einem viel größeren Vorsprung vernichtet.
Der X3D ist zwar ein legitimer Gegner - aber da kommt ein gewisses Maß nicht aus der uArch sondern aus dem riesigem Cache. Für den Endkunden egal - aber technisch gesehen ist die Situation schon etwas anders. Finde ich.
fondness
2024-10-23, 10:04:13
Das stimmt. Aber wie du schon sagst, für den Endkunden letztlich irrelevant. Intel sollte es halt nach gefühlt hundert Jahren auch mal schaffen einen großen LL-Cache zu verbauen. Die Fähigkeit hatten schon Zen2 in 2019, und nachdem jede Bruchbude die Konkurrenz ausführlich analysiert muss Intel das gewusst haben.
Er ist kein Nehalem, denn er hat keinen Vorteil bei den Befehlssätzen, AMD aber.
//differentRob
2024-10-23, 10:11:02
Offenbar ist es noch Windows Versions abhängig.
Lass das mal so liegen:
https://www.overclock.net/posts/29380653/
Im gleichen board gab es auch wortmeldungen zu ram latency bei 67ns, bessere Effizienz als ryzen 9000.
Wird wohl sehr widersprüchliche Reviews geben.
mocad_tom
2024-10-23, 10:12:56
Das hängt vermutlich mit LAM und LASS zusammen.
https://x.com/larkmjc/status/1620948150294032385
Ein tweet vom Februar 2023:
discovered x86 LASS and LAM in the Intel architecture instruction set extensions and future features programming reference. LASS enforces addresses with bit 63 being set or clear as supervisor or user addresses. LAM allows us to put metadata in the upper bits.
Bei Apple hat man Prozessor und Betriebssystem in einer Hand und dort wäre das ohne Probleme eingeführt worden.
Jetzt hat man aber einen total freidrehenden Linus Torvalds:
https://www.neowin.net/news/linus-torvalds-explains-why-hes-fed-up-with-intel-amd-nvidia-and-their-buggy-hardware/
Ich findes es einfach Sch... wenn man nicht die Hintergründe dazu kennt und dann als Presse seine Schlagzeilen raushaut.
(und Neowin ist da erfrischend sortierter unterwegs)
Intel introduced LAM or Linear Address Masking with its 12th Gen Sapphire Rapids chips to improve memory safety by masking the metadata-containing memory pointer address. AMD's Upper Address Ignore (UAI) also works in a similar fashion and was introduced with the Zen 4 architecture or Ryzen 7000 series.
However, utilizing LAM makes a CPU vulnerable to speculation attacks also called SLAM (short for side-channel attacks via LAM) and Shutemov says it can be mitigated with the help of LASS or Linear Address Space Separation that provides hardware-based address-space isolation. (AMD just released a new Windows chipset driver to protect against similar attacks.)
LAM und LASS ermöglichen in Zusammenarbeit eine schöne Speichersegmentierung bei der Virtualisierung.
Das ist ein Bereich, wo ARM regelmäßig komplett aber sowas von abstinkt.
Und mit Torvalds stänkert da jetzt einer rein der von sich aus einfach alles bei Linux lieber Bare-Metal lässt.
Torvalds und Michael Larabel (Phoronix) haben gar nicht ein Interesse daran Linux in virtualisierten Umgebungen großartig herzuzeigen(zumindest ist das mein Eindruck).
Wohingegen Microsoft eine Gravitation in Richtung Virtualisierung aufgebaut hat. Man hätte Win 11 nicht virtualisieren müssen, man wollte es aber bewusst tun.
Damit erzwingt man:
a) die Hardware-Hersteller müssen automatisch virtualisiert denken und ihre Bugs fixen
b) der Server-Code und der Client-Code kann nahe beieinander bleiben
In Win 11 Windows Subsystem for Linux kann einfach virtualisiert laufen und die Grafikkartentreiber müssen einfach eine virtuelle Instanz anschmeissen.
Diese ganzen Paravirtualisierten ansätze von 2015 sind mittlerweile alle komplett wegverbrannt. Wenn das in größerem Maße ausgerollt worden wäre hätten wir heute in den Datacenter brennende Hütten, weil die offen waren wie Scheunentore.
MMn
ist Microsoft aktuell der progressive und vorwärtsdrängende Part
und
Linus Torvalds einfach nur ein provinzieller Pisser ohne Weitblick.
Zossel
2024-10-23, 10:28:34
Anwendungsleistung des 285K ist laut ihm auf 9950X Niveau. Von daher passt Nehalem schon ein bisschen.
Notfalls klebt AMD ein ZENxc Die rein anstatt ein Non-c Die.
Zossel
2024-10-23, 10:35:51
LAM und LASS ermöglichen in Zusammenarbeit eine schöne Speichersegmentierung bei der Virtualisierung.
Das ist ein Bereich, wo ARM regelmäßig komplett aber sowas von abstinkt.
Und mit Torvalds stänkert da jetzt einer rein der von sich aus einfach alles bei Linux lieber Bare-Metal lässt.
Torvalds und Michael Larabel (Phoronix) haben gar nicht ein Interesse daran Linux in virtualisierten Umgebungen großartig herzuzeigen(zumindest ist das mein Eindruck).
Wohingegen Microsoft eine Gravitation in Richtung Virtualisierung aufgebaut hat. Man hätte Win 11 nicht virtualisieren müssen, man wollte es aber bewusst tun.
Damit erzwingt man:
a) die Hardware-Hersteller müssen automatisch virtualisiert denken und ihre Bugs fixen
b) der Server-Code und der Client-Code kann nahe beieinander bleiben
In Win 11 Windows Subsystem for Linux kann einfach virtualisiert laufen und die Grafikkartentreiber müssen einfach eine virtuelle Instanz anschmeissen.
Diese ganzen Paravirtualisierten ansätze von 2015 sind mittlerweile alle komplett wegverbrannt. Wenn das in größerem Maße ausgerollt worden wäre hätten wir heute in den Datacenter brennende Hütten, weil die offen waren wie Scheunentore.
ist Microsoft aktuell der progressive und vorwärtsdrängende Part
und
Linus Torvalds einfach nur ein provinzieller Pisser ohne Weitblick.
Dazu hätte ich gerne mehr technischen Background.
mocad_tom
2024-10-23, 10:45:17
https://patches.linaro.org/project/linux-efi/patch/20240710160655.3402786-17-alexander.shishkin@linux.intel.com/
Im Juli 2024 veröffentlicht Alexander Shishkin einen Patch zu SLAM.
LAM und LASS in Kombination verhindern SLAM.
https://download.vusec.net/papers/slam_sp24.pdf
Sierra Forest, Granite Rapids, Arrow Lake, Lunar Lake haben LASS in Hardware.
Mal etwas anderes als (fehlende) Performance: :)
Intel Arrow Lake: Braucht es einen neuen Kühler? LGA1851-Kompatibilität im Check (https://www.pcgameshardware.de/CPU-Kuehler-Hardware-255512/Specials/Sockel-LGA-1851-Kuehler-kompatibel-Arrow-Lake-Intel-Core-1458121/)
MfG
Raff
Exxtreme
2024-10-23, 11:26:39
Torvalds und Michael Larabel (Phoronix) haben gar nicht ein Interesse daran Linux in virtualisierten Umgebungen großartig herzuzeigen(zumindest ist das mein Eindruck).
Wohingegen Microsoft eine Gravitation in Richtung Virtualisierung aufgebaut hat. Man hätte Win 11 nicht virtualisieren müssen, man wollte es aber bewusst tun.
Linux unterstützt allerlei Arten von Virtualisierung schon seit ewig und drei Tagen. Wenn Torvalds so dagegen wäre dann glaube ich nicht, dass Virtualisierung da so breit aufgestellt wäre.
Und Micros~1 macht auf Virtualisierung nur aus einem Grund: sie wollen Cloud verkaufen.
ach was, die Rede ist vom Core i7 920 - cool, hatte ich auch! War sehr gute CPU. Hat bei mir bis 8700k gereicht!
Oh da komme ich auch ins schwärmen. Der hat seinerzeit bei mir die ausgereizte Pentium 4 Plattform (Extreme Edition 965XE zu guter letzt) ersetzt mit damals komplett neuem drum herum. Das mache ich selten... Die X58 Plattform hielt dann auch bis vor 3-4 Jahren mit dem i7 980.
i7 920 auf 4 Ghz, 7200 QPI und 2000 DDR3 war auch noch richtig was im OC. 50% on top...
Hakim
2024-10-23, 12:46:44
Mal die Tests abwarten, hört sich alles nicht so pralle an. Energie sparsam schön und gut, aber man sollte nicht beim Spiele Performance hinter der letzten gen liegen. Irgendwie bei beiden Firmen etwas enttäuschende gen diesmal, AMD kann vielleicht ja zumindest mit dem kommenden X3D etwas bewegen.
Tarkin
2024-10-23, 12:57:06
lol, Bulldozer war 30% langsamer als die Konkurrenz bei doppeltem Verbrauch. Um auf diese Verhältnisse zu kommen, kann Intel die Dinger mit 4,5Ghz bei maximaler Voltage laufen lassen und dann werden die auch stabil sein (sofern die Voltage selbst nicht das Problem ist).
im Vergleich zum 9800X3d wird das vl. sogar zutreffen ;)
Exxtreme
2024-10-23, 13:01:59
Mal die Tests abwarten, hört sich alles nicht so pralle an. Energie sparsam schön und gut, aber man sollte nicht beim Spiele Performance hinter der letzten gen liegen. Irgendwie bei beiden Firmen etwas enttäuschende gen diesmal, AMD kann vielleicht ja zumindest mit dem kommenden X3D etwas bewegen.
Das Problem ist halt, Spiele sind hart zu optimieren. Denn da, wo man gut optimieren könnte, da rennt man gegen eine nicht so ohne Weiteres überwindbare Physik-Mauer ala Leitungslänge vom RAM zur CPU etc. Die Spielehersteller selbst könnten auch einiges machen ala aktuelle CPU-Instruktionen nutzen. Aber das schränkt wiederum die Kompatibilität zur bestehenden Hardware ein und man erreicht u.U. einige Märkte nicht weil die überwiegend 10 Jahre hinterher sind was Techlevel angeht etc.
Undertaker
2024-10-23, 13:25:39
im Vergleich zum 9800X3d wird das vl. sogar zutreffen ;)
Der 2600K war 44% schneller als der FX-8150:
https://www.computerbase.de/2011-10/test-amd-bulldozer/17/
Wer einen solchen Vorsprung des 9800X3D oder 9950X3D zum 285K erwartet, dürfte vermutlich enttäuscht sein.
Kriegsgeier
2024-10-23, 13:37:39
auch 15% würde mich sehr wundern.
maximus_hertus
2024-10-23, 14:20:21
Wait for the Benchmarks! :)
Die ganzen Vergleiche hinken doch bis zum geht nicht mehr. Warten wir doch zumindest bis morgen, dann kann man schon sinnvoller über x% hier und da diskutieren.
Und ab dem 7.11. dann auch mit den Benchmarks des 9800X3D.
Imo(!) wird Arrowlake besser weg kommen, als viele heute glauben. Nicht unbedingt im Gaming, aber als Gesamtpaket wird Arrowlake sicherlich einiges positives "abbekommen".
Ich verstehe eh nicht, warum man immer von "vernichten", "zerstören" usw. schreiben muss. Und das bei teils einstelligen %ten.
ChaosTM
2024-10-23, 14:48:44
Wäre schlimm, wenn Arrow wirklich instabil sein sollte.
Dann kostet der 9800X3D gleich mal 600€.
Die Performance ist eher nebensächlich. Manche bevorzugen einfach eine Firma und solange die Dinger stabil laufen werden die auch gekauft.
Ist nie gut, wenn eine Firma plötzlich "auslässt" und die Konkurrenz quasi wegbricht. Das freut nur eine ganz besondere Art von Mensch..
dildo4u
2024-10-23, 15:06:08
Der 7800x3d kann weiter geführt werden genau das wurde mit dem 5700x3d gemacht.
Beide Chips massiv gedrosselt damit man keine guten Yields braucht.
Tarkin
2024-10-23, 15:26:27
Der 2600K war 44% schneller als der FX-8150:
https://www.computerbase.de/2011-10/test-amd-bulldozer/17/
Wer einen solchen Vorsprung des 9800X3D oder 9950X3D zum 285K erwartet, dürfte vermutlich enttäuscht sein.
der Abstand ist später doch beträchtlich geschrumpft... waren drei Jahre später "nur" noch 20% Unterschied
https://www.computerbase.de/2014-09/amd-fx-8370e-im-test/2/#abschnitt_spiele_niedrige_aufloesung
Aber unter der Annahme, dass ARL 285K 95% Gaming Leistung eines 14900K hat, der 7800X3d 10% drüber ist (110% laut aktuellem CB Test) und der 9800X3D vl. nochmal 10% drauf legen kann (also bei 121% vom 14900K landet - und das schaut schon min. nach +10% aus wenn ich mir die Final Fantasy Benchmarks im Anandtech Forum so ansehe, wo ein getunter 9800X3d locker über 60k errreicht und sehr gut getunte 7800X3Ds bei knapp über 50K landen) ...
ergibt einen Abstand von +27-28% zum 285K ;)
Matrix316
2024-10-23, 15:52:52
Ich verstehe Intel nicht. Die wissen doch: Gaming ist King auf dem Desktop. Was braucht Gaming? Cache. Und mehr Cache. Und noch mehr Cache. Am besten 3D Cache. Warum ist man nicht gleich nach dem 5800X3D für Arrow Lake auf den 3D Cache Zug aufgesprungen? Jetzt eine CPU rauszubringen die ausgerechnet beim Gaming nicht schneller ist... wir haben ja beim Ryzen 9000 Release gesehen wie "beliebt" normale CPUs sind...
Ich verstehe Intel nicht. Die wissen doch: Gaming ist King auf dem Desktop. Was braucht Gaming? Cache. Und mehr Cache. Und noch mehr Cache. Am besten 3D Cache. Warum ist man nicht gleich nach dem 5800X3D für Arrow Lake auf den 3D Cache Zug aufgesprungen?
Der Desktop wird in Intels aktueller Situation nur eine geringe Priorität haben. Bei Server und Mobile muss Intel wieder deutlich wettbewerbsfähiger werden, dort wird das große Geld verdient.
dildo4u
2024-10-23, 16:03:54
Ich verstehe Intel nicht. Die wissen doch: Gaming ist King auf dem Desktop. Was braucht Gaming? Cache. Und mehr Cache. Und noch mehr Cache. Am besten 3D Cache. Warum ist man nicht gleich nach dem 5800X3D für Arrow Lake auf den 3D Cache Zug aufgesprungen? Jetzt eine CPU rauszubringen die ausgerechnet beim Gaming nicht schneller ist... wir haben ja beim Ryzen 9000 Release gesehen wie "beliebt" normale CPUs sind...
CPU Entwicklung dauert Jahre wenn die Entscheidung für extra Cache in 2022 gemacht wurde kann das eine 2025 CPU sein.
robbitop
2024-10-23, 16:05:53
Ich verstehe Intel nicht. Die wissen doch: Gaming ist King auf dem Desktop. Was braucht Gaming? Cache. Und mehr Cache. Und noch mehr Cache. Am besten 3D Cache. Warum ist man nicht gleich nach dem 5800X3D für Arrow Lake auf den 3D Cache Zug aufgesprungen? Jetzt eine CPU rauszubringen die ausgerechnet beim Gaming nicht schneller ist... wir haben ja beim Ryzen 9000 Release gesehen wie "beliebt" normale CPUs sind...
Wobei ich glaube, dass wir hier etwas in einer Blase sind. Die meisten CPUs werden über OEMs und Laptops ausgeliefert. Der DIY Markt mit den typischen Gamern ist nicht unbedingt vergleichbar groß.
Dennoch ja sowas hätte Intel liefern sollen. Im letzten MLID podcast mit einem Intel Engineer (wer weiß ^^) wurde gesagt, dass sowas in der Mache war. Das hieß "adamantine cache". Das ging auch immer mal wieder unter dem Namen durch die Gerüchteküche. In dem Podcast wurde jedenfalls erwähnt, dass das gecanclet wurde. Und soweit ich ihn verstanden hab (ich hab das nur nebenbei gehört und er hat das in einem Halbsatz fallen lassen) hat es wohl nicht so sehr viel gebracht - single digit gains sagte er glaube ich.
Was ich auch bei RPL interessant fand, ist dass der weniger an der Memorylatency zu hängen schien als Zen 4. Ggf. ist - warum auch immer - die Cachehitrate bei RPL (und potenziell seinen Nachfolgern) grundsätzlich höher oder aus welchem Grund auch immer nicht notwendigerweise ein Flaschenhals.
fondness
2024-10-23, 16:19:45
Der Desktop wird in Intels aktueller Situation nur eine geringe Priorität haben. Bei Server und Mobile muss Intel wieder deutlich wettbewerbsfähiger werden, dort wird das große Geld verdient.
This. Sie haben sich wohl auf perf/Watt fokussiert. Wichtig für Server und mobile. Und ich hoffe doch da kommt auch etwas aus der Architektur und nicht nur aus dem tsmc 3nm Prozess.
Matrix316
2024-10-23, 16:20:15
Wobei ich glaube, dass wir hier etwas in einer Blase sind. Die meisten CPUs werden über OEMs und Laptops ausgeliefert. Der DIY Markt mit den typischen Gamern ist nicht unbedingt vergleichbar groß.
Dennoch ja sowas hätte Intel liefern sollen. Im letzten MLID podcast mit einem Intel Engineer (wer weiß ^^) wurde gesagt, dass sowas in der Mache war. Das hieß "adamantine cache". Das ging auch immer mal wieder unter dem Namen durch die Gerüchteküche. In dem Podcast wurde jedenfalls erwähnt, dass das gecanclet wurde. Und soweit ich ihn verstanden hab (ich hab das nur nebenbei gehört und er hat das in einem Halbsatz fallen lassen) hat es wohl nicht so sehr viel gebracht - single digit gains sagte er glaube ich.
Was ich auch bei RPL interessant fand, ist dass der weniger an der Memorylatency zu hängen schien als Zen 4. Ggf. ist - warum auch immer - die Cachehitrate bei RPL (und potenziell seinen Nachfolgern) grundsätzlich höher oder aus welchem Grund auch immer nicht notwendigerweise ein Flaschenhals.
Aber ist mehr Cache nicht immer besser weil er einfach noch schneller ist als normaler RAM? Was wäre, wenn man die Fläche der E-Cores einfach stattdessen mit Cache aufgefüllt hätte? Einfach nur 8 P Kerne mit massivem Cache daneben. :uponder:
fondness
2024-10-23, 16:21:02
Was ich auch bei RPL interessant fand, ist dass der weniger an der Memorylatency zu hängen schien als Zen 4. Ggf. ist - warum auch immer - die Cachehitrate bei RPL (und potenziell seinen Nachfolgern) grundsätzlich höher oder aus welchem Grund auch immer nicht notwendigerweise ein Flaschenhals.
Hat auch schlicht größere Caches, was natürlich die Hitrate erhöht. Und der Ringbus ohne extra I/O Die ist sicher auch kein Nachteil.
Tarkin
2024-10-23, 16:21:04
NDA-brecher:
https://overclock3d.net/reviews/cpu_mainboard/intel-core-ultra-200s-cpu-review/
Katastrophe von einer CPU - Gaming kompletter fail, Anwendungen teilweise echt unter aller Sau
Sicher der größte Fail seit Bulldozer. Unglaublich eigentlich.
Lehdro
2024-10-23, 16:31:42
NDA-brecher:
https://overclock3d.net/reviews/cpu_mainboard/intel-core-ultra-200s-cpu-review/
Katastrophe von einer CPU - Gaming kompletter fail, Anwendungen teilweise echt unter aller Sau
Sicher der größte Fail seit Bulldozer. Unglaublich eigentlich.
Shit, beim Durchklicken auf Seite 15 kam 404.
Sieht echt nicht gut aus wenn dass der Endzustand sein sollte - das hoffe ich aber nicht. Bemerkenswert ist die Inkonsistenz vom 14900K zum KS gewesen, sehr fishy.
robbitop
2024-10-23, 16:32:25
Hat auch schlicht größere Caches, was natürlich die Hitrate erhöht. Und der Ringbus ohne extra I/O Die ist sicher auch kein Nachteil.
Ja wobei die L2 Vergrößerung um immerhin 60%(!) bei RPL vs ADL quasi nix gebracht hat. Und ADL sich da auch ähnlich verhalten hat. Hat ggf noch andere Gründe.
NDA-brecher:
https://overclock3d.net/reviews/cpu_mainboard/intel-core-ultra-200s-cpu-review/
Wurde schon offline genommen.
Katastrophe von einer CPU - Gaming kompletter fail, Anwendungen teilweise echt unter aller Sau
Sicher der größte Fail seit Bulldozer. Unglaublich eigentlich.
Ein paar Werte hab ich gesehen bevor das "Review" offline genommen wurde, viel würde ich darauf aber nicht geben. Keine genauen Angaben zum Testsystem, nur CPU-Z Screenshots, Werte sehr unstimmig. Also etwas Zurückhaltung bitte mit so harschen Worten und besser auf anständige Reviews warten, sind nur noch ein paar Stunden bis morgen.
Hakim
2024-10-23, 16:37:33
Ja die werden nicht schnell sein aber teils langsamer als eine 13600k? Ne lieber auf morgen warten
Fusion_Power
2024-10-23, 16:39:06
"Intel Arc 140T" ok, sieht doch schon mal ganz gut aus, in Benchmarks zumindest (https://www.gamestar.de/artikel/intel-zuendet-mit-der-arc-140t-den-igp-turbo,3421578.html).
https://images.cgames.de/images/gamestar/226/arc-140t-bench_6316306.jpg
Natürlich zählt ehr wies in der Praxis dann mit der Grafikperformance aussieht. Aber für mich als "zukünftigen iGPU Gamer" wäre das schon mal ein Kandidat.
davidzo
2024-10-23, 16:42:56
Hat auch schlicht größere Caches, was natürlich die Hitrate erhöht. Und der Ringbus ohne extra I/O Die ist sicher auch kein Nachteil.
Cheese and chips sieht den Grund dafür dass Cove Kerne weniger Latenz-sensitiv sind hauptsächlich in den größeren OoO Ressourcen. Der ROB von Golden Cove ist mal eben +50% größer als zen4 und Faktor 2x gegenüber Zen3.
Apple dürfte da mit dem Industrieweit größten OoO window dann eigentlich auch wenig Latenzprobleme haben und doch haben sie einen extrem schnellen und großen L1.
Wenn man sich anschaut wie wenig Cove Kerne auf DRAM Latenz reagieren wundern mich die Hiobsbotschaften rund um Arrowlake eigentlich. In 90% der Anwendungen sollte es nur minimale Unterschiede machen. In Meteorlake ist der niedrige Takt des DRAM Controllers gar nicht aufgefallen und der hatte weniger L2 Cache. Aber gut, das Taktdefizit muss man auch erstmal wieder einholen und Spiele zählen halt zu den 10% in denen Cachelatenz ne Menge ausmacht.
Wenn ARL dann auch in ST-Anwendungen nicht schneller ist zeigt das eher was für eine Luftpumpe LionCove eigentlich ist. Nach Zen5% kriegt man doch irgendwie den Eindruck dass x86 einfach Probleme hat weiter zu skalieren als 4-IPC wide.
Twodee
2024-10-23, 16:49:13
https://videocardz.com/pixel/intel-core-ultra-285k-265k-and-245k-review-leaks-out
Oh diese Schmerzen....
Der_Korken
2024-10-23, 16:49:48
Was ich auch bei RPL interessant fand, ist dass der weniger an der Memorylatency zu hängen schien als Zen 4. Ggf. ist - warum auch immer - die Cachehitrate bei RPL (und potenziell seinen Nachfolgern) grundsätzlich höher oder aus welchem Grund auch immer nicht notwendigerweise ein Flaschenhals.
Das wird irgendwie ständig vergessen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13519134#post13519134
Das unterschiedliche Verhalten zwischen Zen 4 und Raptor Lake ist nicht wegzudiskutieren.
Aber ist mehr Cache nicht immer besser weil er einfach noch schneller ist als normaler RAM? Was wäre, wenn man die Fläche der E-Cores einfach stattdessen mit Cache aufgefüllt hätte? Einfach nur 8 P Kerne mit massivem Cache daneben. :uponder:
Cache kostet vor allem jede Menge Chipfläche und macht die CPU somit deutlich teurer. Vor allem wenn man, wie du vorschlägst, den Compute Die mit dem neuesten Fertigungsprozess dafür benutzt. Wenn Intel sagt, dass die Gewinne zu klein waren, wird da schon was dran sein. Außerdem wären 8+0 Kerne und das noch ohne SMT ein absoluter MT-Krüppel geworden, der gegen den 9600X zu kämpfen gehabt hätte. Da muss man sich ernsthaft Sorgen machen, dass man so Lebzeiten der CPU nicht mehr durch den Cache sondern die Anzahl der Kerne/Threads limitiert sein könnte. Ob es gleich 8+16 sein müssen, ist eine andere Frage, aber 8+0 sind für ein Topmodell auf jeden Fall zu wenig.
Ja wobei die L2 Vergrößerung um immerhin 60%(!) bei RPL vs ADL quasi nix gebracht hat. Und ADL sich da auch ähnlich verhalten hat. Hat ggf noch andere Gründe.
Ich hatte im verlinkten Post (und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13519179#post13519179)) spekuliert, dass Intel durch größere OoOE-Strukturen die Latenzen besser verstecken kann. Die These ist mittlerweile falsch, da Zen 5 genau dort massiv vergrößert wurde, ohne dass in Spielen nennenswert was bei rum kam. Selbst die unified scheduler sind deutlich näher an Intel dran und haben anscheinend keinen Effekt auf Spiele gehabt. Oder aber, die Gewinne werden aufgefressen durch größere interne Latenzen für bestimmte Instruktionsfolgen bzw. -abhängigkeiten, die man in Spielecode oft findet. Man muss sich ja auch fragen, wo bei Intels Kernen die ganze Energie draufgeht, während andere Cores deutlich sparsamer sind.
Edit:
https://videocardz.com/pixel/intel-core-ultra-285k-265k-and-245k-review-leaks-out
Oh diese Schmerzen....
Für sieht das aus als hätte Arrow Lake massive Probleme mit Speicherlatenzen oder ähnlichem. Generell sind alle drei Modelle sehr dicht zusammen, in einem Spiel sogar identisch. Dazu noch unterhalb eines 13600K, der mit gerade mal 5,1Ghz taktet. Dass die deutlich aufgebohrten Kerne eine so viel schlechtere IPC haben sollen, wäre für mich unlogisch. Ich warte da erstmal die tieferen Analysen ab. Die Cinebench-Ergebnisse sagen ja erstmal, dass der Kern grundsätzlich performant ist. War bei Zen 1 genauso, wo alle noch gelacht haben, was AMD mit ihren CCXs für einen Müll gebaut hat, weil die Spieleperformance ziemlich meh war.
Der_Korken
2024-10-23, 16:58:17
Edit: delete
(hätte nicht gedacht, dass nach 10m kein neuer Post dazwischen kommt, bei dem darüber waren es gleich 5 Stück^^)
aceCrasher
2024-10-23, 17:22:43
https://videocardz.com/pixel/intel-core-ultra-285k-265k-and-245k-review-leaks-out
Oh diese Schmerzen....
Der Post bei Videocardz wurde auch direkt wieder gelöscht, kann man das jetzt noch irgendwo einsehen?
E39Driver
2024-10-23, 17:27:37
Einfach auf Twitter/X nach Arrow Lake suchen. Da wurden die Slides direkt kopiert und sind einsehbar. Sieht ja so gar nicht gut aus in Gaming, Min-FPS muss fast ein Fehler sein so schlecht sind die Werte. Und auch überraschend hoher Stromverbrauch auf Volllast, nur knapp hinter den Raptoren
davidzo
2024-10-23, 17:44:28
Der Post bei Videocardz wurde auch direkt wieder gelöscht, kann man das jetzt noch irgendwo einsehen?
Ich glaub in Factorio oder so war der auf 3950X Niveau. ZEN2 Spieleleistung, darauf hat die Welt gewartet!
Sonst trading blows mit Zen3 nonx3d, dem 5800X3d und Zen4, durchweg im unteren Mittelfeld der getesteten CPUs. In Spielen aber kein einziges mal auf Raptorlake Niveau, nur in Cinebench um 1% mal ganz vorne. Powerdraw etwas niedriger aber keine Welten. Der 285k braucht weiterhin etwas mehr als der 9950X. Mir ist beim Energieverbrauch vor allem aufgefallen dass der i5 nur im Mittelfeld lag und beim Spieleverbrauch nicht an alte Alderlake i5s wie den 12400f heran kam.
Wenn die anderen Reviews das bestätigen, dann kann der AI Hypetrain gar nicht schnell genug sein damit Intel diese CPUs verkauft bekommt.
reaperrr
2024-10-23, 17:55:38
Wenn die anderen Reviews das bestätigen, dann kann der AI Hypetrain gar nicht schnell genug sein damit Intel diese CPUs verkauft bekommt.
ARL-S hat ja nicht mal ne besondere NPU, von daher hilft AI auch nicht.
Sicher, anders als Desktop-Zen5 hat er wenigstens eine, aber halt nix Copilot-taugliches oder so.
davidzo
2024-10-23, 18:02:45
Ja, wenn das alles stimmt, dann wäre ARL-S für den Desktop wohl nicht nötig gewesen. Keiner braucht eine für Copilot zu langsame NPU und eine deutlich schnellere aber weiterhin veraltete IGP.
Das hätte man schön als highend Mobil-CPU launchen können und im Desktop lieber eine Mischung aus Bartlet-lake, Raptorlake refresh und Alderlake als "15th gen" verkaufen. Bartlet-lake wäre als 12C all P-Core CPU eine top-CPU für Spieler aus der man sicherlich nochmal 100-200mhz mehr herausgekitzelt bekommt als aus dem 14900k (+ SMT disablen= game mode?), während RTL 8+16 als reine productivity-CPU ja immer noch einwandfrei mit dem 9950x mithält. Aber Intel hat das sicher auch durchgespielt und sich nun halt so entschieden.
Hakim
2024-10-23, 18:07:55
Das gute ist, da die Erwartungen jetzt im Keller sind, kann man nicht mehr großartig enttäuscht werden :). Man kann wenn nur noch positiv überrascht werden, mal abwarten
aufkrawall
2024-10-23, 18:10:32
"-15% Lake". :freak:
fondness
2024-10-23, 18:18:26
Das ist jedenfalls sicher kein Qualitäts Review. Manche Werte sind auch inkonsistent. Mal abwarten.
Matrix316
2024-10-23, 18:22:16
[...]
Cache kostet vor allem jede Menge Chipfläche und macht die CPU somit deutlich teurer. Vor allem wenn man, wie du vorschlägst, den Compute Die mit dem neuesten Fertigungsprozess dafür benutzt. Wenn Intel sagt, dass die Gewinne zu klein waren, wird da schon was dran sein. Außerdem wären 8+0 Kerne und das noch ohne SMT ein absoluter MT-Krüppel geworden, der gegen den 9600X zu kämpfen gehabt hätte. Da muss man sich ernsthaft Sorgen machen, dass man so Lebzeiten der CPU nicht mehr durch den Cache sondern die Anzahl der Kerne/Threads limitiert sein könnte. Ob es gleich 8+16 sein müssen, ist eine andere Frage, aber 8+0 sind für ein Topmodell auf jeden Fall zu wenig.
[...]
Ja gut man könnte ja HT wieder nutzen. Oder man geht in die Snapdragon Elite Richtung: 12 echte P Kerne statt 8.
maximus_hertus
2024-10-23, 18:43:47
Mal abwarten.
Genau das. Nur noch einmal schlafen ;)
Der_Korken
2024-10-23, 18:49:06
Ja gut man könnte ja HT wieder nutzen. Oder man geht in die Snapdragon Elite Richtung: 12 echte P Kerne statt 8.
SMT stand nicht zur Verfügung - entweder bewusst weggelassen, um das Design leichter zu bekommen oder es war zu kompliziert rechtzeitig mit dem neuen Kern fertig zu stellen. Und 12 P-Kerne wären so groß wie aktuell 8+16 Kerne.
Zossel
2024-10-23, 18:51:59
Ich verstehe Intel nicht. Die wissen doch: Gaming ist King auf dem Desktop. Was braucht Gaming? Cache. Und mehr Cache. Und noch mehr Cache. Am besten 3D Cache. Warum ist man nicht gleich nach dem 5800X3D für Arrow Lake auf den 3D Cache Zug aufgesprungen?
Weil Intel das nicht kann.
w0mbat
2024-10-23, 18:55:25
Intel kann cache in den base tile packen, das haben sie schon auf der Hot Chips 2022 gezeigt.
fondness
2024-10-23, 19:03:17
Im übrigen wird das die bei tsmc gefertigt und die können es definitiv ;-).
Edit: aber stimmt packaging ist bei Intel. Denke aber es wäre kein Problem das Cache die bei tsmc zu stacken.
Zossel
2024-10-23, 19:07:52
Ich hatte im verlinkten Post (und hier (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13519179#post13519179)) spekuliert, dass Intel durch größere OoOE-Strukturen die Latenzen besser verstecken kann. Die These ist mittlerweile falsch, da Zen 5 genau dort massiv vergrößert wurde, ohne dass in Spielen nennenswert was bei rum kam.
IMHO wurden die OoOE Register bei ZEN5 gegenüber dem Vorgänger hauptsächlich für FP wesentlich vergrößert, bei INT war die Vergrößerung eher moderat.
Im Interview bei C&C erzählt der ZEN5 Chef was dazu.
Zossel
2024-10-23, 19:11:46
Im übrigen wird das die bei tsmc gefertigt und die können es definitiv ;-).
Edit: aber stimmt packaging ist bei Intel. Denke aber es wäre kein Problem das Cache die bei tsmc zu stacken.
Irgendein AMD-Onkel hat irgendwo mal erzählt das man auch seine internen Design-Prozesse und den EDA-Kram dafür flott machen muss.
Und auch da hat Intel gerade eine ziemlich fette Baustelle.
Zossel
2024-10-23, 19:29:34
Nach Zen5% kriegt man doch irgendwie den Eindruck dass x86 einfach Probleme hat weiter zu skalieren als 4-IPC wide.
Funktioniert eigentlich so ein "perf stat" wie im diesem Post (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13627560)beschrieben auf einem Apple-Hobel unter Linux?
Dann könnte man das ein oder andere mal nachmessen.
SMT stand nicht zur Verfügung - entweder bewusst weggelassen, um das Design leichter zu bekommen oder es war zu kompliziert rechtzeitig mit dem neuen Kern fertig zu stellen. Und 12 P-Kerne wären so groß wie aktuell 8+16 Kerne.
Ich denke eher, man hat SMT und AVX schon deshalb absichtlich weggelassen, damit man die Produkte auch zeitig fertig bekommt.
Der_Korken
2024-10-23, 20:03:13
Ich denke eher, man hat SMT und AVX schon deshalb absichtlich weggelassen, damit man die Produkte auch zeitig fertig bekommt.
Was ja erstmal OK ist. Fehlendes SMT ist im schlimmsten Fall etwas zu wenig MT-Perf/mm². Es müsste aber auch ST-mäßig mal was kommen. Golden Cove ist 3 Jahre alt ...
Zossel
2024-10-23, 20:27:19
Ich denke eher, man hat SMT und AVX schon deshalb absichtlich weggelassen, damit man die Produkte auch zeitig fertig bekommt.
Ach, ist das schönsaufen von fehlenden SMT schon wieder vorbei?
0uTu4XfKUW0
Also ich habe viel gelernt. Definitiv zu viel Info. :biggrin:
MfG
Raff
Tarkin
2024-10-24, 05:56:14
nächstes Review online... alle Gaming Benchmarks allerdings 4k. Sieht trotzdem katastrophal aus.
https://www.coolaler.com/forums/threads/intel-core-ultra-9-285k-vs-14900k-gigabyte-z890-aorus-master-ckd.386911/#post-3463822
Artikel wurde wieder offline genommen
hab ein paar screenshots gemacht (allerdings nur productivity)
Tarkin
2024-10-24, 06:35:33
noch eins
Loeschzwerg
2024-10-24, 06:41:16
Hoffentlich legen die Reviews ein Augenmerk auf den Patch-Level von Win11 24H2, 26100.2152 soll viele Probleme mit ARL beheben. Ähnliches Spiel hatten wir ja auch mit dem ZEN5 Launch, das OS ist einfach noch nicht soweit.
robbitop
2024-10-24, 07:47:11
Eigentlich stimmte das nicht @Zen5. Es brachte relativ zu Zen 4 (und Zen 3!) so gut wie gar nichts. Windows scheint seit Jahren (!) für Zen CPUs Performance liegen zu lassen. Linux brauchte gar keine Patches. Ist IMO auch lächerlich wenn ein OS für eine CPU irgendwelche Updates braucht. Naja außer die CPU ist in bezug auf inhomogenes SMP oder im Bereich SMT in irgendeiner Form neu.
dildo4u
2024-10-24, 07:48:25
Die Raptor Lake sehen deutlich besser aus da sich nicht an 250 Watt halten.
14900k liegt um 37k in CB ohne OC.
Bei 41k für 285k wären das 10%.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/63443-intel-baseline-profile-neue-benchmarks-nach-intels-vorgaben.html
Zossel
2024-10-24, 08:16:13
https://youtu.be/0uTu4XfKUW0
Also ich würde dieses Video schon wegen diesem dämlichen Teaserbild *nicht* anklicken.
Zossel
2024-10-24, 08:21:57
Ist IMO auch lächerlich wenn ein OS für eine CPU irgendwelche Updates braucht. Naja außer die CPU ist in bezug auf inhomogenes SMP oder im Bereich SMT in irgendeiner Form neu.
Bei Apple nennt sich das besondere Optimierung der Software auf die HW und wird dort als besonderes Produktmerkmal abgefeiert.
BTW: Da es ja mittlerweile Linux für die Mx gibt, gibt es Vergleiche MacOs vs. Linux auf gleicher HW für Low-Level Kram?
ChaosTM
2024-10-24, 08:22:30
Ist doch vergleichsweise harmlos und irgendwie sympathisch.
"Waaahsinn, die neuen Z890 Bretter sind da und wir haben sie alle zerlegt !!!!!1111.11!!!"
wäre bedenklich.
reaperrr
2024-10-24, 08:37:22
Selbst wenn ARL durch Microcode-Updates, Windowsupdates usw. bei der reinen IPC noch irgendwie auf 10+% IPC (in Spielen) ggü. RTL käme, ändert das nix an der fundamentalen Problematik:
Die ARL P-Kerne kommen trotz noch breiterem Design, vor allem aber X3D-artiger Gesamt-Cache-Menge je Kern kaum oberhalb Zen5 ohne V-Cache raus.
Also entweder is Intels Fabric sowie Cache-System fundamental Schrott (zumindest hinsichtlich Latenzen), oder die Core-Architektur pfeift einfach vom Aufbau her in Sachen Skalierbarkeit aus dem letzten Loch, und Zen5 ist - normalisiert auf eine identische Cache-Ausstattung - einfach mal 20-30% schneller je MHz.
Ich meine, nach dem bisher gesehenen wäre eine Art Raptor+, mit 4MB statt 3MB L3 je Kern sowie Skymont E-Cores, sowohl von der Performance als auch Perf/mm² besser gewesen.
Sowohl der 192KB Low-Latency L1.5, als auch der nochmal größere L2 bringen scheinbar nix für Spiele, oder sind gar negativ (Latenzen?), also für Desktop reine Transistorverbrennung.
Loeschzwerg
2024-10-24, 08:38:28
Eigentlich stimmte das nicht @Zen5. Es brachte relativ zu Zen 4 (und Zen 3!) so gut wie gar nichts. Windows scheint seit Jahren (!) für Zen CPUs Performance liegen zu lassen.
Ahja stimmt, so war das. Too much input in letzter Zeit ^^ Thx :)
Im Falle von ARL scheint .2152 aber fast Pflicht zu sein, zumindest nach aktuellen Stand via Twitter-Meldungen.
dildo4u
2024-10-24, 08:39:29
Intel könne mit höherem Takt geplant haben was wegen der Ratpor Lake Debakel zurück gefahren wurde.
Kriegsgeier
2024-10-24, 08:43:24
Zusätzlich kommt noch hinzu, dass der neue Sockel wahrscheinlich nur für diese Generation reichen wird. Also ist das Angebot 285k + Neuer Sockel doch ziemlich bescheiden, oder?
robbitop
2024-10-24, 08:50:39
Die ARL P-Kerne kommen trotz noch breiterem Design, vor allem aber X3D-artiger Gesamt-Cache-Menge je Kern kaum oberhalb Zen5 ohne V-Cache raus.
Ja wobei du selbst weißt, dass man das so nicht rechnen kann. ^^
Allerdings passt das statement von dem Intel ENG im letzten MLID Podcast, dass Adamantine Cache nur single digit improvements gebracht hat hier auch irgendwie. Andererseits leidet Meteorlake schon etwas an der höheren Memorylatency.
Aber wie immer ist nichts davon schwarz oder weiß sondern irgendwo in dessen Grauspektrum. :)
Zusätzlich kommt noch hinzu, dass der neue Sockel wahrscheinlich nur für diese Generation reichen wird. Also ist das Angebot 285k + Neuer Sockel doch ziemlich bescheiden, oder?
Wirklich? Sonst sind es doch immer 2 Generationen pro Sockel? Das wäre ein neues Low selbst für Intel Standards.
Kriegsgeier
2024-10-24, 08:52:55
sage ich doch: AMD kann locker den Preis für 9800X3D auf 700-800€ anheben --> DANKE INTEL!
fondness
2024-10-24, 09:10:18
Eigentlich stimmte das nicht @Zen5. Es brachte relativ zu Zen 4 (und Zen 3!) so gut wie gar nichts. Windows scheint seit Jahren (!) für Zen CPUs Performance liegen zu lassen. Linux brauchte gar keine Patches. Ist IMO auch lächerlich wenn ein OS für eine CPU irgendwelche Updates braucht. Naja außer die CPU ist in bezug auf inhomogenes SMP oder im Bereich SMT in irgendeiner Form neu.
Natürlich braucht auch Linux sw Unterstützung. Der Unterschied ist Linux ist open source und AMD schreibt sich dafür fast alles relevante selbst und eröffnet rechtzeitig einen merge request. Bei Windows muss man Microsoft bei manchen Dingen bitten es richtig zu machen. Und das scheint nicht gut zu funktionieren.
Die Leistungssteigerungen die man unter Linux mit Zen 5 misst, sind btw unter Windows noch immer unerreicht. Warum auch immer.
robbitop
2024-10-24, 09:17:51
Müsste man mal eine 1-2 jahre alte Distro messen, ob die da deutlich langsamer @Zen5 in Gaming ist. Für mich sah es aus als bräuchte es keine Anpassung. Wäre erstmal zu beweisen ob es da wirklich eine Zen 5 spezifische Anpassung (die in Bezug auf Performance bedeutungsvoll ist) gab bei Linux.
Weiterhin sei gesagt, dass auch in Linux das Delta zwischen Zen 5 und seinen Vorgängern nicht wirklich höher ist. (was auch nicht für Zen 5 spezifische Optimierungen spricht) Linux war im Schnitt mit Zen 3-5 schneller. Ähnlich zu den neuen Windowsupdates. Aber ganz an Linux kommen die Windows Patches nicht ran.
mczak
2024-10-24, 09:29:02
Benutzen eigentlich alle Arrow Lake-S Chips dasselbe Compute Die? Ist doch irgendwie auffällig dass da bei den 2 E-Clustern + 2 P-Kernen die in den Die Shots zuunterst sind daneben bloss ein Filler-Die ist. Man könnte also problemlos ein natives 6P+8E Die nutzen (einfach mit kleinerem Base-Die und ohne das zusätzliche Filler-Die), ein solches Compute-Die würde dann bloss etwa 2/3 so gross sein wie das 8P+16E Compute-Die.
Früher hat intel ja separate Dies für alle SKUs benutzt immer in Schritten von 2 P-Kernen (also Dies für 2,4,6,8 Kerne), aber seit den Hybrid-Designs (Alder Lake) habe ich da den Ueberblick verloren...
Kriegsgeier
2024-10-24, 09:30:28
Also, langsam aber sicher kriege ich Angst:
Hotspots gibts morgen :)
Der ILS ist deutlich entspannter, das Bending ist auch weg. Muss ja, sonst crackt das Package. :D
Trotzdem wird das Morgen ein komplett neues Launcherlebnis, Ich bin mir sicher, noch nie zuvor haben die Kollegen im Vorfeld untereinander so viel kommuniziert ;)
https://www.igorslab.de/community/threads/detaillierte-die-shots-des-intel-core-ultra-9-285k-3nm-arrow-lake-trifft-auf-10nm-raptor-lake.10397/#post-284896
dildo4u
2024-10-24, 09:33:33
Warum braucht Arrow Lake Patches ist Lunar Lake nicht vergleichbar?
fondness
2024-10-24, 09:54:30
Müsste man mal eine 1-2 jahre alte Distro messen, ob die da deutlich langsamer @Zen5 in Gaming ist. Für mich sah es aus als bräuchte es keine Anpassung. Wäre erstmal zu beweisen ob es da wirklich eine Zen 5 spezifische Anpassung (die in Bezug auf Performance bedeutungsvoll ist) gab bei Linux.
Weiterhin sei gesagt, dass auch in Linux das Delta zwischen Zen 5 und seinen Vorgängern nicht wirklich höher ist. (was auch nicht für Zen 5 spezifische Optimierungen spricht) Linux war im Schnitt mit Zen 3-5 schneller. Ähnlich zu den neuen Windowsupdates. Aber ganz an Linux kommen die Windows Patches nicht ran.
Das bezog sich jetzt nicht auf Zen 5 spezifische Optimierungen sondern allgemein. Da sich bei Zen5 von Aufbau nichts geändert hat ggü dem Vorgänger denke ich auch nicht, dass es da besonderer Anpassungen bedurfte.
Dem zweiten Absatz kann ich allerdings nicht zustimmen. Unter Linux Anwendungsbench von Phoronix waren es fast 18% IPC Gewinn über eine breite Palette an Tests, das konnte man so unter Windows nirgendwo finden, außer Single threaded. Sobald es Multithreaded wird, bricht die Windows Performance ein. Siehe zB:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13596554&postcount=474
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13596879&postcount=520
Irgendwas stimmt da jedenfalls noch nicht mit dem Schedular IMO. Aber gut, das ist hier OT.
Hübie
2024-10-24, 10:10:14
Also, langsam aber sicher kriege ich Angst:
https://www.igorslab.de/community/threads/detaillierte-die-shots-des-intel-core-ultra-9-285k-3nm-arrow-lake-trifft-auf-10nm-raptor-lake.10397/#post-284896
MLID berichtet über Instabilität und recht schwacher Multi-Core-Performance, aber besserer Effizienz als Zen5.
V_UHVWcfeTg
Also prickelnd wird es wohl nicht. Das wird die Aktie sicher weiter Schwächen.
robbitop
2024-10-24, 10:12:18
Dem zweiten Absatz kann ich allerdings nicht zustimmen. Unter Linux Anwendungsbench von Phoronix waren es fast 18% IPC Gewinn über eine breite Palette an Tests, das konnte man so unter Windows nirgendwo finden, außer Single threaded.
Ich hab mich ja auf Gaming bezogen - nicht auf Anwendungen. Und da ist auch in Linux der Vorsprung zu Zen 4 nicht bedeutungsvoll größer als in Windows.
Dass es da in Windows noch Verbesserungspotenzial (unspezifisch zu Zen 5) gibt -> ohne Frage.
fondness
2024-10-24, 10:15:20
Ich hab mich ja auf Gaming bezogen - nicht auf Anwendungen. Und da ist auch in Linux der Vorsprung zu Zen 4 nicht bedeutungsvoll größer als in Windows.
Hast du dazu brauchbare Tests?
Dass es da in Windows noch Verbesserungspotenzial (unspezifisch zu Zen 5) gibt -> ohne Frage.
Der seltsame MT-Einbruch unter Windows ist klar Zen5 spezifisch.
Hübie
2024-10-24, 10:16:17
Hab das Video mal oben verlinkt. Ich frage mich, wie die 9000er X3D-Serie die 7000er bedeutend übertreffen soll, um Preise jenseits der 500 Euro für die Midrange Klasse zu rechtfertigen. Sprich 7800X3D zu 9800X3D..?
fondness
2024-10-24, 10:17:55
Hab das Video mal oben verlinkt. Ich frage mich, wie die 9000er X3D-Serie die 7000er bedeutend übertreffen soll, um Preise jenseits der 500 Euro für die Midrange Klasse zu rechtfertigen. Sprich 7800X3D zu 9800X3D..?
10% mehr Takt und je nach Benches 4-11% mehr IPC reichen allemal für >=15% Performance. Das ist kein riesen Sprung, aber angesichts dessen, dass Intel nichts liefert mehr als ausreichend. Zumal ja schon der 7800X3D teurer geworden ist.
MLID berichtet über Instabilität und recht schwacher Multi-Core-Performance, aber besserer Effizienz als Zen5.
Nicht alles glauben, was dieser Mensch zusammenfabuliert. :)
MfG
Raff
robbitop
2024-10-24, 10:22:14
Hast du dazu brauchbare Tests?
Wendell von L1Techs hat dazu eines gemacht.
https://youtu.be/vKHF6sHHPA0?si=48i52yM9YkSq7aWZ&t=966
Ohne komische outliers sind es 9,2% (Nobera 40) vs 6,8% (Windows 11 24H2) 9700x vs 7700x.
OK nicht ganz keinen Unterschied - aber 2,4% Unterschied fällt für mich (abseits akademischer Diskussionen) in diese Kategorie. ^^
fondness
2024-10-24, 10:27:02
Wendell von L1Techs hat dazu eines gemacht.
https://youtu.be/vKHF6sHHPA0?si=48i52yM9YkSq7aWZ&t=966
Ohne komische outliers sind es 9,2% (Nobera 40) vs 6,8% (Windows 11 24H2) 9700x vs 7700x.
OK nicht ganz keinen Unterschied - aber 2,4% Unterschied fällt für mich (abseits akademischer Diskussionen) in diese Kategorie. ^^
Thx. Klar tun sich da keine Welten auf, aber es zeigt einfach, dass da irgendwas Zen 5 spezifisch seltsam ist unter Windows Multi threaded.
Exxtreme
2024-10-24, 10:29:08
Thx. Klar tun sich da keine Welten auf, aber es zeigt einfach, dass da irgendwas Zen 5 spezifisch seltsam ist unter Windows Multi threaded.
Zen 4 ist auch schneller unter Linux. Deshalb würde ich das eher auf die Inkompetenz der Micros~1-Entwickler schieben. Vor allem dann wenn Arrow Lake ebenfalls davon betroffen ist. Hier dürfte dann Hanlons Rasiermesser gewinnen.
Hübie
2024-10-24, 10:29:12
Nicht alles glauben, was dieser Mensch zusammenfabuliert. :)
MfG
Raff
Na von den drei Punkten die ich genannt habe, kommt sicher einer nicht (ganz) hin. ;-) Aber Launch wird die Aktie sicher beeinflussen. Entscheidend ist der Tenor, der dann durch die Newsrooms fliegt, ist.
fondness
2024-10-24, 10:33:27
Zen 4 ist auch schneller unter Linux. Deshalb würde ich das eher auf die Inkompetenz der Micros~1-Entwickler schieben. Vor allem dann wenn Arrow Lake ebenfalls davon betroffen ist. Hier dürfte dann Hanlons Rasiermesser gewinnen.
Wie gesagt, der Vergleich ist stets vs Zen4, deshalb ergibt die Aussage keinen Sinn. Aber ja klar liegt es an den MS-Entwicklern. :D
maximus_hertus
2024-10-24, 11:03:40
Nicht alles glauben, was dieser Mensch zusammenfabuliert. :)
MfG
Raff
Bzw. ich würde es eher so sehen, dass er schlicht (ob mit Absicht oder nicht) einige Dinge falsch interpretiert.
Mich würde es nciht wundern, wenn es bei komplett neuer Hardware es hier und da Probleme mit einem Anti-Cheat-System oder ähniches gibt. Und sei es nur mit einer bestimmten Kombination aus Hard und Software.
Ergo denke ich schon, dass es ggf. bei dem ein oder anderen ggf. einige BSODs gab, aber nicht, dass es ein generelles Problem gibt.
In diesem Video ist es nur Clickbait und in 1-2 Wochen heißt es dann, dass die Abstürze nur wegen alter Treiber / OS / was auch immer lagen, ergo sie waren da und MLID hat die "Wahrheit" gesagt.
Wie geschrieben, bei MLID muss man zwiscxhen die Zeilen lesen bzw. nicht so viel auf siene Interpretationen geben.
4 Stunden noch, die bekommen wir auch noch rum ;)
sage ich doch: AMD kann locker den Preis für 9800X3D auf 700-800€ anheben --> DANKE INTEL!
Nein. Selbst bei einem Monopol kann man nicht einfach die Preise verdoppeln. AMD wird versuchen einen PReis zu wählen, der optimal ist, um den maximalen Gewinn einzufahren. Da gehört Gewinn pro verkaufter CPU dazu, aber auch die Stückzahl. Bei 800 Euro wird sich die Stückzahl deutlich reduzieren, wahrscheinlich so sehr, dass es sich nicht lohnt.
Ich hatte es schon mal geschrieben, es wird wie bisher bei den X3Ds laufen: 399 bis 449 USD für den 8C. Macht dann 439 - 489 Euro bei uns.
Der 9700X liegt nun bei 329 USD (mit dem neuen Rabatt von AMD). Der Cache wird im Bereich 100 USD Aufpreis kosten, ergo wie geschrieben sollte der X3D dann bei rund 400-450 USD landen.
Man wird wohl versuchen, den 9950X3D so hinzubekommen, dass dieser IMMER die schnellste Gaming CPU ist bzw. es keinen 2 CCX Nachteil mehr gibt (bzw. der 9800X3D nicht vor dem 9950X3D raus kommt). Für den könnte man dann ggf. etwas mehr als evtl. gedacht "verlangen". Z.B. 799 USD. Mehr aber wohl nicht.
Der_Korken
2024-10-24, 11:05:36
4 Stunden noch, die bekommen wir auch noch rum ;)
In 4 Stunden geht es doch gerade erst los mit den Diskussionen und Spekulationen :D
Matrix316
2024-10-24, 11:49:46
[...]
Ich hatte es schon mal geschrieben, es wird wie bisher bei den X3Ds laufen: 399 bis 449 USD für den 8C. Macht dann 439 - 489 Euro bei uns.
Der 9700X liegt nun bei 329 USD (mit dem neuen Rabatt von AMD). Der Cache wird im Bereich 100 USD Aufpreis kosten, ergo wie geschrieben sollte der X3D dann bei rund 400-450 USD landen.
[...]
Das ist die Frage. 449 oder so war doch der Release Preis vom 7800X3D, oder? Den hat man quasi wieder erreicht und jetzt kann AMD noch etwas drauflegen. Ich tippe fast 549~599$ für den 9800X3D und 699 ~ 799$ für den 9950X3D.
Zumindest wenn der Core Ultra 9 285K schon weit über 600 Euro kosten soll.
dildo4u
2024-10-24, 11:53:47
AMD hat 7800X3D für 330€ im Sommer verkauft 500€ sind absurde Margen für 9800X3D.
AMD sollte sich darauf konzentrierten endlich Leute zum AM5 Update zu bewegen damit sie später eine zusätzliche CPU verkaufen.
Exxtreme
2024-10-24, 11:59:17
AMD hat 7800X3D für 330€ im Sommer verkauft 500€ sind absurde Margen für 9800X3D.
AMD sollte sich darauf konzentrierten endlich Leute zum AM5 Update zu bewegen damit sie später eine zusätzliche CPU verkaufen.
Wenn man die Einkaufspreise nicht kennt dann weiss man nicht ob AMD die Preise erhöht hat oder die Händler alle Hände aufhalten.
Kriegsgeier
2024-10-24, 12:03:35
bald werden wir von 500€ für 9800X3D nur träumen!
Wenn AMD die Preise nicht anhebt so wird es der Sekundärmarkt automatisch machen. Angebot und NACHFRAGE werden dazu führen, dass diese CPU eher bei 700€ landet...
dildo4u
2024-10-24, 12:08:45
Sehe ich nicht so man konnte die Performance 2 Jahre kaufen der 9800X3D ist keine neue Stufe.
Das der 7800x3D kurz knapp wurde lag imo an der Kombination aus den Raptor Lake Debakel und der Nachricht das Arrow Lake nix taugt.
Zum Glück kommt die 5090 erst 2025 daher erwarte ich erstmal keine 500€ + für 9800X3D.
Kriegsgeier
2024-10-24, 12:11:20
was einer erwartet ist eine Sache, aber was die NACHFRAGE nach 9800X3D mit den Straßenpreisen anstellt ist eine Andere.
Ökonomisches Prinzip wird hier voll durchschlagen. Plus: die Platform AM5 ist WESENTLICH attraktiver als die neue von Intel :(
--> DANKE INTEL NOCH EIN MAL
dildo4u
2024-10-24, 12:14:24
Man kann aktuell nicht mal eine 4090 für vernünftigen Preise kaufen wo die CPU wirklich vorrausetzung ist.
Gäbe es welche für 1.5K würde ich dir klar zustimmen.
fondness
2024-10-24, 12:20:02
Sehe ich nicht so man konnte die Performance 2 Jahre kaufen der 9800X3D ist keine neue Stufe.
Das der 7800x3D kurz knapp wurde lag imo an der Kombination aus den Raptor Lake Debakel und der Nachricht das Arrow Lake nix taugt.
Zum Glück kommt die 5090 erst 2025 daher erwarte ich erstmal keine 500€ + für 9800X3D.
Seh ich auch so, für die 8% mehr Gaming und 15% mehr Anwendungsperformance kann man kein Vermögen verlangen. Deshalb hat AMD ja auch den Preis des 7800X3D angehoben, der durch den Windows-Patch natürlich nochmal attraktiver wurde. Der 7800X3D dürfte sich bei 439 EUR einpendeln, der 9800X3D liegt vielleicht 100 EUR darüber.
Kriegsgeier
2024-10-24, 12:20:53
insgeheim müssen ALLE potentiellen RTX 5090 Käufer auf den Preis um 2500€ hoffen - ist die Voraussetzung, dass man überhaupt eine abbekommt.
Für 1999€ würde ich direkt 3 kaufen - meine ich im Ernst!
Prinzenrolle
2024-10-24, 12:42:15
AMD hat 7800X3D für 330€ im Sommer verkauft 500€ sind absurde Margen für 9800X3D.
Da wird es Zeit sich ein Meme für Su zu überlegen.
Die Lederjacke ist besetzt. Irgendetwas Frauenfeindliches? Natürlich um den Feminismus indirekt zu stärken.
Matrix316
2024-10-24, 12:44:43
Sehe ich nicht so man konnte die Performance 2 Jahre kaufen der 9800X3D ist keine neue Stufe.
Das der 7800x3D kurz knapp wurde lag imo an der Kombination aus den Raptor Lake Debakel und der Nachricht das Arrow Lake nix taugt.
Zum Glück kommt die 5090 erst 2025 daher erwarte ich erstmal keine 500€ + für 9800X3D.
Was ich nicht verstehe, wie eine CPU knapp werden kann - ich sie aber trotzdem überall kaufen kann. Nur für 100 Euro mehr... :freak:
Knapp hieße für mich, sie ist nie lieferbar außer wenn der Mond und Jupiter im gleichen Aszendenten steht. Wie damals mit der PS5. ;)
Aber den 7800X3D kann man doch überall noch kaufen. Nur für zu viel Geld.
Nur wenn die den Preis bei 330 Euro gehalten hätten, sähen 550 Euro oder so für den 9800X3D schlechter aus, als wenn man jetzt mit den aktuellen 450 Euro vergleicht...
dildo4u
2024-10-24, 12:49:18
Das es eine Lücke bei der Versorgung gibt ist doch normal laut AMD nutzt Zen5 den gleichen 2 Gen Cache wie Zen4X3D.
Wenn AMD ein dicken Launch will müssen 3D Chips für 9800X3D zurück gehalten werden.
Kriegsgeier
2024-10-24, 12:50:34
genau das ist doch das GUTE an gestiegenen Preisen: diese erlauben es, dass die Ware überhaupt zu kaufen gibt! Marktwirtschaft und so.
Folgendes wird mit 9800X3D passieren:
in den ersten 1-2 Wochen --> ca. 500€
Danach 1-2 Wochen nicht lieferbar
und in 3-4 Wochen --> 650-700€ aber dafür überall zu kaufen
davidzo
2024-10-24, 12:53:34
Eigentlich stimmte das nicht @Zen5. Es brachte relativ zu Zen 4 (und Zen 3!) so gut wie gar nichts. Windows scheint seit Jahren (!) für Zen CPUs Performance liegen zu lassen. Linux brauchte gar keine Patches. Ist IMO auch lächerlich wenn ein OS für eine CPU irgendwelche Updates braucht. Naja außer die CPU ist in bezug auf inhomogenes SMP oder im Bereich SMT in irgendeiner Form neu.
Linux wurde auch aus einem einzigen Zweck erfunden, nämlich um die hardware features des neuen 386er zu nutzen die in DOS, Minix, BSD etc. brach lagen: IA task switching, linear adressing, supervisor mode, paged virtual memory, etc. Volle POSIX kompatibilität war erstmal weniger wichtig als gute Perfomance auf der allerneuesten Hardware.
Es ging in der Kernelentwicklung schon immer darum wie Hardwarenerds die neuesten features der hardware nutzbar machen können.
Als Zen heraus kam hatte man im Linux kernel mehrere Jahrzehnte Erfahrung mit SMT und Systemen mit mehreren NUMA Nodes. Natürlich hatte man sich mit den implikationen beschäftigt wenn Tasks über Sockel und memory controller verschoben werden und das scheduling darauf optimiert. Bei ungleichen Core-typen und Turbomode war man etwas spät dran, da man das als ineffizienten Consumer-trend abgetan hat, aber das hat man schnell aufgeholt.
Welche Betriebssystem Libraries machen den meisten gebrauch von Vektorerweiterungen wie AVX512, AMX, BFLOAT16 und Co?
Manchmal fragt man sich schon was Windows Kernelentwickler, speziell jene die den Scheduler maintainen so beruflich machen.
Man können doch nicht überrascht sein wenn eine neue CPUArchitektur kommt und nicht gut läuft wenn sich solche Hardwareänderungen schon Jahre vorher angekündigt haben?
Matrix316
2024-10-24, 13:02:41
genau das ist doch das GUTE an gestiegenen Preisen: diese erlauben es, dass die Ware überhaupt zu kaufen gibt! Marktwirtschaft und so.
Folgendes wird mit 9800X3D passieren:
in den ersten 1-2 Wochen --> ca. 500€
Danach 1-2 Wochen nicht lieferbar
und in 3-4 Wochen --> 650-700€ aber dafür überall zu kaufen
So schlmm wird es nicht werden glaube ich, weil dann müsste der 9950X3D ja fast 1000 Euro kosten.
Allerdings glaube ich wird der Einstiegspreis eher bei 599 liegen.
Vor allem wenn der Arrow Lake 285 dann auch so viel kostet. Immerhin wird man den wohl immer kaufen können. ;)
dildo4u
2024-10-24, 13:06:34
genau das ist doch das GUTE an gestiegenen Preisen: diese erlauben es, dass die Ware überhaupt zu kaufen gibt! Marktwirtschaft und so.
Folgendes wird mit 9800X3D passieren:
in den ersten 1-2 Wochen --> ca. 500€
Danach 1-2 Wochen nicht lieferbar
und in 3-4 Wochen --> 650-700€ aber dafür überall zu kaufen
Deine Post sind echt lustig mit einer 3090 im Rechner einfach mal selbst reflektieren.
AMD lässt sich ihre Hardware angemessen bezahlen und ist immer noch billiger als Intel Ultra 9 den niemand kauft.
maximus_hertus
2024-10-24, 13:10:28
Der 7800X3D dürfte sich bei 439 EUR einpendeln, der 9800X3D liegt vielleicht 100 EUR darüber.
Sofern es den 7800X3D noch länger geben soll, würde ich schätzen, dass dieser sich bei 399 Euro einpendelt und der 9800X3D dann bei 489-499 Euro startet.
499 - 9800X3D (449 USD)
399 - 7800X3D (349-359 USD)
299(-309) - 7600X3D (279-299 USD)
Aber wir sind hier nicht im AMD Thread ;)
Und @Kriegsgeier
Man könnte meinen, die Welt geht unter. Die GPU KRise 2020/2021 - das war mies. Der Launch vom 98ß0X3D dürfte dagegen ziemlich entspannt sein.
Das es eine Lücke bei der Versorgung gibt ist doch normal laut AMD nutzt Zen5 den gleichen 2 Gen Cache wie Zen4X3D.
Wenn AMD ein dicken Launch will müssen 3D Chips für 9800X3D zurück gehalten werden.
Hör auf diesen Schwachsinn zu verbreiten, die PCGH da in die Welt gesetzt hat.
Zen3 und Zen4 -> gleiche TSV-Verteilung -> gleiches Cache Die
Zen5 -> neue TSV-Verteilung -> neues Cache Die
Ist das so schwer zu verstehen?
Lehdro
2024-10-24, 14:07:05
Hör auf diesen Schwachsinn zu verbreiten, die PCGH da in die Welt gesetzt hat.
Die Aussage dass Zen 3 und Zen 4 3D V-Cache Die unterschiedlich sind kommt von AMD selbst. Nur mal so...
Zen3 und Zen4 -> gleiche TSV-Verteilung -> gleiches Cache Die
Zen5 -> neue TSV-Verteilung -> neues Cache Die
Bullshit, erneut (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13636003&postcount=4297).
We received new information on the second-gen implementation both direct from AMD and from the 2023 International Solid-State Circuits Conference (ISSCC), where AMD made a presentation on the Zen 4 architecture.
AMD’s previous-gen 3D V-Cache used a 7nm L3 SRAM chiplet stacked atop a 7nm Zen 3 CCD. AMD stuck with the 7nm process for the new L3 SRAM chiplet (called 'L3D') but now stacks it on top of a smaller 5nm Zen 4 CCD (see the table below). This creates a size mismatch, though, which required a few alterations.
First, AMD made the 7nm SRAM die smaller, so it now measures 36mm2 compared to the previous-gen's 41mm2. However, the total number of transistors remains the same at ~4.7 billion, so the new die is significantly denser than the first-gen chiplet.
[...]
The signal TSVs remain inside the L3 cache area on the base die, but AMD shrunk the TSV area in the L3 cache by 50% by applying learnings from the first-gen design along with DTCO improvements to reduce overhead circuitry in the new interface design.
Quelle (https://www.tomshardware.com/news/amd-shares-new-second-gen-3d-v-cache-chiplet-details-up-to-25-tbs)
Ist das so schwer zu verstehen?
Ja, weil es offensichtlich Quatsch ohne Soße ist.
Die Aussage dass Zen 3 und Zen 4 3D V-Cache Die unterschiedlich sind kommt von AMD selbst. Nur mal so...
Bullshit, erneut (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13636003&postcount=4297).
Quelle (https://www.tomshardware.com/news/amd-shares-new-second-gen-3d-v-cache-chiplet-details-up-to-25-tbs)
Ja, weil es offensichtlich Quatsch ohne Soße ist.
Na gut, überzeugt. Also 3. Generation bei Zen5, die TSVs sind ja wieder anders, wie auf den Die-Bildern offenbar wurde und daher wieder ein neues Cache-Chiplet her musste.
Kriegsgeier
2024-10-24, 14:25:40
endlich, noch ca. 35 Min. und wir wissen wesentlich mehr!
Komisch, nichts im Netz. Vielleicht erst am 25.10? Und nicht heute?
ecodriver
2024-10-24, 15:14:04
endlich, noch ca. 35 Min. und wir wissen wesentlich mehr!
Komisch, nichts im Netz. Vielleicht erst am 25.10? Und nicht heute?
Evtl. erst um 18 (9) Uhr?
Oder doch erst zur CES ;D
Kriegsgeier
2024-10-24, 15:16:09
was sagt unser Raff?
Ph0b0ss
2024-10-24, 15:20:22
Wohl 17:00 Uhr:
https://videocardz.com/188838/intel-core-ultra-9-285k-ultra-7-265k-and-ultra-5-245k-review-roundup
soLofox
2024-10-24, 15:20:25
Paperl...Ghostlaunch
dreas
2024-10-24, 15:21:45
EherChaoslaunch
The_Invisible
2024-10-24, 15:22:59
Finds immer so "cool" wenn die ganzen Hardwareseiten im Konjunktiv über die Hardware News schreiben aber schon längst die Hardware durchgetestet haben. Naja nicht mehr lange :D
Zossel
2024-10-24, 17:03:48
Der Soundtrack zum Launch :-)
https://www.youtube.com/watch?v=vJrguVxULUw
Tarkin
2024-10-24, 19:35:37
der Abstand ist später doch beträchtlich geschrumpft... waren drei Jahre später "nur" noch 20% Unterschied
https://www.computerbase.de/2014-09/amd-fx-8370e-im-test/2/#abschnitt_spiele_niedrige_aufloesung
Aber unter der Annahme, dass ARL 285K 95% Gaming Leistung eines 14900K hat, der 7800X3d 10% drüber ist (110% laut aktuellem CB Test) und der 9800X3D vl. nochmal 10% drauf legen kann (also bei 121% vom 14900K landet - und das schaut schon min. nach +10% aus wenn ich mir die Final Fantasy Benchmarks im Anandtech Forum so ansehe, wo ein getunter 9800X3d locker über 60k errreicht und sehr gut getunte 7800X3Ds bei knapp über 50K landen) ...
ergibt einen Abstand von +27-28% zum 285K ;)
told you LOL. Da braucht der 9800X3d ned mal 10% schneller wie der 7800X3d sein... es reichen weniger als 10% (laut aktuellen Gerüchten werden es 8%)
Abstand (ohne RAM OC) 285K zum 7800X3d laut CB und HWUB: ca 19-20%
Mit einem Plus von 8% zusätzlich auf Zen 4 X3D werden es dann 28,5%
Durchschnitts FPS 7800X3D: 138 >> +8% = 149
Ergibt zu den 116fps vom 285K ein Plus von 28,44%
"Bulldozeresker" Abstand würde ich sagen.
Das muss man sich mal auf der Zunge zergehen lassen - und Intel nutzt sogar einen moderneren Fertigungsnode!
Die haben WIRKLICH ziemlich Shice gebaut. Das Ding ist overengineered bis zum Gehtnichtmehr, irre komplex und sauteuer in der Produktion - Wahnsinn. Und man schafft es nicht mit dem ganzen Foveros/Emib Zirkus, gegen Technik aus dem Jahre 2019 anzustinken (Zen 2 Packaging Technik). Peinlich ist kein Ausdruck.
mczak
2024-10-24, 21:03:19
Das Ding ist overengineered bis zum Gehtnichtmehr, irre komplex und sauteuer in der Produktion - Wahnsinn.
Naja also im Prinzip ist das Teil nicht wirklich viel komplexer als ein Zen 5. Man verbaut 115mm² im Compute Tile, bei AMD sind das entsprechend 2x70mm², das ist (prozessbereinigt) ähnlich viel (beide insgesamt auch mit ähnlichem SRAM Anteil, AMD mit mehr L3, intel mit mehr L2). AMD dazu mit 120mm² I/O Die (N6), intel ingesamt mit 110mm² N6 dies (i/o + soc). Dazu kommt bei intel noch das Graphic Tile - hätte man bloss eine Minimallösung wie bei AMD verbaut hätte man die GPU wohl auch in etwa 20mm² im SoC-Die untergebracht (und hätte da also insgesamt bloss wenig mehr Fläche).
Wirklich komplex im Vergleich zu AMD ist also bloss das Packaging. Keine Ahnung was das kostet aber ich schätze mal mittelfristig wird AMD auch sowas Aehnliches verwenden.
rentex
2024-10-24, 21:06:06
Intel halt fertig...wann holt sich Broadcom endlich die Pommesbude?
robbitop
2024-10-24, 21:19:20
Qualcomm meinst du?
ChaosTM
2024-10-24, 21:35:36
Immerhin waren die Gerüchte bezüglich Instabilitäten von MLID bullshit übertrieben.
Als Arbeitspferd kann man die Dinger schon nehmen und bei einem gelegentlichen Spielchen wird man den Unterschied auch nicht wirklich merken.
Das gilt speziell für die Leute, die nichts von AMD im Rechner haben wollen....
Exxtreme
2024-10-24, 21:45:52
Immerhin waren die Gerüchte bezüglich Instabilitäten von MLID bullshit.
Bei der PCGH gab es sehr wohl große Schwierigkeiten:
https://extreme.pcgameshardware.de/threads/intel-arrow-lake-im-test-core-ultra-9-285k-core-ultra-7-265k-und-core-5-245k-geben-sich-die-ehre.654636/page-2#post-11721898
Hübie
2024-10-24, 21:47:23
Da musst du aber schon ein Haaaaardcore Intel-Fänboi sein um das durchzuziehen. X-D
Weltraumeule
2024-10-25, 00:03:43
Troyan und Keksgeier werden es kaufen :rolleyes:
Sardaukar.nsn
2024-10-25, 06:09:55
Bei der PCGH gab es sehr wohl große Schwierigkeiten:
https://extreme.pcgameshardware.de/threads/intel-arrow-lake-im-test-core-ultra-9-285k-core-ultra-7-265k-und-core-5-245k-geben-sich-die-ehre.654636/page-2#post-11721898
Bei KitGuru ebenfalls viele Probleme mit Windows, Beta Bios von MSI, Beta Treibern usw. Ich denke das wird alles noch ein paar Wochen dauern bis es rund läuft. Vielleicht zum Januar und dem Launch der 5090. :wink:
6QoCCFXD0xc
ChaosTM
2024-10-25, 06:35:44
Ok, dann ist es wirklich ein (vorläufiger?) Fuster Cluck.
Hab die Reviews nur überflogen. Sind einfach zu viele und mir viel sonst keine clickbaitige Überschrift wie die über mir auf, die darauf schließen ließ.
Naja, neue Architektur darf am Anfang schon a bissl herumzicken.
+
und 24H2 ist auch noch so eine Sache..
Zossel
2024-10-25, 06:54:46
Bei der PCGH gab es sehr wohl große Schwierigkeiten:
https://extreme.pcgameshardware.de/threads/intel-arrow-lake-im-test-core-ultra-9-285k-core-ultra-7-265k-und-core-5-245k-geben-sich-die-ehre.654636/page-2#post-11721898
Hatten wir lange Zeit drin. Leider ist der Launcher von MS für den FS dermaßen langsam, wenn es um die Neu-Installation geht (>5 Stunden!), dass ich aus Zeitgründen diesen Benchmark nicht mehr nutzen kann/will.
Was, um Himmels willen, treibt diese Software da?
Zossel
2024-10-25, 06:59:12
Bei KitGuru ebenfalls viele Probleme mit Windows, Beta Bios von MSI, Beta Treibern usw. Ich denke das wird alles noch ein paar Wochen dauern bis es rund läuft. Vielleicht zum Januar und dem Launch der 5090. :wink:
AMD bekommt zu mindestens von den ganzen Spielern und Youtube-Onkels einen Teil der Validierung seiner Server-Dies geschenkt.
Exxtreme
2024-10-25, 10:01:55
Bei KitGuru ebenfalls viele Probleme mit Windows, Beta Bios von MSI, Beta Treibern usw. Ich denke das wird alles noch ein paar Wochen dauern bis es rund läuft. Vielleicht zum Januar und dem Launch der 5090. :wink:
https://youtu.be/6QoCCFXD0xc
Also ich glaube schon, dass da noch was geht mit Thread Redirector oder besseren WinDOS-Kernel oder Microcode. Wenn man sich die Linux-Ergebnisse so anschaut, da scheint schon ordentlich Power dahinter zu stecken, grad so Sachen wie Code Kompilierung oder auch 7-zip etc.
Zossel
2024-10-25, 10:36:41
Also ich glaube schon, dass da noch was geht mit Thread Redirector oder besseren WinDOS-Kernel oder Microcode. Wenn man sich die Linux-Ergebnisse so anschaut, da scheint schon ordentlich Power dahinter zu stecken, grad so Sachen wie Code Kompilierung oder auch 7-zip etc.
Das dürfte die Anzahl der E-Kerne sein, AMD könnte da relativ schmerzfrei mit Zenxc Dies nachkleben können.
Ist aber trotzdem schon ziemlich albern von Intel das das Zeug nur leicht vor den AMD Teilen beim compilieren raus kommt.
RoughNeck
2024-10-25, 12:08:58
Ich denke Microsoft wird auch für Arrow Lake Anpassungen bringen.
Leistung ist ja vorhanden, nur kommt die manchmal nicht an. Allerdings sind die Preise drüber, egal ob jetzt CPU oder bei den Mainboards, speziell Asus sticht hier wieder negativ hervor mit deren absurden Preisen.
Gipsel
2024-10-25, 14:12:29
Das dürfte die Anzahl der E-Kerne sein, AMD könnte da relativ schmerzfrei mit Zenxc Dies nachkleben können.Theoretisch müßte AMD nur ein neues PCB entwerfen für ihre 8C+16c-Version einer AM5-CPU mit einem Zen5-CCD und einem Zen5c-CCD. Der Rest existiert ja schon. IO-Die ist kompatibel, Zen5-CCDs existieren und die Zen5c-CCDs gibt es auch schon für die Epycs. Und Zen5c auf 3,7GHz (so laufen die in den Servern, im Desktop könnte man denen wohl sogar noch etwas mehr Takt spendieren) sollte dank SMT in MT-Aufgaben verdammt konkurrenzfähig sein (und AVX512 können die ja auch).
Ich vermute aber mal, daß AMD die 3nm Zen5c-Dies lieber in Epycs verkauft (höhere Marge) und der Markt im Desktop nicht so groß wäre, um die Entwicklung zu rechtfertigen.
MSABK
2024-10-25, 14:37:00
Was kommt den bei Intel nach TSMC 3NM beim Arrow Lake? Man konnte bei der Effizienz einen gewaltigen Sprung hinlegen, aber dies hat man extern eingekauft. Wie sieht es mit einem Nachfolger aus?
AMD ist ja noch nicht auf 3NM.
Lehdro
2024-10-25, 15:06:37
Ich vermute aber mal, daß AMD die 3nm Zen5c-Dies lieber in Epycs verkauft (höhere Marge) und der Markt im Desktop nicht so groß wäre, um die Entwicklung zu rechtfertigen.
Es gibt auch EPYCs für AM5, also wenn AMD wollte, könnte man sogar 2x Zen 5c CCDs reinwerfen...nur so eine Idee AMD.
Oder halt die "Ultimative CPU" mit 1x Zen 5 + 3D V-Cache + 1x Zen 5c für die Kerneflut. So als 9995X3D :freak:
BavarianRealist
2024-10-25, 15:53:52
...
Oder halt die "Ultimative CPU" mit 1x Zen 5 + 3D V-Cache + 1x Zen 5c für die Kerneflut. So als 9995X3D :freak:
Eine solche Konfiguration halte ich für höchst interessant: wäre dann nicht nur im Gaming der Meister, sondern auch in Anwendungen, zumal Zen5c auch sparsam ist in N3P, was dann Arrow-Lake in allen Belangen hinter sich ließe.
Dino-Fossil
2024-10-25, 16:28:27
Eine solche Konfiguration halte ich für höchst interessant: wäre dann nicht nur im Gaming der Meister, sondern auch in Anwendungen, zumal Zen5c auch sparsam ist in N3P, was dann Arrow-Lake in allen Belangen hinter sich ließe.
Der Windows Scheduler würde wohl endgültig Selbstmord begehen. :biggrin:
davidzo
2024-10-25, 16:51:23
Der Windows Scheduler würde wohl endgültig Selbstmord begehen. :biggrin:
Wieso das ist sogar einfacher als der 7950X3D. Die 8x v-cache Kerne sind immer die Prime-Cores, da sie nicht nur den größeren Cache haben sondern auch den höheren Takt. Das würde vieles vereinfachen für den Scheduler. Kompliziert wäre es nur wenn wir alle drei Zen5 Versionen integrieren, also ein Hochtakt-CCD, eines mit v-cache und eines mit Zen5C.
mczak
2024-10-25, 17:24:58
Es gibt auch EPYCs für AM5, also wenn AMD wollte, könnte man sogar 2x Zen 5c CCDs reinwerfen...nur so eine Idee AMD.
Oder halt die "Ultimative CPU" mit 1x Zen 5 + 3D V-Cache + 1x Zen 5c für die Kerneflut. So als 9995X3D :freak:
Ich bin nicht sicher ob das I/O Die das wirklich hergibt, weil die Zen 5c Dies ja 2 GMI Links benötigen - deswegen ist bei den Server-Chips auch eine grössere Anzahl mit normalen CCDs möglich als mit den kompakten CCDs (low-core count mit den normalen CCDs können auch doppelte Links pro Die verwenden).
Das Desktop I/O Die hat aber wohl bloss 2 GMI Links (wobei die asymmetrisch sind - ein CCD kann pro Takt 32B lesen aber bloss 16B schreiben). Das würde dann nicht reichen.
Gipsel
2024-10-25, 17:34:52
Ich bin nicht sicher ob das I/O Die das wirklich hergibt, weil die Zen 5c Dies ja 2 GMI Links benötigen - deswegen ist bei den Server-Chips auch eine grössere Anzahl mit normalen CCDs möglich als mit den kompakten CCDs (low-core count mit den normalen CCDs können auch doppelte Links pro Die verwenden).
Das Desktop I/O Die hat aber wohl bloss 2 GMI Links (wobei die asymmetrisch sind - ein CCD kann pro Takt 32B lesen aber bloss 16B schreiben). Das würde dann nicht reichen.Wieso sollte das nicht funktionieren? Die Grenze zwischen den narrow und wide (schlicht 2 gebündelte) GMI-Links bei Turin liegt bei 8 CCDs (bis 8 CCDs können wide Links genutzt werden, bei mehr nur noch die narrow Links, der Epyc-IO-Die stellt insgesamt 16 Links bereit). Turin dense mit den 16C-Zen5c-CCDs kommt aber mit bis zu 12 CCDs daher, die dann also notgedrungen über die narrow-Links angebunden werden, die es im Desktop gibt (die GMI-Links im Server sind genau so asymmetrisch und am Ende laufen ja die gleichen Zen5-CCDs daran wie im Desktop).
TLDR: Nein, die Zen5c-Dies in Turin dense laufen an dem einfachen GMI narrow Interface, nicht im "wide" Modus mit 2 gebündelten Links. Das sollte also funktionieren.
edit:
https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/4/6/8/6/9/0/3/Epyc_9005_SoC_Die-91b2491f1f089e8d.png?org_if_sml=1&q=85&width=1600
davidzo
2024-10-25, 17:39:24
Ich bin nicht sicher ob das I/O Die das wirklich hergibt, weil die Zen 5c Dies ja 2 GMI Links benötigen - deswegen ist bei den Server-Chips auch eine grössere Anzahl mit normalen CCDs möglich als mit den kompakten CCDs (low-core count mit den normalen CCDs können auch doppelte Links pro Die verwenden).
Das Desktop I/O Die hat aber wohl bloss 2 GMI Links (wobei die asymmetrisch sind - ein CCD kann pro Takt 32B lesen aber bloss 16B schreiben). Das würde dann nicht reichen.
Afaik bekommt der Desktop eh nur 1x GMI Link pro Die obwohl zwei möglich sind. Das kann man vermutlich in speicherlastgen Szenarien auch sehen (AVX512?)dass die CCDs jeweils die doppelte Bandbreite zum Memorycontroller und zum Nachbar-DIE haben.
mczak
2024-10-25, 18:15:14
Wieso sollte das nicht funktionieren?
Ah ja, irgendwie habe ich da an Zen4c gedacht - aber bei Zen5c hat man ja nicht mehr 2 CCX pro CCD. Das sollte also tatsächlich problemlos klappen. (Und bei Turin Servern mit den Dense Dies müssten rein von den GMI Links her auch solche mit 16 Dies funktionieren...)
amdfanuwe
2024-10-25, 18:25:33
Auch bei ZEN4c waren die CCDs trotz 2 CCX nur über einen GMI angebunden.
I/O hatte 12 GMI und 8 ZEN4c CCDs für 128 Kerne waren angebunden.
Sardaukar.nsn
2024-10-25, 18:38:46
Ich denke Microsoft wird auch für Arrow Lake Anpassungen bringen.
Leistung ist ja vorhanden, nur kommt die manchmal nicht an. Allerdings sind die Preise drüber, egal ob jetzt CPU oder bei den Mainboards, speziell Asus sticht hier wieder negativ hervor mit deren absurden Preisen.
So ganz schlimm finde ich die Mainboard Preise jetzt nicht. https://www.idealo.de/preisvergleich/MainSearchProductCategory.html?q=Intel%20Z890&qr=false&sortKey=sortMinBasePrice
Im Gaming wird da sich auch noch was passieren und an die neue Architektur angepasst werden. Kann mich noch gut erinnern was das mit CP2077 auf AMD für ein Theater war bis es rund lief: https://www.computerbase.de/2023-07/cyberpunk-2077-smt-problematik-8-kern-amd-prozessoren/
aufkrawall
2024-10-25, 19:13:13
Bei CP77 war es eine vom Entwickler gewollte Abfrage, die absichtlich weniger Threads auf Ryzens spawnte, um die Multi-CCX-CPUs nicht zu überfordern. Der "Fix" für Zen 3 war dann einfach, die Abfrage zu deaktivieren.
Das ist nicht sonderlich vergleichbar zu little.big, wo nicht nur die Latenzen zwischen den Kernen anders sind. Falls das vom Entwickler wirklich ständig Anpassungen für Arrow Lake brauchen sollte, kauft man besser gleich etwas anderes.
iamthebear
2024-10-25, 19:52:19
ARL sollte in Sachen Scheduling eigentlich deutlich unkomplizierter sein als Raptor Lake:
.) SMT fällt weg: Man muss sich also nicht mehr darum kümmern, dass auf den Main Thread Kern kein zweiter Thread gelegt wird.
.) Der Unterschied zwischen P und E Cores ist deutlich geringer. Also selbst wenn man gelegentlich einmal einen wichtigen Thread auf einen E Core schiebt sollte es nicht so dramatisch sein.
Das was Intel anscheinend vollkommen verbockt hat ist, dass sie die Kern IDs wild durchgemixed haben, genauso wie bei MTL.
Bei Raptor Lake war die Regel: Zuerst die P Cores (2 virtuelle Kerne pro physischem Kern), danach die E Cores (1 virtuelle Kerne pro physischem Kern)
Bei ARL sieht es nun so aus:
2P-8E-4P-8E-2P
Das führt in der Praxis dazu, dass bei manchen Spielen die Threads zuerst auf den E Cores landen obwohl noch P Cores vorhanden sind.
Thomas Gräf
2024-10-25, 20:13:58
Nja weißte was, das is so gewollt. Intel will den Leuten mal zeigen was ihre E-Cores so auf dem Kasten haben. :smile:
Tja dannoch die geschichte mit diesem DLVR, als ich das Vid vom Roman 8auer gesehen hab dachte ich nee Intel.
Sie stecken jetzt bei Leistung 80 Watt in ein Bauteil machen damit 10 Grad mehr Core Temps und dadurch weniger Takt.
Alles nur damit die CPUs nicht mehr abrauchen...sag mir einer das da was nicht stimmt. :confused:
Gipsel
2024-10-25, 20:35:19
Es gibt schon einen Grund, warum AMD die LDOs (was Anderes ist intels DLVR auch nicht wirklich) in ihren Zen-Cores (und ich meine Zen1) auf dem Desktop nie aktiviert hat.
Hatstick
2024-10-25, 20:47:52
Irgendwie alles komisch... erst die 9000er Ryzen, jetzt bringen die Intel in Gaming die Leistung auch nicht auf die Straße... oder haben sie einfach nicht.
Muss ich den 5800X3D wohl noch zwei Jahre nutzen.
Sehe da kaum was lohnenswertes im Moment, wenn man noch den Sweet Spot halten will... ohne, das es unverschämt teuer wird.
y33H@
2024-10-25, 23:51:14
Das was Intel anscheinend vollkommen verbockt hat ist, dass sie die Kern IDs wild durchgemixed haben, genauso wie bei MTL.
Bei Raptor Lake war die Regel: Zuerst die P Cores (2 virtuelle Kerne pro physischem Kern), danach die E Cores (1 virtuelle Kerne pro physischem Kern)
Bei ARL sieht es nun so aus:
2P-8E-4P-8E-2P
Das führt in der Praxis dazu, dass bei manchen Spielen die Threads zuerst auf den E Cores landen obwohl noch P Cores vorhanden sind.
Nope ... bisher war Reihenfolge: physische P-Cores, dann E-Cores, dann logische SMT-(P-)Cores.
Wo bei ARL-S die jeweiligen P- und die E-Cores auf dem Die sitzen, hat nichts damit zu tun, wo der Thread Director iwelche Jobs hinpackt :freak:
DeadMeat
2024-10-26, 00:21:39
Ist die Physische Reihenfolge dann der Grund für die so oft berichtete Latenz wenn die Pcores nicht zusammenhängen?
][immy
2024-10-26, 01:06:05
Also Gründe für das schlechte Abschneiden sehe ich aktuell mehr als genug.
Zumindest die e-Cores und P-Cores sind quasi voneinander getrennt. Wenn nun Windows einen Thread auf eine E-Core verschiebt, weil die P-Cores beschäftigt sind, ist das eher nicht zuträglich für die Performance. Zum einen weil die Daten nun in einen anderen Cache kommen und zum anderen weil die E-Cores halt etwas langsamer sind (aber ja scheinbar im Grunde quasi gleich bis auf Taktunterschied).
Da man nun auch kein Hyperthreading mehr hat, werden Threads zwangsweise häufiger auf anderen Cores und damit auch Caches landen, was die Performance insgesamt runter zieht. Dieses Verhalten sieht man ja schon bei AMD wenn die Threads kreuz und quer CCX-Übergreifend auf die Cores verteilt werden.
Ja, Hyperthreading deaktivieren kann auch bei 6/8-Core AMD CPUs sogar zu einer erhöhten Performance führen, allerdings wandern da die Caches dann auch nicht ständig in einen anderen CCX. Letztendlich wurde HT (bzw. wie es inzwischen auch immer heißt) ja eigenführt, um bestehende Hardware besser aus zu lasten und damit insgesamt mehr Performance auf die Straße zu bringen. Dies ist allerdings ein Problem, wenn es um die Sicherheit der Daten geht (und da ist intel ja nicht gerade so gut aufgestellt, wie sich in den letzten Jahren gezeigt hat).
Ich würde aber die Behauptung aufstellen, das es durch weglassen von HT nicht automatisch sicherer wird, weil die Kerne ja trotzdem mit hunderten Threads zugeschmissen werden, nur das diese nun "der Reihe nach" immer für ein paar ms bearbeitet werden (wie es der OS Scheduler vor gibt). Also der Wechsel findet nach wie vor statt, auch wenn ein klein wenig Komplexität eventuell wegefallen ist, ist das Grundproblem trotzdem noch da (was letztlich durch die Sprungvorhersage ausgelöst wird).
Besonders die Werte von Gamer Nexus finde ich hier interessant, welche auf FPS/W heruntergerechnet werden. Und da schneidet intel zwar nun etwas besser ab, aber auch nicht wirklich besser.
Das man den launch nach dem Zen 5 Debakel nicht nach hinten verschoben hat, um zumindest bei Windows die Patches rein zu bekommen und die eigene Firmware stabil ist mir allerdings wieder ein Rätsel. Rieht wieder nach Beta-Test beim Kunden und man weiß nicht mal, ob das je behoben werden kann. Ein einigermaßen stabiles Produkt ist eigentlich etwas, was ich von intel beim launch schon erwartet hätte. So schlecht ist nicht mal der Pentium IV gelaunched worden.
Altehardware
2024-10-26, 05:55:46
Das Problem ist nicht die hardware sondern wie diese getestet wird.
arrow lake ist komplex udn windows hat aktuell kein sheduler der darauf die progrmame optimal aufteilt das muss von intel mit apo geregelt werden.
Aktuell iste s so das P und E cores per cluster verbunden sind und nicht wie bei raptor lake klare Blöcke sind nur p und e cores
Es also keine wirklichen latenzprobleme zwischen den core arten liegt das problem bei arrow lake ist die Latenz zum Speicher den dieser sitzt im soc und der Übermittler ist das Silizium dem base die.
also woher kommt dann die gaming schwäche nun von den Stronsparmechamissmen um genau zu sein von den e-core verhalten möglichst energiesparend zu sein. und wie schnell diese aktiviert und deaktiviert werden können und da kommt intels microcode und die uefi settings.
Der microcode wird nicht mehr geändert da es nix bringt der einfache weg ist es die settings auf maxed perf. zu stellen die alternative damit zu leben.
Daher wird einiges bei den nächsten uefi updates an perf. zugewonnen werden können und windows braucht dann nur noch das richtige energiesparplan aktiv zu haben.
Die thread vom Spiel auf p-core zu setzen bringt quasi nix. Den diese haben neben avx512 kaum etwas das schneller sein könnte die p-core e-core trennen nur 300mhz folglich mus man abwägen welche Energiesparplan aktiv sein soll bei welcher cpu last bzw Programm läuft und das muss der OS Hersteller machen ideal wird es aber wenn intel ein eigenes threadsheduler software anbietet das per sofort Umsetzung die Energiesparpläne umstellt.
Das hat recht wenig mit den thread auf kerne zu setzen zutun.,
Amd Ansatz ist ein anderer da weniger komplex hier brauchtes ein Programm das Anwendungen auf nen ccx pinnt. das ist deutlich einfacher als das man windows Energiesparpläne an abschalten kann. Und das hat Microsoft sogar schon umgesetzt mit der gamebar
am einfachsten man kauft sich ne cpu mit einen x3d und kein hybriden der das problem hat.
wer behauptet das dies kein Unterschied macht irrt sich den die perf. Einbrüche gibt es nicht nur in gaming wenn das falsche perf. Profil aktiv ist bei arrow lake. aktuelle Lösung nur maxed perf.
Das aber läuft komplett gegen das design der arch und begräbt quasi jegliche Effizienzverbesserung.
Die Lösung muss eine Software auf OS ebene sein die das managed
amd Lösung war einfach. man passte das hcpi an die meisten haben es sowieso deaktiv da es instabil ist.
Soviel zu ryzen perf. Verluste durch Os upgrade bzw update
KarlKastor
2024-10-26, 07:10:22
[immy;13637416']
Zumindest die e-Cores und P-Cores sind quasi voneinander getrennt. Wenn nun Windows einen Thread auf eine E-Core verschiebt, weil die P-Cores beschäftigt sind, ist das eher nicht zuträglich für die Performance.
Kein Unterschied zu Raptor Lake.
Da man nun auch kein Hyperthreading mehr hat, werden Threads zwangsweise häufiger auf anderen Cores und damit auch Caches landen, was die Performance insgesamt runter zieht.
Es wurde auch bei Raptor Lake erst die E-Cores und dann der zweite Thread auf den P-Cores genutzt. Also kein signifikanter Unterschied. Die Latenz zu den E-Cores ist doch sogar geringer geworden.
Dieses Verhalten sieht man ja schon bei AMD wenn die Threads kreuz und quer CCX-Übergreifend auf die Cores verteilt werden.
Bei Arrow Lake liegen die auch alle auf dem gleichen "CCX". Die Analogie ist doch komplett falsch.
Ja, Hyperthreading deaktivieren kann auch bei 6/8-Core AMD CPUs sogar zu einer erhöhten Performance führen, allerdings wandern da die Caches dann auch nicht ständig in einen anderen CCX.
Siehe oben, bei Arrow Lake auch nicht. Die greifen alle auf den gemeinsamen L3 zu.
Das man den launch nach dem Zen 5 Debakel nicht nach hinten verschoben hat, um zumindest bei Windows die Patches rein zu bekommen
Vielleicht gibt es einfach gar keine große Probleme mit dem Scheduler? Was soll sich groß gegenüber Raptor Lake geändert haben? Der Wegfall von HT machst eher einfacher.
Das Problem ist einfach die miese Speicherperformance und der niedrige Takt.
RoNsOn Xs
2024-10-26, 07:41:44
@Karl nachvollziehbar was du sagst. Warum gibt es dann jedoch so massive Einbrüche, allein durch die unterschiedliche Nutzung der beiden win11-Versionen bei ARL, siehe PCGH? Der Speicher wurde da ja nicht verändert. Einzig das OS hat hier einen massiven impact gemacht.
@all
Wurde ARL überhaupt mal bei irgendwem auf Win10 getestet? Wäre mal spannend.
dildo4u
2024-10-26, 08:08:57
@Karl nachvollziehbar was du sagst. Warum gibt es dann jedoch so massive Einbrüche, allein durch die unterschiedliche Nutzung der beiden win11-Versionen bei ARL, siehe PCGH? Der Speicher wurde da ja nicht verändert. Einzig das OS hat hier einen massiven impact gemacht.
@all
Wurde ARL überhaupt mal bei irgendwem auf Win10 getestet? Wäre mal spannend.
Hier nach unten scrollen.
https://www.techspot.com/review/2911-intel-core-ultra-9-285k
Zossel
2024-10-26, 08:34:01
Nope ... bisher war Reihenfolge: physische P-Cores, dann E-Cores, dann logische SMT-(P-)Cores.
Wo bei ARL-S die jeweiligen P- und die E-Cores auf dem Die sitzen, hat nichts damit zu tun, wo der Thread Director iwelche Jobs hinpackt :freak:
Unter "/sys/devices/system/cpu/" finden sich alle Infos zur CPU-Topologie und noch viel mehr (Aktuell bei mir: 140 Parameter pro CPU/Thread), unabhängig davon wie die CPUs/Threads enumeriert wurden kann ein Scheduler auf Basis dieser Daten möglichst gut raten was man auf welche cpu wirft.
Und der Thread-Director packt keine Jobs irgendwo hin. Der generiert lediglich Hints für den Scheduler.
Aber wenn sich die verschiedenen Cores eh nicht mehr großartig bzgl. Performance unterscheiden kann man dieses Ding auch bald auf den Scheiterhaufen der Geschichte werfen.
Es wurde auch bei Raptor Lake erst die E-Cores und dann der zweite Thread auf den P-Cores genutzt. Also kein signifikanter Unterschied. Die Latenz zu den E-Cores ist doch sogar geringer geworden.
Das ist keine Frage der CPU sondern des Betriebsystems.
Exxtreme
2024-10-26, 13:34:46
arrow lake ist komplex udn windows hat aktuell kein sheduler der darauf die progrmame optimal aufteilt das muss von intel mit apo geregelt werden.
Das wird IMMER mit APO oder ähnlichen Tools geregelt werden müssen. Denn es gibt keine Möglichkeit programmatisch herauszufinden welche Threads auf welchen Kernen am besten laufen. Das wird man der Xbox-Bar und dem WinDOS-Scheduler manuell beibringen müssen, welche Kerne er bei welcher Anwendung bevorzugt.
rentex
2024-10-26, 15:27:33
Das wird IMMER mit APO oder ähnlichen Tools geregelt werden müssen. Denn es gibt keine Möglichkeit programmatisch herauszufinden welche Threads auf welchen Kernen am besten laufen. Das wird man der Xbox-Bar und dem WinDOS-Scheduler manuell beibringen müssen, welche Kerne er bei welcher Anwendung bevorzugt.
Wie nutzerfreundlich...da hat man sofort keine Lust mehr, sich mit dem Produkt auseinander zu setzen.
Exxtreme
2024-10-26, 15:31:07
Wie nutzerfreundlich...da hat man sofort keine Lust mehr, sich mit dem Produkt auseinander zu setzen.
Naja, Micros~1 kann das auch schon in der Xbox-Bar hinterlegen. Dann muss man als Nutzer selbst nichts tun. Aber es kann passieren, dass man es bei unbekannteren Spielen doch selbst tun muss.
Hübie
2024-10-26, 15:36:49
Das das irgendwie trendy Microsoft = Micros~1 zu nennen, weil es damals die 8.3 Endungen gab? Hab ich was verpasst?
Von dem APO-Gedöhns dürfte der Nutzer doch eigentlich nix mitbekommen. Das installierst du einmal und gut oder muss man da händisch stets eingreifen?
][immy
2024-10-26, 17:48:43
Das das irgendwie trendy Microsoft = Micros~1 zu nennen, weil es damals die 8.3 Endungen gab? Hab ich was verpasst?
Von dem APO-Gedöhns dürfte der Nutzer doch eigentlich nix mitbekommen. Das installierst du einmal und gut oder muss man da händisch stets eingreifen?
bisher scheint APO auch nicht besonders viel zu bringen. Teilweise geht es sogar eher in einen negativen Nutzen über (wenn man sich die Werte von z.B. Hardware Unboxed oder halt gamer Nexus.
Vielleicht gibt es einfach gar keine große Probleme mit dem Scheduler? Was soll sich groß gegenüber Raptor Lake geändert haben? Der Wegfall von HT machst eher einfacher.
Das Problem ist einfach die miese Speicherperformance und der niedrige Takt.
Irgendwo muss der Hund ja begraben liegen, wenn die CPU mal gut performt und meist einfach nicht.
Aber was ich eher meinte, das sie zumindest hätten warten müssen, bis die Chips stabil laufen. Performance ist eine andere Sache. Aber Stabilität war eigentlich immer etwas, mit dem man Intel doch irgendwie in Verbindung brachte (bis zu den letzten Fertigungsproblemen)
Hübie
2024-10-26, 17:59:10
Also Roman (der8auer) sagt im Video, dass man mit OC noch mal einiges wett machen kann und zumindest zum 14900KS aufholen bzw. teilweise den im Gaming schlagen kann. Aber auch er weiß nicht woher die Inkonsistenzen herkommen. Immerhin ist er der einzige, der es iterativ versucht hat heraus zu finden.
Für interessierte:
UyBHkf7zB7U
Ab 17:10 wird es interessant, wenn man schon weiß wie der DLVR arbeitet. ;)
MiamiNice
2024-10-26, 20:00:40
Bestes ARL Launch Video. Ich denke die Probleme die er nicht identifizieren kann, kommen von Windows Scheduler.
Lehdro
2024-10-26, 20:09:40
Bestes ARL Launch Video. Ich denke die Probleme die er nicht identifizieren kann, kommen von Windows Scheduler.
Wenn ARL-S eine AMD CPU wäre, würde folgendes dein erster Kommentar sein:
"Aber RPL-S kann man auch optimieren".
Also Roman (der8auer) sagt im Video, dass man mit OC noch mal einiges wett machen kann und zumindest zum 14900KS aufholen bzw. teilweise den im Gaming schlagen kann.
Der 14900KS läuft da mit 6000C30, der optimierte 285K mit 8800C42, Ring, D2D und NGU Übertaktung. Lächerlich, das muss ihm doch selbst peinlich sein. Im Launch Review des 14900KS hat er übrigens direkt 7600C32 angelegt. :freak:
dildo4u
2024-10-26, 20:13:15
Ist doch langweilig wenn ihn keiner kauft daher Miami ich will erste Hand Berichte.
Daredevil
2024-10-26, 20:22:45
Der 14900KS läuft da mit 6000C30, der optimierte 285K mit 8800C42, Ring, D2D und NGU Übertaktung. Lächerlich, das muss ihm doch selbst peinlich sein. Im Launch Review des 14900KS hat er übrigens direkt 7600C32 angelegt. :freak:
Genau aus dem Grund hat Roman auch den maximal schnellsten Speicher genommen, der am Ende Sinn macht. Damit niemand am Ende sagen kann "aBeR dA gEhT jA nOcH wAs mIt mEhR rAm SpEeD". Hast du dir das Video überhaupt komplett angeschaut? :)
Zeigen wollte er 3/4 des Videos, dass der 285K selbst unter super Bedingungen im Vergleich zum Stock Rest abstinkt bzw. inkonsistent ist. Das man davon ab noch andere Optimierungen treffen kann, ist klar. Speicher macht aber wohl den größten Teil aus. Jede Optimierung die mehr Leistung rauskitzelt kostet einem auch Strom und das macht den 285K nach und nach wieder zu einem 14900K.
Da kannste nen 14900K auch einfach undervolten in Games, dann haste die durchschnittliche 285K Gaming Leistung, oder du nimmst den eh besseren 7800X3D.
Lehdro
2024-10-26, 20:31:40
Genau aus dem Grund hat Roman auch den maximal schnellsten Speicher genommen, der am Ende Sinn macht. Damit niemand am Ende sagen kann "aBeR dA gEhT jA nOcH wAs mIt mEhR rAm SpEeD".
Schön, aber das ist nicht das Problem.
Hast du dir das Video überhaupt komplett angeschaut? :)
Ja habe ich, solche Vergleiche finde ich ohne direkten Gegenpart oder Konterpunkt aber unseriös, weil sie Kommentare wie oben genannten provozieren. Da fragt man sich dann, was das soll, mit den Äpfel - Birnen - Vergleichen. Jemand der das nicht weiß, wird das auch nach dem Video nicht wissen. Denn er erwähnt es auch gar nicht. Er lässt das Ergebnis einfach so stehen...und hier kommt dann der Kommentar dass der 285K mit Tuning aufschliessen kann. Woah ;D
Der_Korken
2024-10-26, 20:46:58
Mich würde mal interessieren, was rauskäme, wenn man den 14900K so im Verbrauch begrenzt (notfalls für jedes Spiel separat), dass er ungefähr auf 285K-Niveau rauskommt. Und dann mal die Spieleleistung der beiden vergleichen. Im Moment finde ich es nämlich gar nicht so leicht zu schätzen wieviel effizienter ARL-S wirklich ist.
MiamiNice
2024-10-26, 20:57:27
Genau aus dem Grund hat Roman auch den maximal schnellsten Speicher genommen, der am Ende Sinn macht. Damit niemand am Ende sagen kann "aBeR dA gEhT jA nOcH wAs mIt mEhR rAm SpEeD". Hast du dir das Video überhaupt komplett angeschaut? :)
Tatsächlich würde da auch noch was mehr gehen, aber Roman hat schon gut gezeigt wo die Taktgrenzen sind. Vor allen bei den internen Taktraten. Er wollte zeigen das dass Gerät nicht taugt. Wussten wir alle vorher nur muss es jetzt keinen mehr kaufen um es selbst zu testen. Selbst mit OC ne Krücke.
Hab am Donnerstag nur dieses Video gesehen und das Thema ARL komplett abgehackt.
@Lehdro: Du bist scheinbar nicht das Publikum vom Roman. Es geht meist nicht um Vergleiche, sondern darum „was geht“. Vergleiche mit Settings die in der freien Wildbahn nicht vorzufinden sind, gibt es bei den üblichen Verdächtigen.
Linmoum
2024-10-26, 21:30:33
Mich würde mal interessieren, was rauskäme, wenn man den 14900K so im Verbrauch begrenzt (notfalls für jedes Spiel separat), dass er ungefähr auf 285K-Niveau rauskommt. Und dann mal die Spieleleistung der beiden vergleichen. Im Moment finde ich es nämlich gar nicht so leicht zu schätzen wieviel effizienter ARL-S wirklich ist.PCGH hat beispielsweise einen 14600 mit im Index. Der zieht in Spielen quasi genauso viel wie der 245K (66W vs. 67W) und beide haben 6P+8E. Der 245K ist sagenhafte 3% schneller. Bei Anwendungen sieht's dann wiederum absurder aus. 21% höhere Performance für den 245K bei hingegen 37% (!) höherem Verbrauch.
Gut, trotz der 6P+8E, die beide CPUs identisch haben, fehlt dem 245K natürlich SMT, aber das will Intel uns ja sowieso als Vorteil verkaufen.
Daredevil
2024-10-26, 21:56:16
Da fragt man sich dann, was das soll, mit den Äpfel - Birnen - Vergleichen. Jemand der das nicht weiß, wird das auch nach dem Video nicht wissen. Denn er erwähnt es auch gar nicht. Er lässt das Ergebnis einfach so stehen...und hier kommt dann der Kommentar dass der 285K mit Tuning aufschliessen kann. Woah ;D
Er hat es genauso im Video formuliert und ebenso begründet, wieso er bewusst den maximalen Ram Speed genommen hat, also der wirklich maximale maximale, bevor die Kiste in de G4 geht und man Leistung verliert.
Selbst mit dem maximalen RAM Speed reicht es nicht aus im Gaming gegenüber Stock Modellen und RAM von der Stange, das ist desaströs. Das Video alleine reicht schon aus für alle, die zocken wollen. Da muss man sich kein anderes Review anschauen, wo Stock getestet wird und man als "Tuner" im Hinterkopf hat "Vielleicht geht ja was mit mehr RAM OC?". Diesen Einwand hat Roman direkt debunked, was super ist für die Zielgruppe der OCler.
Thomas Gräf
2024-10-26, 23:28:34
...
Hab am Donnerstag nur dieses Video gesehen und das Thema ARL komplett abgehackt.
...
Ich wollts hier nich so schreiben, aber bei mir wars genauso.
Aber der Hammer ansich ist doch nicht das mit der Gaming Leistung.
Der Hammer für mich ist wenn dieser DLVR seine Arbeit aufnimmt
und damit vor allem die Power Anwendungs User in den Allerwertesten kickt.
Diejenigen die Intel bevorzugen wegens Kompatibilität usw und mit
8 cores zufrieden wären wenn diese Bums haben.
Juggt jetzt wohl auch keinen mehr...
Naja ein Video will Roman ja noch bringen, den Versuch mit
direct-Die Wakü.
Lehdro
2024-10-27, 00:32:33
Er hat es genauso im Video formuliert und ebenso begründet, wieso er bewusst den maximalen Ram Speed genommen hat, [...]
Es fehlt halt ein Satz in dem Video: "Selbst im Bestcase schafft der 285K mit Tuning einen schnarchlahmen 14900KS gerade so". Das erwähnt er halt gar nicht, weswegen solche Kommentare kommen ala "guck mal mit Tuning ist der so schnell wie ein 14900KS". Ist halt quark.
@Lehdro: Du bist scheinbar nicht das Publikum vom Roman. Es geht meist nicht um Vergleiche, sondern darum „was geht“. Vergleiche mit Settings die in der freien Wildbahn nicht vorzufinden sind, gibt es bei den üblichen Verdächtigen.
Ja klar :freak:
Wo ist dann das Problem das auch so zu sagen um genau diesen Kommentaren vorzubeugen. Er hätte auch einfach nur bei dem einen Game einen 14900KS + 7600C32 dazunehmen können um direkt mal zu ZEIGEN was da los ist bei Intel. Er ist halt 90% des Weges gegangen, aber bei Fazit haperts, das lässt er nur mit dem Ergebnis stehen. Reicht mir nicht bei der heutigen Kommentarkultur, da muss er schon noch den einen Satz bringen, damit man ihn direkt quoten kann.
Wenn ich für jedes mal dafür, dass ich auf Twitter oder in Foren das Video verlinkt bzw. Screenshots von dem einen Graph mit Tuning gesehen habe, wo drunter steht "Mit Tuning ist der 285K doch schneller als der 14900KS" einen Euro bekommen hätte, könnte ich mir sicher schon einen 285K leisten. Ihr unterschätzt die Wirkreichweite solcher Graphen, vor allem out of context.
Langlay
2024-10-27, 00:57:29
Es fehlt halt ein Satz in dem Video: "Selbst im Bestcase schafft der 285K mit Tuning einen schnarchlahmen 14900KS gerade so". Das erwähnt er halt gar nicht, weswegen solche Kommentare kommen ala "guck mal mit Tuning ist der so schnell wie ein 14900KS". Ist halt quark.
Wie klar soll er den Bestcase dann noch rüber bringen, als "Wenn man alle Frequenzen tweakt". Das der 285 mit Ring OC und RAM OC und soweiter, der Bestcase ist sollte einem doch klar sein, wenn man seinen Kopf nicht nur als Hutablage benutzt.
https://i.imgur.com/axFPJb5.jpeg
https://youtu.be/UyBHkf7zB7U?si=w_6iA_LNzWLHtLGu&t=1523
Ich fand das Video von 8auer eigentlich ziemlich gut.
MiamiNice
2024-10-27, 08:33:47
Es fehlt halt ein Satz in dem Video: "Selbst im Bestcase schafft der 285K mit Tuning einen schnarchlahmen 14900KS gerade so". Das erwähnt er halt gar nicht, weswegen solche Kommentare kommen ala "guck mal mit Tuning ist der so schnell wie ein 14900KS". Ist halt quark.
Ja klar :freak:
Wo ist dann das Problem das auch so zu sagen um genau diesen Kommentaren vorzubeugen. Er hätte auch einfach nur bei dem einen Game einen 14900KS + 7600C32 dazunehmen können um direkt mal zu ZEIGEN was da los ist bei Intel. Er ist halt 90% des Weges gegangen, aber bei Fazit haperts, das lässt er nur mit dem Ergebnis stehen. Reicht mir nicht bei der heutigen Kommentarkultur, da muss er schon noch den einen Satz bringen, damit man ihn direkt quoten kann.
Wenn ich für jedes mal dafür, dass ich auf Twitter oder in Foren das Video verlinkt bzw. Screenshots von dem einen Graph mit Tuning gesehen habe, wo drunter steht "Mit Tuning ist der 285K doch schneller als der 14900KS" einen Euro bekommen hätte, könnte ich mir sicher schon einen 285K leisten. Ihr unterschätzt die Wirkreichweite solcher Graphen, vor allem out of context.
Nur kurz, weil ist echt OT und früh. Jeder weiss was ein 14900k mit 8000er Speicher macht. Zumindest mal jeder der seine Videos schaut oder generell Interesse an HW hat. Warum sollte Roman den nochmals zeigen? Es ist ein ARL Release Video. Es soll nur zeigen was der neuen Intel CPU kann, nicht was ein 14900k kann.
Ist doch super wenn es jemanden gibt der HW noch richtig testet. Gibt es heute selten bis gar nicht mehr. Der Typ hat mir schon so viele Käufe erspart, weil man bei anderen die Infos gar nicht bekommt und selbst kaufen + testen muss. Alleine hier habe ich locker 1500€ gespart.
robbitop
2024-10-27, 08:46:53
Ein Referenzpunkt ist nie verkehrt. Also kein Nachteil sondern ein Vorteil. Und es weiß nicht jeder was ein 14900K mit 8000 MHz schafft. Und selbst die eine Ahnung davon haben wissen es ja nicht im direkten Vergleich. Fehlende Informationen sind nie was gutes.
MiamiNice
2024-10-27, 10:01:27
Du könntest Dir das 14900k Release Video anschauen oder den Intel OC Guide. Dort hättest Du dann Die gewünschten Infos und könntest selber vergleichen. Es sind keine „x vs x“ Videos. Es sind mehr „was kann man mit der HW machen“ Videos. In diesem Fall ist jedweder vergleich sinnlos, da ARL weiter hinter RPL zurück liegt. Und auch weit hinter AMD. Die einzige Frage war, was kann das Teil mit OC. Die Antwort ist, immer noch weniger als ein 14900€ mit OC kann und auch weniger als ein 9800 3D. Damit ist das Thema für jeden HW Fan gelaufen, keine weiteren Anstrengenden oder Video anschauen nötig. Video Ende und warten auf den Nachfolger ist angesagt. Vielleicht hoffen das Intel seine Krankheit überwindet und das nächste Produkt wieder besser wird. Alleine diese Zeilen sind schon zu viel für eine CPU wie ARL.
robbitop
2024-10-27, 10:16:44
Klar mühsam Quervergleiche selbst machen müssen ohne dass dann auch alles an Softwarestand genau gleich ist…
Ein einziger Referenzwert löst das Problem und es ist ein Balken im Diagramm. Kein Nachteil nur Vorteile. Aber genug OT.
Zossel
2024-10-27, 11:05:34
Der Typ von C&C hat kein Mobo für die neuen Intels zum testen, deswegen gibt es wohl noch keine Betrachtungen von ihm:
https://chipsandcheese.com/p/stability-the-cost-of-intels-time
Janos
2024-10-29, 10:37:17
was macht eigentlich das Intel Application Optimization Center, ist das nur Process Lasso mit der Möglichkeit Profile zu hinterlegen oder optimiert Intel da noch mehr?
Was ich z.B. seltsam finde ist, dass am Beispiel von Counterstrike 2, was wie ich glaube nicht zu den Spielen gehört die viel vom L3 profitieren, der ja bei Arrow Lake anscheinend etwas unglücklich umgesetzt wurde, die Performance nur etwa auf Zen3 Nivau liegt, obwohl Windows und das Game zumindest die e-Core Thematik kennen sollten.
Weil in den Reviews wurde gesagt, Intel hätte auf Nachfrage zu bestimmten Performance Problemen, mit "das wird noch gefixt" geantwortet.
Wäre es aber nur das bekannte Scheduling Problem mit der big.little Architecture, könnte man das ja mit Process Lasso testen, was aber noch niemand gemacht hat, zumindest habe ich nichts davon gesehen.
Exxtreme
2024-10-29, 10:42:50
obwohl Windows und das Game zumindest die e-Core Thematik kennen sollten.
Die Frage ist wiederum, kennt WinDOS die P- und E-Kerne von Arrow Lake? Wenn nicht dann wird es hier keine Unterscheidung machen. Deshalb braucht man wohl ein Upgrade des WinDOS-Kernels.
Janos
2024-10-29, 10:46:21
ja das ist die Frage, sollte aber mit Process Lasso herauszufinden sein
Zossel
2024-10-29, 12:54:02
Die Frage ist wiederum, kennt WinDOS die P- und E-Kerne von Arrow Lake? Wenn nicht dann wird es hier keine Unterscheidung machen. Deshalb braucht man wohl ein Upgrade des WinDOS-Kernels.
Eigentlich sollten doch alle notwendigen Infos in den ACPI-Tabellen liegen.
Denk auch mal an frei definierte CPU-Topologien in virtuellen Maschinen.
Linux kennt die folgenden Parameter zu meiner Zen4-CPU:
$ find /sys/devices/system/cpu/cpu11/
/sys/devices/system/cpu/cpu11/
/sys/devices/system/cpu/cpu11/cpuidle
/sys/devices/system/cpu/cpu11/cpuidle/state3
/sys/devices/system/cpu/cpu11/cpuidle/state3/disable
/sys/devices/system/cpu/cpu11/cpuidle/state3/above
/sys/devices/system/cpu/cpu11/cpuidle/state3/time
/sys/devices/system/cpu/cpu11/cpuidle/state3/rejected
/sys/devices/system/cpu/cpu11/cpuidle/state3/power
/sys/devices/system/cpu/cpu11/cpuidle/state3/residency
/sys/devices/system/cpu/cpu11/cpuidle/state3/latency
/sys/devices/system/cpu/cpu11/cpuidle/state3/usage
/sys/devices/system/cpu/cpu11/cpuidle/state3/desc
/sys/devices/system/cpu/cpu11/cpuidle/state3/below
/sys/devices/system/cpu/cpu11/cpuidle/state3/default_status
/sys/devices/system/cpu/cpu11/cpuidle/state3/name
/sys/devices/system/cpu/cpu11/cpuidle/state3/s2idle
/sys/devices/system/cpu/cpu11/cpuidle/state3/s2idle/time
/sys/devices/system/cpu/cpu11/cpuidle/state3/s2idle/usage
/sys/devices/system/cpu/cpu11/cpuidle/state1
/sys/devices/system/cpu/cpu11/cpuidle/state1/disable
/sys/devices/system/cpu/cpu11/cpuidle/state1/above
/sys/devices/system/cpu/cpu11/cpuidle/state1/time
/sys/devices/system/cpu/cpu11/cpuidle/state1/rejected
/sys/devices/system/cpu/cpu11/cpuidle/state1/power
/sys/devices/system/cpu/cpu11/cpuidle/state1/residency
/sys/devices/system/cpu/cpu11/cpuidle/state1/latency
/sys/devices/system/cpu/cpu11/cpuidle/state1/usage
/sys/devices/system/cpu/cpu11/cpuidle/state1/desc
/sys/devices/system/cpu/cpu11/cpuidle/state1/below
/sys/devices/system/cpu/cpu11/cpuidle/state1/default_status
/sys/devices/system/cpu/cpu11/cpuidle/state1/name
/sys/devices/system/cpu/cpu11/cpuidle/state2
/sys/devices/system/cpu/cpu11/cpuidle/state2/disable
/sys/devices/system/cpu/cpu11/cpuidle/state2/above
/sys/devices/system/cpu/cpu11/cpuidle/state2/time
/sys/devices/system/cpu/cpu11/cpuidle/state2/rejected
/sys/devices/system/cpu/cpu11/cpuidle/state2/power
/sys/devices/system/cpu/cpu11/cpuidle/state2/residency
/sys/devices/system/cpu/cpu11/cpuidle/state2/latency
/sys/devices/system/cpu/cpu11/cpuidle/state2/usage
/sys/devices/system/cpu/cpu11/cpuidle/state2/desc
/sys/devices/system/cpu/cpu11/cpuidle/state2/below
/sys/devices/system/cpu/cpu11/cpuidle/state2/default_status
/sys/devices/system/cpu/cpu11/cpuidle/state2/name
/sys/devices/system/cpu/cpu11/cpuidle/state2/s2idle
/sys/devices/system/cpu/cpu11/cpuidle/state2/s2idle/time
/sys/devices/system/cpu/cpu11/cpuidle/state2/s2idle/usage
/sys/devices/system/cpu/cpu11/cpuidle/state0
/sys/devices/system/cpu/cpu11/cpuidle/state0/disable
/sys/devices/system/cpu/cpu11/cpuidle/state0/above
/sys/devices/system/cpu/cpu11/cpuidle/state0/time
/sys/devices/system/cpu/cpu11/cpuidle/state0/rejected
/sys/devices/system/cpu/cpu11/cpuidle/state0/power
/sys/devices/system/cpu/cpu11/cpuidle/state0/residency
/sys/devices/system/cpu/cpu11/cpuidle/state0/latency
/sys/devices/system/cpu/cpu11/cpuidle/state0/usage
/sys/devices/system/cpu/cpu11/cpuidle/state0/desc
/sys/devices/system/cpu/cpu11/cpuidle/state0/below
/sys/devices/system/cpu/cpu11/cpuidle/state0/default_status
/sys/devices/system/cpu/cpu11/cpuidle/state0/name
/sys/devices/system/cpu/cpu11/uevent
/sys/devices/system/cpu/cpu11/hotplug
/sys/devices/system/cpu/cpu11/hotplug/target
/sys/devices/system/cpu/cpu11/hotplug/state
/sys/devices/system/cpu/cpu11/hotplug/fail
/sys/devices/system/cpu/cpu11/crash_notes_size
/sys/devices/system/cpu/cpu11/firmware_node
/sys/devices/system/cpu/cpu11/node0
/sys/devices/system/cpu/cpu11/power
/sys/devices/system/cpu/cpu11/power/runtime_active_time
/sys/devices/system/cpu/cpu11/power/runtime_active_kids
/sys/devices/system/cpu/cpu11/power/pm_qos_resume_latency_us
/sys/devices/system/cpu/cpu11/power/runtime_usage
/sys/devices/system/cpu/cpu11/power/runtime_status
/sys/devices/system/cpu/cpu11/power/autosuspend_delay_ms
/sys/devices/system/cpu/cpu11/power/async
/sys/devices/system/cpu/cpu11/power/runtime_suspended_time
/sys/devices/system/cpu/cpu11/power/runtime_enabled
/sys/devices/system/cpu/cpu11/power/control
/sys/devices/system/cpu/cpu11/microcode
/sys/devices/system/cpu/cpu11/microcode/processor_flags
/sys/devices/system/cpu/cpu11/microcode/version
/sys/devices/system/cpu/cpu11/online
/sys/devices/system/cpu/cpu11/topology
/sys/devices/system/cpu/cpu11/topology/cluster_cpus
/sys/devices/system/cpu/cpu11/topology/die_id
/sys/devices/system/cpu/cpu11/topology/cluster_cpus_list
/sys/devices/system/cpu/cpu11/topology/physical_package_id
/sys/devices/system/cpu/cpu11/topology/core_cpus_list
/sys/devices/system/cpu/cpu11/topology/die_cpus_list
/sys/devices/system/cpu/cpu11/topology/core_siblings
/sys/devices/system/cpu/cpu11/topology/cluster_id
/sys/devices/system/cpu/cpu11/topology/core_siblings_list
/sys/devices/system/cpu/cpu11/topology/package_cpus
/sys/devices/system/cpu/cpu11/topology/package_cpus_list
/sys/devices/system/cpu/cpu11/topology/die_cpus
/sys/devices/system/cpu/cpu11/topology/thread_siblings_list
/sys/devices/system/cpu/cpu11/topology/core_id
/sys/devices/system/cpu/cpu11/topology/core_cpus
/sys/devices/system/cpu/cpu11/topology/thread_siblings
/sys/devices/system/cpu/cpu11/acpi_cppc
/sys/devices/system/cpu/cpu11/acpi_cppc/feedback_ctrs
/sys/devices/system/cpu/cpu11/acpi_cppc/lowest_nonlinear_perf
/sys/devices/system/cpu/cpu11/acpi_cppc/highest_perf
/sys/devices/system/cpu/cpu11/acpi_cppc/nominal_freq
/sys/devices/system/cpu/cpu11/acpi_cppc/lowest_freq
/sys/devices/system/cpu/cpu11/acpi_cppc/nominal_perf
/sys/devices/system/cpu/cpu11/acpi_cppc/lowest_perf
/sys/devices/system/cpu/cpu11/acpi_cppc/reference_perf
/sys/devices/system/cpu/cpu11/acpi_cppc/wraparound_time
/sys/devices/system/cpu/cpu11/driver
/sys/devices/system/cpu/cpu11/cache
/sys/devices/system/cpu/cpu11/cache/uevent
/sys/devices/system/cpu/cpu11/cache/index2
/sys/devices/system/cpu/cpu11/cache/index2/uevent
/sys/devices/system/cpu/cpu11/cache/index2/physical_line_partition
/sys/devices/system/cpu/cpu11/cache/index2/number_of_sets
/sys/devices/system/cpu/cpu11/cache/index2/ways_of_associativity
/sys/devices/system/cpu/cpu11/cache/index2/id
/sys/devices/system/cpu/cpu11/cache/index2/shared_cpu_list
/sys/devices/system/cpu/cpu11/cache/index2/type
/sys/devices/system/cpu/cpu11/cache/index2/size
/sys/devices/system/cpu/cpu11/cache/index2/level
/sys/devices/system/cpu/cpu11/cache/index2/coherency_line_size
/sys/devices/system/cpu/cpu11/cache/index2/shared_cpu_map
/sys/devices/system/cpu/cpu11/cache/index0
/sys/devices/system/cpu/cpu11/cache/index0/uevent
/sys/devices/system/cpu/cpu11/cache/index0/physical_line_partition
/sys/devices/system/cpu/cpu11/cache/index0/number_of_sets
/sys/devices/system/cpu/cpu11/cache/index0/ways_of_associativity
/sys/devices/system/cpu/cpu11/cache/index0/id
/sys/devices/system/cpu/cpu11/cache/index0/shared_cpu_list
/sys/devices/system/cpu/cpu11/cache/index0/type
/sys/devices/system/cpu/cpu11/cache/index0/size
/sys/devices/system/cpu/cpu11/cache/index0/level
/sys/devices/system/cpu/cpu11/cache/index0/coherency_line_size
/sys/devices/system/cpu/cpu11/cache/index0/shared_cpu_map
/sys/devices/system/cpu/cpu11/cache/index3
/sys/devices/system/cpu/cpu11/cache/index3/uevent
/sys/devices/system/cpu/cpu11/cache/index3/physical_line_partition
/sys/devices/system/cpu/cpu11/cache/index3/number_of_sets
/sys/devices/system/cpu/cpu11/cache/index3/ways_of_associativity
/sys/devices/system/cpu/cpu11/cache/index3/id
/sys/devices/system/cpu/cpu11/cache/index3/shared_cpu_list
/sys/devices/system/cpu/cpu11/cache/index3/type
/sys/devices/system/cpu/cpu11/cache/index3/size
/sys/devices/system/cpu/cpu11/cache/index3/level
/sys/devices/system/cpu/cpu11/cache/index3/coherency_line_size
/sys/devices/system/cpu/cpu11/cache/index3/shared_cpu_map
/sys/devices/system/cpu/cpu11/cache/index1
/sys/devices/system/cpu/cpu11/cache/index1/uevent
/sys/devices/system/cpu/cpu11/cache/index1/physical_line_partition
/sys/devices/system/cpu/cpu11/cache/index1/number_of_sets
/sys/devices/system/cpu/cpu11/cache/index1/ways_of_associativity
/sys/devices/system/cpu/cpu11/cache/index1/id
/sys/devices/system/cpu/cpu11/cache/index1/shared_cpu_list
/sys/devices/system/cpu/cpu11/cache/index1/type
/sys/devices/system/cpu/cpu11/cache/index1/size
/sys/devices/system/cpu/cpu11/cache/index1/level
/sys/devices/system/cpu/cpu11/cache/index1/coherency_line_size
/sys/devices/system/cpu/cpu11/cache/index1/shared_cpu_map
/sys/devices/system/cpu/cpu11/cpufreq
/sys/devices/system/cpu/cpu11/crash_notes
/sys/devices/system/cpu/cpu11/subsystem
$
Janos
2024-10-29, 15:43:21
ja mit KVM/QEMU scheint es ab Alderlake auch nur suboptimal zu funktionieren.
Steht bei Dir auch "<model>EPYC-Rome</model>" wenn du mit "virsh capabilities" abfragst?
Wenn ich "host-model" benutze steht im Taskmanager "Epyc Genoa", verwirrt mich gerade?
[manja01 ~]# virsh capabilities
<capabilities>
<host>
<uuid>1d8b0b23-7c10-7861-4fae-107c61784fad</uuid>
<cpu>
<arch>x86_64</arch>
<model>EPYC-Rome</model>
<vendor>AMD</vendor>
<microcode version='174068233'/>
<signature family='25' model='97' stepping='2'/>
<counter name='tsc' frequency='4499996000' scaling='yes'/>
<topology sockets='1' dies='1' clusters='1' cores='16' threads='2'/>
<maxphysaddr mode='emulate' bits='48'/>
<feature name='monitor'/>
<feature name='osxsave'/>
<feature name='ht'/>
<feature name='erms'/>
<feature name='invpcid'/>
<feature name='cmt'/>
<feature name='avx512f'/>
<feature name='avx512dq'/>
<feature name='avx512ifma'/>
<feature name='avx512cd'/>
<feature name='avx512bw'/>
<feature name='avx512vl'/>
<feature name='avx512vbmi'/>
<feature name='pku'/>
<feature name='ospke'/>
<feature name='avx512vbmi2'/>
<feature name='gfni'/>
<feature name='vaes'/>
<feature name='vpclmulqdq'/>
<feature name='avx512vnni'/>
<feature name='avx512bitalg'/>
<feature name='avx512-vpopcntdq'/>
<feature name='fsrm'/>
<feature name='flush-l1d'/>
<feature name='avx512-bf16'/>
<feature name='xsaves'/>
<feature name='mbm_total'/>
<feature name='mbm_local'/>
<feature name='cmp_legacy'/>
<feature name='extapic'/>
<feature name='ibs'/>
<feature name='skinit'/>
<feature name='wdt'/>
<feature name='tce'/>
<feature name='topoext'/>
<feature name='perfctr_nb'/>
<feature name='overflow-recov'/>
<feature name='succor'/>
<feature name='invtsc'/>
<feature name='ibrs'/>
<feature name='stibp-always-on'/>
<feature name='amd-ssbd'/>
<feature name='amd-psfd'/>
<feature name='lbrv'/>
<feature name='svm-lock'/>
<feature name='tsc-scale'/>
<feature name='vmcb-clean'/>
<feature name='flushbyasid'/>
<feature name='decodeassists'/>
<feature name='pause-filter'/>
<feature name='pfthreshold'/>
<feature name='avic'/>
<feature name='v-vmsave-vmload'/>
<feature name='vgif'/>
<feature name='vnmi'/>
<feature name='svme-addr-chk'/>
<feature name='no-nested-data-bp'/>
<feature name='lfence-always-serializing'/>
<feature name='null-sel-clr-base'/>
<feature name='auto-ibrs'/>
<pages unit='KiB' size='4'/>
<pages unit='KiB' size='2048'/>
<pages unit='KiB' size='1048576'/>
</cpu>
<power_management>
<suspend_mem/>
</power_management>
<iommu support='yes'/>
<migration_features>
<live/>
<uri_transports>
<uri_transport>tcp</uri_transport>
<uri_transport>rdma</uri_transport>
</uri_transports>
</migration_features>
<topology>
<cells num='1'>
<cell id='0'>
<memory unit='KiB'>94351556</memory>
<pages unit='KiB' size='4'>10480689</pages>
<pages unit='KiB' size='2048'>0</pages>
<pages unit='KiB' size='1048576'>50</pages>
<distances>
<sibling id='0' value='10'/>
</distances>
<cpus num='32'>
<cpu id='0' socket_id='0' die_id='0' cluster_id='65535' core_id='0' siblings='0,16'/>
<cpu id='1' socket_id='0' die_id='0' cluster_id='65535' core_id='1' siblings='1,17'/>
<cpu id='2' socket_id='0' die_id='0' cluster_id='65535' core_id='2' siblings='2,18'/>
<cpu id='3' socket_id='0' die_id='0' cluster_id='65535' core_id='3' siblings='3,19'/>
<cpu id='4' socket_id='0' die_id='0' cluster_id='65535' core_id='4' siblings='4,20'/>
<cpu id='5' socket_id='0' die_id='0' cluster_id='65535' core_id='5' siblings='5,21'/>
<cpu id='6' socket_id='0' die_id='0' cluster_id='65535' core_id='6' siblings='6,22'/>
<cpu id='7' socket_id='0' die_id='0' cluster_id='65535' core_id='7' siblings='7,23'/>
<cpu id='8' socket_id='0' die_id='1' cluster_id='65535' core_id='8' siblings='8,24'/>
<cpu id='9' socket_id='0' die_id='1' cluster_id='65535' core_id='9' siblings='9,25'/>
<cpu id='10' socket_id='0' die_id='1' cluster_id='65535' core_id='10' siblings='10,26'/>
<cpu id='11' socket_id='0' die_id='1' cluster_id='65535' core_id='11' siblings='11,27'/>
<cpu id='12' socket_id='0' die_id='1' cluster_id='65535' core_id='12' siblings='12,28'/>
<cpu id='13' socket_id='0' die_id='1' cluster_id='65535' core_id='13' siblings='13,29'/>
<cpu id='14' socket_id='0' die_id='1' cluster_id='65535' core_id='14' siblings='14,30'/>
<cpu id='15' socket_id='0' die_id='1' cluster_id='65535' core_id='15' siblings='15,31'/>
<cpu id='16' socket_id='0' die_id='0' cluster_id='65535' core_id='0' siblings='0,16'/>
<cpu id='17' socket_id='0' die_id='0' cluster_id='65535' core_id='1' siblings='1,17'/>
<cpu id='18' socket_id='0' die_id='0' cluster_id='65535' core_id='2' siblings='2,18'/>
<cpu id='19' socket_id='0' die_id='0' cluster_id='65535' core_id='3' siblings='3,19'/>
<cpu id='20' socket_id='0' die_id='0' cluster_id='65535' core_id='4' siblings='4,20'/>
<cpu id='21' socket_id='0' die_id='0' cluster_id='65535' core_id='5' siblings='5,21'/>
<cpu id='22' socket_id='0' die_id='0' cluster_id='65535' core_id='6' siblings='6,22'/>
<cpu id='23' socket_id='0' die_id='0' cluster_id='65535' core_id='7' siblings='7,23'/>
<cpu id='24' socket_id='0' die_id='1' cluster_id='65535' core_id='8' siblings='8,24'/>
<cpu id='25' socket_id='0' die_id='1' cluster_id='65535' core_id='9' siblings='9,25'/>
<cpu id='26' socket_id='0' die_id='1' cluster_id='65535' core_id='10' siblings='10,26'/>
<cpu id='27' socket_id='0' die_id='1' cluster_id='65535' core_id='11' siblings='11,27'/>
<cpu id='28' socket_id='0' die_id='1' cluster_id='65535' core_id='12' siblings='12,28'/>
<cpu id='29' socket_id='0' die_id='1' cluster_id='65535' core_id='13' siblings='13,29'/>
<cpu id='30' socket_id='0' die_id='1' cluster_id='65535' core_id='14' siblings='14,30'/>
<cpu id='31' socket_id='0' die_id='1' cluster_id='65535' core_id='15' siblings='15,31'/>
</cpus>
</cell>
</cells>
</topology>
<cache>
<bank id='0' level='3' type='both' size='32' unit='MiB' cpus='0-7,16-23'/>
<bank id='1' level='3' type='both' size='32' unit='MiB' cpus='8-15,24-31'/>
</cache>
<secmodel>
<model>none</model>
<doi>0</doi>
</secmodel>
<secmodel>
<model>dac</model>
<doi>0</doi>
<baselabel type='kvm'>+958:+958</baselabel>
<baselabel type='qemu'>+958:+958</baselabel>
</secmodel>
</host>
Zossel
2024-10-29, 18:09:59
ja mit KVM/QEMU scheint es ab Alderlake auch nur suboptimal zu funktionieren.
Steht bei Dir auch "<model>EPYC-Rome</model>" wenn du mit "virsh capabilities" abfragst?
Wenn ich "host-model" benutze steht im Taskmanager "Epyc Genoa", verwirrt mich gerade?
Ich reiche die Host-CPU einfach durch:
<cpu mode="host-passthrough" check="none" migratable="on"/>
Bumm, Peng, Basta, fertig, aus die Maus.
CPU Features scheinen ja bei dir alle da zu sein.
Ansonsten sind asymmetrische Cores eher suboptimal für VMs. Es gibt da wohl einen Patch aber wer tut sich diesen asymmetrischen Gurken-Kram von Intel schon an? Kann man sich antun, muss man aber nicht.
Ob unsere Scheduler-Experten hier im Forum den weiter tunen werden?
Bei ARM gibt es den Fall das das Alignment für Cache-Flushes unterschiedlich ist :-) Ist für JITs und DMA nicht so dolle.
Zen mit c gemischt mit Zen ohne c sollte einigermaßen flutschen.
Janos
2024-10-29, 18:34:54
Ich reiche die Host-CPU einfach durch:
<cpu mode="host-passthrough" check="none" migratable="on"/>
Bumm, Peng, Basta, fertig, aus die Maus.
CPU Features scheinen ja bei dir alle da zu sein.
Ansonsten sind asymmetrische Cores eher suboptimal für VMs. Es gibt da wohl einen Patch aber wer tut sich diesen asymmetrischen Gurken-Kram von Intel schon an? Kann man sich antun, muss man aber nicht.
Ob unsere Scheduler-Experten hier im Forum den weiter tunen werden?
Bei ARM gibt es den Fall das das Alignment für Cache-Flushes unterschiedlich ist :-) Ist für JITs und DMA nicht so dolle.
Zen mit c gemischt mit Zen ohne c sollte einigermaßen flutschen.
Ja Features passen nur der Name stimmt nicht, wobei es in Windows wieder richtig angezeigt wird.
In der Regel nehme ich aber auch host-passthrough, ab und an teste ich aber auch andere Einstellungen um zu sehen was sich über die Versionen ändert.
Bei meinem letzten Test hatte ich laut Aida64 konsistent 2ns bessere Memory Access time als mit host-passthrough und bei Timespy waren es 500 CPU Punkte mehr. Wobei Cyberpunkt und RDR2 leicht besser mit host-passthrough laufen.
Bei den QEMU Anpassungen für Intel kommt aktuell was in Schwung.
Bin am überlegen ob ich mir als Bastelprojekt nicht doch einen Ultra Intel hole.
Für Plex oder Jellyfin sind die schon nicht schlecht, so was wie Intel quick sync sollte AMD jetzt auch endlich mal gebacken bekommen.
https://www.phoronix.com/news/Intel-Core-Hybrid-Better-Virt
https://pretalx.com/kvm-forum-2024/talk/NYWTMH/
Zossel
2024-10-29, 19:52:15
Bei den QEMU Anpassungen für Intel kommt aktuell was in Schwung.
Es ist und bleibt halt raten was als nächstes passieren könnte.Und höher die Komplexität desto schlechter kann man raten. Und komplexe Vorhersagemodelle kosten auch Rechenzeit. Und dann auch noch den Quatsch für VM on top?
Auf Telefonen, Medienabspielern und ähnlichen Gedöns mag Big.Little seine Berechtigung haben, auf generischen Computern werden große Unterschiede in den Cores auf lange Zeit problematisch bleiben.
Einen zusätzlichen Batzen leicht kleinerer Cores die so auf der V/f Kurve platziert sind das man bei hoher Auslastung wo f wegen Power-Constrains eh nicht mehr maximal ist und die kleineren Cores ungefähr gleiches f erreichen wie die Großen aber dafür mehr Kleine als große Cores innerhalb des Power-Constrains laufen können kann sicherlich sinnvoll sein.
Das erhöht auch die Scheduler-Komplexität nur leicht, und wenn der Scheduler nicht richtig geraten hat sind die Auswirkungen auch nicht zu hoch.
Denk zum Beispiel an das Beispiel hier mit dem parallelen Zipper wenn deine Batches nicht in ungefähr der selben Zeit fertig werden die an die verschiedenen Cores geschoben werden. Entweder seekt man wie blöd in der Ausgabe rum oder, noch schlimmer man muß den Entpacker so umschreiben das die Batches out of Order in der Ausgabe liegen können und man im schlimmsten Fall auch noch in den verschiedenen Ausgabefiles wild rumseeken muss. Alles ätzend, langsam und vor allen Dingen fehlerträchtig. Die Annahme das die Dinger ungefähr schnell sind vereinfacht dieses Problem schon erheblich. Und dann kommt bestimmt der Nächste in ein paar Jahren mit zoned Storage um Ecke, vielen Dank auch.
Die Frage ist wiederum, kennt WinDOS die P- und E-Kerne von Arrow Lake? Wenn nicht dann wird es hier keine Unterscheidung machen. Deshalb braucht man wohl ein Upgrade des WinDOS-Kernels.
Falls Du Windows (11) meinst, ja kennt es. Man kann im Powerplan (sofern man die entsprechenden Optionnen in der Registry freischaltet) auch verschiedene Richtlinien fürs sheduling festlegen und die kompletten Prozessor-Energiesettings getrennt nach Processor Efficiency Class regeln, die Unterscheidung ist also definitiv da.
Janos
2024-11-01, 08:09:28
hat noch bisher noch niemand ohne e-Cores oder mit Process Laso getestet?
Da müsste man doch sehen können ob ein Scheduler Update hilft oder ob der Chip grundsätzliche Probleme wie zb. L3 Anbindung hat.
robbitop
2024-11-01, 08:24:46
Wie oft wurde CPU Performance bis dato (in einer bedeutsamen Art und Weise also nicht nur ein paar Prozent) durch Software (relativ zu seinem Vorgänger) gefixt? Seit… immer.
IMO: nie.
Da gibt’s wahrscheinlich nichts was zu fixen ist. Das Ding ist (wie Zen 5) wie es ist. Relativ zu seinem Vorgänger kein angemessener Sprung. Ein Fail. Kann man nix dran machen. Next try bei der next gen.
fondness
2024-11-01, 09:46:08
Wie oft wurde CPU Performance bis dato (in einer bedeutsamen Art und Weise also nicht nur ein paar Prozent) durch Software (relativ zu seinem Vorgänger) gefixt? Seit… immer.
IMO: nie.
Da gibt’s wahrscheinlich nichts was zu fixen ist. Das Ding ist (wie Zen 5) wie es ist. Relativ zu seinem Vorgänger kein angemessener Sprung. Ein Fail. Kann man nix dran machen. Next try bei der next gen.
Es gab vor kurzem einen ganz netten Zen-Patch in Windows, ein Mitgrund warum ARL so schlecht dasteht. ;)
y33H@
2024-11-01, 10:04:03
Ich finde die Formulierung "so schlecht" hier unangebracht, der 285K ist bei Gaming gleichauf mit Zen5 - bei klar höherer Effizienz wohlgemerkt.
dildo4u
2024-11-01, 10:07:56
Laut dem ist 9700x in Games schneller als alle Arrow Lake Modelle.
Richtig Strom hungrig ist nur der 12/16Core.
https://3dcenter.org/news/neuer-artikel-launch-analyse-intel-arrow-lake
Gipsel
2024-11-01, 10:14:00
Laut dem ist 9700x in Games schneller als alle Arrow Lake Modelle.Bei klar höherer Effizienz als der 285K wohlgemerkt. ;)
Man kann natürlich viel über eine bestimmte Spielauswahl erreichen. Um den 285K sparsamer als den 9700X zu bekommen, wird es aber eng.
y33H@
2024-11-01, 10:17:29
Ja, hab 9950X/9900X genommen wegen App-Performance ...
Janos
2024-11-01, 10:22:42
hätte Intel den Chip höher taken können, wäre das Thema Effizienz mit keinem Wort erwähnt
dildo4u
2024-11-01, 10:23:37
Selbst dort 285k geht doch bis 250Watt das wäre OC für 9950x.
Ich sehe hier keine bessere Effizienz.
200 Watt in Cinebench laut anandtech
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/4
Gipsel
2024-11-01, 11:36:50
Selbst dort 285k geht doch bis 250Watt das wäre OC für 9950x.
Ich sehe hier keine bessere Effizienz.
200 Watt in Cinebench laut anandtech
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/4y33H@ meinte vermutlich sowas wie Effizienz in Spielen/hoher Teillast. Weil für Volllast hast Du natürlich recht, daß das Powerlimit des intel um 25% höher als bei AMD liegt, was dann bei voller MT-Last auch zur Geltung kommt.
robbitop
2024-11-01, 12:24:25
Es gab vor kurzem einen ganz netten Zen-Patch in Windows, ein Mitgrund warum ARL so schlecht dasteht. ;)
Ja aber der hat ja relativ zum Vorgänger nichts gebracht. Und da war in Linux seit Tag 1 zu sehen, dass es das Potenzial gibt. Das ist ja beides mit dem Arrowlake nicht der Fall. :)
Und ansonsten sind 10% (die der Patch brachte) zwar messbar aber mMn nicht fühlbar und damit nicht wirklich bedeutungsvoll.
Ich finde die Formulierung "so schlecht" hier unangebracht, der 285K ist bei Gaming gleichauf mit Zen5 - bei klar höherer Effizienz wohlgemerkt.
Ggf zur Selbstreflektion: Ich finde dass man dir das deutlich anmerkt, dass du für Intel arbeitest. Früher zu Redakteurzeiten hattest du keinen bias. Ggf. kannst du das ja (das habe ich immer an dir geschätzt) in deiner privaten Zeit (Forum ist ja private Aktivität) wieder zurück drehen.
Man merkt, dass du nicht besonders kritisch bist, wenn es um deinen Arbeitgeber geht in deinen Posts. Versuchst, es möglichst positiv darzustellen. Klar kann ich verstehen - ist ja irgendwo auch öffentlicher Raum - aber ggf. postet man dann lieber gar nichts mehr zu den Thema in denen man befangen ist. Nur ein gut gemeinter Ratschlag - bitte nicht als Angriff auffassen.
Undertaker
2024-11-01, 12:58:42
Selbst dort 285k geht doch bis 250Watt das wäre OC für 9950x.
Ich sehe hier keine bessere Effizienz.
200 Watt in Cinebench laut anandtech
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/4
Und wo ist dort der 285K? In Cinebench R24 sind es wohl 8% mehr Leistung bei 10% mehr Verbrauch bzw. ist der 285K bei gleicher Leistungsaufnahme durchgängig schneller:
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-5#abschnitt_effizienz_in_anwendungen
Generell ist die Effizienz in Anwendungen im Mittel wohl recht vergleichbar, in Spielen liegt ARL dagegen spürbar vor Zen5 non-X3D. Der Unterschied ist vor allem bei den Dual-CCD-Modellen erheblich, hier skaliert Zen5 ziemlich schlecht:
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-5#abschnitt_effizienz_in_spielen
Zen5 X3D dürfte natürlich wieder vorn liegen, wenn man denn tatsächlich 500 Euro für einen 8-Kerner ausgeben möchte. Persönlich würde ich da wohl eher den 265K oder 9900X ins Auge fassen, von denen ich mir bei >5 Jahren Haltedauer eine bessere Alterung erhoffe (in Anwendungen sowieso).
Ggf zur Selbstreflektion: Ich finde dass man dir das deutlich anmerkt, dass du für Intel arbeitest. Früher zu Redakteurzeiten hattest du keinen bias. Ggf. kannst du das ja (das habe ich immer an dir geschätzt) in deiner privaten Zeit (Forum ist ja private Aktivität) wieder zurück drehen.
Man merkt, dass du nicht besonders kritisch bist, wenn es um deinen Arbeitgeber geht in deinen Posts. Versuchst, es möglichst positiv darzustellen. Klar kann ich verstehen - ist ja irgendwo auch öffentlicher Raum - aber ggf. postet man dann lieber gar nichts mehr zu den Thema in denen man befangen ist. Nur ein gut gemeinter Ratschlag - bitte nicht als Angriff auffassen.
Die zitierten Aussage ist doch objektiv vollkommen korrekt? Generell ist der durchschnittliche AMD-Bias selbst im im ARL-Thread leider so extrem, dass man nicht einmal auf die (durchaus vorhandenen Stärken) von ARL hinweisen kann... ;) Ich glaube nicht, dass y33H@ beispielsweise die höhere Spieleleistung von Zen5 X3D anzweifelt.
robbitop
2024-11-01, 16:52:00
Ist nur eines von vielen Beispielen und ein Aufhänger. Es geht auch nicht um korrekt oder nicht. Sondern um erkennbaren Bias. Er postet wenn dann nur positives über Intel. Einseitiges Betrachten = bias. Bias heißt nicht, dass etwas falsch sein muss. ;)
Undertaker
2024-11-01, 19:30:10
Na komm, selektives Hervorheben einzelner Aspekte ist doch ein vergleichsweise harmloser Punkt, viel schlimmer sind inhaltlich schlicht falsche Behauptungen oder komplett argumentationsfreies Bashing oder Hochjubeln. Auf so etwas zu reagieren, würde noch nicht einmal bias nennen. ARL wird, bei objektiv faktisch gleichem Gesamtpaket wie Zen 5 non-X3D, von den immer wieder gleichen Gesichtern gänzlich anders einsortiert.
Lehdro
2024-11-01, 20:08:19
in Spielen liegt ARL dagegen spürbar vor Zen5 non-X3D. Der Unterschied ist vor allem bei den Dual-CCD-Modellen erheblich, hier skaliert Zen5 ziemlich schlecht:
Dein "vor allem" impliziert dass das bei den Single-CCD-Modellen ebenso ist. Das stimmt aber nicht, da ist Intel derzeit eher gleichauf. Dass Zen 4 da ebenso vergleichbar ist, fällt bei CB komplett unter den Tisch, da die unverständlicherweise nicht einmal mitgetestet wurden. Schau mal bei PCGH (https://www.pcgameshardware.de/Core-Ultra-9-285K-CPU-280886/Tests/vs-14900k-Kaufen-Release-Specs-Preis-Benchmarks-Review-1458051/3/). Leider fehlt da der 7700 non-X. Nochmal: Zen 4 ist vergleichbar und zwei Jahre alt!
ARL wird, bei objektiv faktisch gleichem Gesamtpaket wie Zen 5 non-X3D, von den immer wieder gleichen Gesichtern gänzlich anders einsortiert.
Sieh es mal so: Wenn ich bei AMD Gamingperformance vergleichbar mit den 200ern haben will, kann ich 5700X3D, 7700(X), 9600X oder gar 9700X kaufen. Ich brauche also dafür nicht unbedingt eine 300€ + CPU. Wenn ich bei Intel ~285K Performance haben will, MUSS ich dieses Geld aber hinlegen, zumindest wenn ich die Effizienz mitkaufen will (245K ~ 320€). Das billigste Mainboard für S1851 kostet >200€, das billigste brauchbare(!) AM5 Board fast die Hälfte. Klar wird sich das in ein paar Monaten mit den B-Chipsätzen regeln, aber wie immer zeigt sich: Das passt nicht ohne die Budgetchipsätze. Als Plattform taugt ARL-S derzeit einfach nicht, weil es zu unrund ist: Kinderkrankheiten und Preise, halt das Gesamtpaket. Intel müsste hier mehr für weniger liefern, anstatt bei den CPUs gerade einmal gleichauf zu sein, aber ansonsten hintendran. Die neue Plattform ist eben ein Nachteil, wenn man die Features nicht unbedingt benötigt. Dasselbe Problem hatte AM5 genauso. Aber da kamen MB und CPU Preise runter, zumindest letzteres sehe ich so für Intel nicht. Das wäre sehr untypisch.
aufkrawall
2024-11-01, 20:11:29
ARL wird, bei objektiv faktisch gleichem Gesamtpaket wie Zen 5 non-X3D, von den immer wieder gleichen Gesichtern gänzlich anders einsortiert.
Taschentuch? Als ob Zen 5 hier in den Threads für Gaming gut wegkam. Paar Leute, die krampfhaft jeden Müll verteidigen müssen, gibt es immer. Das ist kein Argument.
Undertaker
2024-11-01, 20:35:22
Dein "vor allem" impliziert dass das bei den Single-CCD-Modellen ebenso ist. Das stimmt aber nicht, da ist Intel derzeit eher gleichauf. Dass Zen 4 da ebenso vergleichbar ist, fällt bei CB komplett unter den Tisch, da die unverständlicherweise nicht einmal mitgetestet wurden.
Im ersten (von dir nicht mit zitierten Satzteil) ging es um die Effizienz, ich glaube du bist gerade eher bei der Performance?
Sieh es mal so: Wenn ich bei AMD Gamingperformance vergleichbar mit den 200ern haben will, kann ich 5700X3D, 7700(X), 9600X oder gar 9700X kaufen.
14600KF anyone? Klar sind ältere Modelle bei P/L oftmals besser. Das ist aber ein anderes Thema.
Die Boards für ARL sind noch zu teuer bzw. fehlen die Einstiegsmodelle, zweifellos. Aber das sich das bei jeder neuen Plattform nach wenigen Monaten legt haben wir mittlerweile so oft durchgekaut, dass wir das nicht nochmal wiederholen müssen. Early adaptation lohnt sich nur selten, das zeigen auch die aktuell stark fallenden Zen 5 Preise gut.
Lehdro
2024-11-02, 00:10:52
Im ersten (von dir nicht mit zitierten Satzteil) ging es um die Effizienz, ich glaube du bist gerade eher bei der Performance?
Nein, ich meine schon Effizienz. ARL-S liefert hier nix Neues. AMD kann das seit X3D bzw. Zen 4 in derselben Leistungsklasse.
14600KF anyone? Klar sind ältere Modelle bei P/L oftmals besser. Das ist aber ein anderes Thema.
Dann fang doch nicht damit an.
Aber das sich das bei jeder neuen Plattform nach wenigen Monaten legt haben wir mittlerweile so oft durchgekaut, dass wir das nicht nochmal wiederholen müssen. Early adaptation lohnt sich nur selten, das zeigen auch die aktuell stark fallenden Zen 5 Preise gut.
Und noch ein Grund der derzeit gegen ARL-S spricht. Man kann das jetzt nicht guten Gewissens kaufen. Wer jetzt kaufen will, wird zu AMD greifen wenn es nicht gerade die Nische der Nischenanwendung sein muss als Ankerpunkt. Darum geht es doch. Lass in 3 Monaten noch mal drauf schauen, aber vorher wird sich nichts substantiell ändern. ARL-S ist derzeit DOA auf dem DIY Markt.
Prinzenrolle
2024-11-02, 01:12:37
Persönlich würde ich da wohl eher den 265K oder 9900X ins Auge fassen, von denen ich mir bei >5 Jahren Haltedauer eine bessere Alterung erhoffe (in Anwendungen sowieso).
Die zitierten Aussage ist doch objektiv vollkommen korrekt? Generell ist der durchschnittliche AMD-Bias selbst im im ARL-Thread leider so extrem, dass man nicht einmal auf die (durchaus vorhandenen Stärken) von ARL hinweisen kann... ;)
Jeder hat einen Bias, niemand ist hier objektiv, von daher finde ich die Aussagen von robittop schon an eine gewisse Stufe der Unverschämtheit grenzend. Ich würde dir weitgehend Recht geben, nur bis Spiele zuverlässig von mehr als 8 Kernen profitieren, witd der 9900X oder 265K längst veraltet sein und somit bleibt der X3D die bessere Wahl.
Man kann heute auch noch mit 4Kernen und HT gut spielen.
Prinzenrolle
2024-11-02, 01:14:39
Ist nur eines von vielen Beispielen und ein Aufhänger. Es geht auch nicht um korrekt oder nicht. Sondern um erkennbaren Bias.
Redest du jetzt von Gipsel? :D
Hat der schonmal je was positives zu Intel gesagt? 😜
Gipsel
2024-11-02, 09:07:11
Redest du jetzt von Gipsel? :D
Hat der schonmal je was positives zu Intel gesagt? 😜
So Einiges. Liegt wohl an Deinem Bias, das nicht zu sehen. :wink:
MiamiNice
2024-11-02, 09:46:32
Man kann heute auch noch mit 4Kernen und HT gut spielen.
Da hast Du sicherlich bei vielen Spielen recht aber eben nicht bei allen. Kommt auf die Auswahl der Titel an. Ich finde das kann man daher nicht so verallgemeinern.
Zossel
2024-11-02, 10:47:21
Ist nur eines von vielen Beispielen und ein Aufhänger. Es geht auch nicht um korrekt oder nicht. Sondern um erkennbaren Bias. Er postet wenn dann nur positives über Intel. Einseitiges Betrachten = bias. Bias heißt nicht, dass etwas falsch sein muss. ;)
Ich finde Intel objektiv scheiße, und zwar aus drei Gründen:
- Technisch ist der Kram von Intel stinklangweilig.
- Für jedes kleinste Feature extra Kohle zu verlangen läuft meinen Interessen als Konsument diametral entgegen.
- Ich habe keine Lust mir die ganzen Namen zu merken, Intel soll seine Cores einfach durchnummerieren.
Prinzenrolle
2024-11-02, 15:42:18
So Einiges. Liegt wohl an Deinem Bias, das nicht zu sehen. :wink:
Ah, her mit einem Beispiel.
Gipsel
2024-11-02, 17:21:38
Ah, her mit einem Beispiel.
Jetzt nur mal bei den neuesten Arrow und LunarLakes habe ich deren E-Cores ausdrücklich als gut hervorgehoben und die konkurrenzfähige GPU sowie das gute SoC-Design von LunarLake (mit Einschränkungen auch das von ArrowLake) gelobt, insbesondere in Bezug auf den geringen idle-Verbrauch (und habe im Gegenzug z.B. AMD dafür kritisiert, daß sie die [vorhandenen] Stromsparmechanismen der GMI-Links zwischen CCDs und IO-Die offenbar nicht aktivieren).
Aber ich bin natürlich nicht in Jubelstürme über andere Sachen ausgebrochen, wo das ungerechtfertigt gewesen wäre. Ehrlich muß man schon bleiben.
PS:
Das war nur dafür da, Deine Frage zu beantworten. Für die Zukunft würde ich mir wünschen, daß das Thema des Threads im Vordergrund steht und nicht Deine Meinung über andere Diskussionsteilnehmer hier im Forum. ;)
mocad_tom
2024-11-02, 18:42:24
Bei Arrow ist fast alles neu.
Die Cores Lion Cove und Skymont - vor wenigen Wochen ist zwar der Lunar rausgekommen, der war aber nur für effiziente Laptops gedacht.
Also: Core(s) ist neu.
Chiplet-Design, so wie Arrow jetzt dasteht für Desktop ist neu.
Uncore ist neu.
Neue Mainboards.
Es wurde viel am MemController rumgearbeitet.
Man sieht ja wie aktuell die Weltrekorde bei den Speicherriegeln fallen.
Bei Zen5 wurde das IO-Die nicht gewechselt.
Wer nun hergeht und in beide Systeme den gleichen Speicher steckt, der macht doch etwas falsch. Zen 4 mit diesem IO-Die wurde im September 2022 vorgestellt. Und damals schon konnte der MemController vom 12900K mehr als der MemController vom Zen4.
Und Intel macht da ja gerade weiter. CUDIMM scheint wirklich richtig gut zu gehen. Ein CUDIMM mit DDR5-8800 CL30 würde gerade noch in Gear 2 laufen und hätte niedrige CL-Werte.
Und man würde für Zen4/5 guten Speicher ja auch verbilligen.
Wäre 14900K nicht so gierig nach gutem Speicher hätte sich der Markt nicht so positiv entwickelt(erst Nachfrage, dann Angebot). Wir sehen hier mit ARL den nächsten Schritt.
Und wegen des guten MemController von ARL sehen wir jetzt dann auch vernünftige Setups mit 192GB Speicher(zwar noch nicht mit CUDIMM, aber immerhin). Der 14900K muss da mit der Geschwindigkeit aktuell schon ganz schön runter.
Dual Rank und zwei DIMMs pro Kanal sind fordernd.
Und dann zur neuen Durchnummerierung der Cores:
Also gleich am Anfang 2 P-Cores, dann 8 E-Cores......
Handoptimierte Core-Zuweisungen müssen sich dorthin adaptieren, aber ab dann wird es besser. Allgemein: Arrow-Lake wird eigentlich gutmütiger. Auch weil zwischen Skymont und Lion Cove kein so riesiger Perfunterschied mehr ist.
Aber wie oben bereits angesprochen - es ist alles neu.
Da sind die Ryzen mit zwei CCD eigentlich fragiler(besonder die gemischt konfigurierten, 1 x3d / 1 normal).
Ja Arrow/1851 ist eine Bananenplattform, aber da geht noch was.
Und der 9800X3D ist nicht der eigentliche Gegenspieler zum 285K
Der 9950X3D kommt erst im Januar.
Platos
2024-11-02, 23:02:49
Jetzt nur mal bei den neuesten Arrow und LunarLakes habe ich deren E-Cores ausdrücklich als gut hervorgehoben und die konkurrenzfähige GPU sowie das gute SoC-Design von LunarLake (mit Einschränkungen auch das von ArrowLake) gelobt, insbesondere in Bezug auf den geringen idle-Verbrauch[...]
Ich finde Arrowlake zwar uninteressant wegen der Gaming-Perfomance, aber bei der Effizienz bei Anwendungen hat Arrowlake bei CB schon gut abgeschnitten, wenn man das Powerlimit anpasst: https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-5#abschnitt_effizienz_in_anwendungen
So bei 75Watt rum schafft der 285k ca. 1875 Punkte. Zen5 braucht da bei CB viel mehr. Der 265k sieht da vermutlich weniger effizient aus, da ja die E-Cores deutlich mehr an Effizienz gewonnen haben, wie die P-Cores. Aber beim 285k ist die Effizienz unter Cinebench bei wenig Stromverbrauch deutlich höher. Ab 75Watt gleicht es sich dann langsam immer näher an Zen5 an, bis es dann bei ~130Watt wieder fast gleich ist. Aber wer möglichst viel Perfomance bei halbwegs "normalem" Verbrauch haben will, ist hier mit Intel besser bedient.
Ich finde Arrow-Lake hat so ein Zen1 Moment (mit dem Unterschied, dass sie Konkurrenzfähig sind bei der Perfomance in allen Bereichen, was Zen1 nicht war).
Da muss schon noch ordentlich was gemacht werden (Energieeffizienz noch weiter steigern (vor allem der P-Cores), mehr IPC beider Cores bzw. mehr Perfomance unter Gaming und Anwendungen). Aber Potential hat es, finde ich.
MSABK
2024-11-03, 08:11:50
Klar hat es Potenzial. Aber auch im Intel Prozess?
fondness
2024-11-03, 08:21:00
Ich finde Arrow-Lake hat so ein Zen1 Moment (mit dem Unterschied, dass sie Konkurrenzfähig sind bei der Perfomance in allen Bereichen, was Zen1 nicht war).
In allen Bereichen? Sie werden in der wichtigsten Metrik am Desktop, nämlich der gaming Performance in Kürze blamiert. So einen großen Rückstand gab es schon ewig nicht mehr. Alles andere interessiert höchstens eine Randgruppe, denn ansonsten gibt es kaum einen Grund sich einen Desktop zu kaufen.
Platos
2024-11-03, 08:25:03
Klar hat es Potenzial. Aber auch im Intel Prozess?
Ja, das frage ich mich auch. Der letzte Stand ist glaube ich der Wunschtraum von 70% der Fertigung inhouse bei Pantherlake und nahezu komplett inhouse bei Novalake. Wobei man hier irgendwie schon die Frage aufstellen kann, ob es sich hier nur um Mobile handelt, da mit Pantherlake argumentiert wird.
Also bei Intels fertigung bin ich jetzt nicht so gutgläubig. Die wichtigere Frage ist hier für mich, ob Intel auf TSMC setzt, falls die Intel-Fertigung (mal wieder) zeitlich abkackt oder ob sie dann (mal wieder) auch die CPU Generationen hinausschieben.
In allen Bereichen? Sie werden in der wichtigsten Metrik am Desktop, nämlich der gaming Performance in Kürze blamiert. So einen großen Rückstand gab es schon ewig nicht mehr. Alles andere interessiert höchstens eine Randgruppe, denn ansonsten gibt es kaum einen Grund sich einen Desktop zu kaufen.
In allen Bereichen, bis auf den Top-Dog, den haben sie nicht. Aber ich beziehe mich ja auf die ganze Arch und nicht auf einzelne Modelle.
Ja, der 7800X3D ist 9% schneller im Gaming, aber der Unterschied zu Zen1 (der im Gaming noch weiter dahinter war) ist, dass es kein extrem schwankendes Ergebnis ist. Bei Zen1 war der Durchschnitt schlecht, aber es gab noch Jahrelang viele Spiele mit extremen Ausreisser, so dass man die Architektur einfach nicht für Gaming gebrauchen konnte anfnags. Es gab immer das Risiko, dass dann die CPU beim nächsten Spiel ein enormes Nachsehen hat (auch wenn der Duechschnitt "nur" bei minus 15% lag). Daher sind die 9% eben auch nicht die Welt bei Intel, da es ein relativ konsistenes Ergebnis ist.
Aber natürlich: Der Topd-Dog kommt nicht von Intel rein für Gaming. Aber da du ja so schön von "Randgruppen" redest, wirst du ja wissen, dass genau dieser in diese Randgruppe fällt. Es ist sogar so, dass jede Zen5 CPU und die teureren X3D CPUs alle nur von Randgruppen gekauft wird. Das gilt auch für Arrowlake.
Und nein, hier im Forum (in dem wir gerade Diskutieren), ist nunmal Gaming nicht alles. Du kannst das gerne für dich so sagen. Wenn du aber schon mit der Masse argumentierst, dann kannst du auch keine teuren CPUs da mitrein nehmen. So funktionierts nicht ;)
MSABK
2024-11-03, 08:48:47
Ich sehe die Intel Fabs als tot an. Die werden vollständig zu tsmc gehen. Die Intel Ferigung ist wie die Samsung Fertigung: Zweite Geige.
fondness
2024-11-03, 09:02:22
Ja, der 7800X3D ist 9% schneller im Gaming, aber der Unterschied zu Zen1 (der im Gaming noch weiter dahinter war) ist, dass es kein extrem schwankendes Ergebnis ist. Bei Zen1 war der Durchschnitt schlecht, aber es gab noch Jahrelang viele Spiele mit extremen Ausreisser, so dass man die Architektur einfach nicht für Gaming gebrauchen konnte anfnags. Es gab immer das Risiko, dass dann die CPU beim nächsten Spiel ein enormes Nachsehen hat (auch wenn der Duechschnitt "nur" bei minus 15% lag). Daher sind die 9% eben auch nicht die Welt bei Intel, da es ein relativ konsistenes Ergebnis ist.
Lebst du in einem Paralleluniversum? :ugly: Gerade beim 285K gibt es enorme Ausreißer, wo der 7800X3D auf einmal 50% vorne ist. Der 9800X3D wird da nochmal eins drauf legen.
Aber natürlich: Der Topd-Dog kommt nicht von Intel rein für Gaming. Aber da du ja so schön von "Randgruppen" redest, wirst du ja wissen, dass genau dieser in diese Randgruppe fällt. Es ist sogar so, dass jede Zen5 CPU und die teureren X3D CPUs alle nur von Randgruppen gekauft wird. Das gilt auch für Arrowlake.
Und nein, hier im Forum (in dem wir gerade Diskutieren), ist nunmal Gaming nicht alles. Du kannst das gerne für dich so sagen. Wenn du aber schon mit der Masse argumentierst, dann kannst du auch keine teuren CPUs da mitrein nehmen. So funktionierts nicht ;)
Das 1% der Desktop-Anwender, das sich wirklich primär für Blender oder Cinebench-Performance interessiert, kauft sich einen Threadripper. Da reden wir dann von mehreren 100% mehr Performance. Alle anderen kaufen sich einen Desktop primär wegen Gaming, das zeigen auch alle Verkaufszahlen bei Retailern wie bsw. Mindfactory dass sich nur CPUs gut verkaufen die im Gaming stark sind. Wer Gaming nicht braucht, hat längst ein Notebook und kauft sich keinen riesigen Desktop.
Platos
2024-11-03, 09:05:49
Ich sehe die Intel Fabs als tot an. Die werden vollständig zu tsmc gehen. Die Intel Ferigung ist wie die Samsung Fertigung: Zweite Geige.
Soweit würde ich jetzt auch nicht gehen. Ich denke (mit ein bisschen Hoffnung) schon, dass Intel wieder nach oben kommt mit der Fertigung. Sie müssen ja nicht gleich führend sein. Man kann auch (am Ende) ~ gleich auf liegen, wenn die Fertigung 10% weniger gut ist (solange die Yieldrate und somit das Volumen und Wirtschaftlichkeit stimmt).
Das muss man dann eben mit der Arch kompensieren. Und ich sehe eher hier das Problem. Mit Arrowlake konnten sie hier endlich mal etwas reissen. Wir werden mit Pantherlake und Novalake dann den entgültigen "Beweis" haben, obs primär an der Fertigung oder an der Arch lag. Da ja die kleinen E-Cores deutlich effizienter wurden mit Arrowlake, wie die P-Cores, kann man aber darauf schliessen, dass es an der Arch liegt.
Kurz gesagt: Es liegt/lag doch schon lange auf der Hand, dass Intel nicht einfach nur mit der Fertigung immer zurück liegt, sondern die Arch auch einfach scheisse war (Perfomance/Energie). Eben Bulldozer-like (mit dem Unterschied, aber auch bisher oben mitspielen zu können).
Also ich sage: Intel muss vor allem mal öfters in der Arch so zulegen, wie jetzt mit Arrowlake. Bisher haben sie (abgesehen von Alderlake) nichts zustande gebracht seit Skylake. Die haben immer "nur" den Takt und Kernanzahl nach oben skaliert. Erst mit Alderlake gabs auch mal richtig mehr IPC. Während dessen hat AMD mit Zen eine Generation nach dem anderen raus gebracht, die mehr IPC hatte. Glück für intel war nur, dass sie zuerst mal 4 Generationen (Zen3) brauchten, um im Gaming komplett aufzuschliessen.
Fertigung ist m.M.n nebensächlich. Die brauchen vor allem jetzt alle 2 Jahre nen richtig fetten Architektur-Boost.
Auch beim 285K gibt es enorme Ausreißer, wo der 7800X3D auf einmal 50% vorne ist. Ich sage nur Cyberpunk. Der 9800X3D wird da nochmal eins drauf legen.
Das 1% der Desktop-Anwender, das sich wirklich primär für Blender oder Cinebench-Performance interessiert, kauft sich einen Threadripper. Da reden wir dann von mehreren 100% mehr Performance. Alle anderen kaufen sich einen Desktop primär wegen Gaming, das zeigen auch alle Verkaufszahlen bei Retailern wie bsw. Mindfactory dass sich nur CPUs gut verkaufen die im Gaming stark sind. Wer Gaming nicht braucht, hat längst ein Notebook und kauft sich keinen riesigen Desktop.
Die Ausreisser von Zen1 vs Kaby Lake sind um welten Grösser, wie die Ausreisser bei Arrow-Lake vs Zen4/5 (aber aus Neugierde: Kannst du mir diese 50% verlinken? )
Aha, wieder von Masse und Nische auf der einen Seite argumentieren und dann auf der anderen Seite mit Mindfactory Statistik argumentieren...
Abgesehen davon: Wer Multithread zu möglichst wenig Tarif haben will, der kauft ganz klar Intel. Threadripper kaufen Leute, die 64/32 Kerne brauchen. Es gibt auch noch etwas zwischen Threadripper und nem 8-Kerner und da ist Intel bekanntermassen ja deutlich besser im P/L.
Aber warum du hier krampfhaft versuchst nur Gaming als relevant darzustellen, ist natürlich dir überlassen. Kannst du gerne weiter alleine diskutieren.
fondness
2024-11-03, 09:24:07
Die Ausreisser von Zen1 vs Kaby Lake sind um welten Grösser, wie die Ausreisser bei Arrow-Lake vs Zen4/5 (aber aus Neugierde: Kannst du mir diese 50% verlinken? )
Na wenn du das sagst. Ich mache mir jetzt sicher nicht die Mühe nochmal das Review zu suchen wo das so war. Man braucht ja nur bei bisschen schauen. Ausreise von 30%+ sind sogar häufig. Hier von konsistenter Performance zu sprechen halte ich für absurd. Und wie gesagt der 9800X3D wird da noch mal eins drauf legen.
/Edit: Ich habs sogar wieder gefunden:
https://i.postimg.cc/ZKzdRfmc/CP2077-p.webp (https://postimg.cc/Dm5ZpP8J)
https://www.techspot.com/review/2911-intel-core-ultra-9-285k/
Aha, wieder von Masse und Nische auf der einen Seite argumentieren und dann auf der anderen Seite mit Mindfactory Statistik argumentieren...
Abgesehen davon: Wer Multithread zu möglichst wenig Tarif haben will, der kauft ganz klar Intel. Threadripper kaufen Leute, die 64/32 Kerne brauchen. Es gibt auch noch etwas zwischen Threadripper und nem 8-Kerner und da ist Intel bekanntermassen ja nun deutlich besser im P/L.
Aber warum du hier krampfhaft versuchst nur Gaming als relevant darzustellen, ist natürlich dir überlassen. Kannst du gerne weiter alleine diskutieren.
Wer High-End-Desktop-CPUs kauft tut das primär wegen Gaming, das zeigen alle Zahlen. Kann man natürlich gerne negieren. Und btw. wo genau hat Intel das bessere P/L-Verhältnis? :ugly:
Platos
2024-11-03, 09:34:21
Keinen Sinn mit dir zu diskutieren.
Aber hey, wenn du wissen willst, wann das P/L bei wem besser ist, kann ich dir das empfeheln: "Ich mache mir jetzt sicher nicht die Mühe nochmal das Review zu suchen wo das so war. Man braucht ja nur bei bisschen schauen."
aber ansonsten: 14700 von Intel ist 100 Euro billiger als 9900X von AMD bei Geizhals. Ist aber in etwa gleich auf im Multithread bei Cinebench bzw. bei Anwendungen (Quelle: Raptorlake Launch Analyse).
Ist dann meine letzte Antwort an dich, wenn du nicht fähig bist, zu belegen, was du behauptest.
fondness
2024-11-03, 09:36:48
LOL, ich habs 7 Minuten vor deinem Beitrag eingefügt.
Und der 14700 ist alter Kaffee der wohl auslaufen wird.
Platos
2024-11-03, 09:49:00
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-2#abschnitt_cyberpunk_2077
Bei CB sinds 16% bzw. 17% Vorsprung bei 1% low im exakt gleichen Spiel.
Weiss auch nicht, was bei Techspot falsch läuft. Das sind zu unterschiedliche Resultate, um es als normale Abweichung abzutun. Bei Techspot gibts üble aussreisser, die es in anderen Tests anscheinend nicht gibt.
fondness
2024-11-03, 10:04:24
https://www.computerbase.de/artikel/prozessoren/intel-core-ultra-200s-285k-265k-245k-test.90019/seite-2#abschnitt_cyberpunk_2077
Bei CB sinds 16% bzw. 17% Vorsprung bei 1% low im exakt gleichen Spiel.
Weiss auch nicht, was bei Techspot falsch läuft. Das sind zu unterschiedliche Resultate, um es als normale Abweichung abzutun. Bei Techspot gibts üble aussreisser, die es in anderen Tests anscheinend nicht gibt.
Es sind 30% bei den avg fps auch bei CB. Klar kann man jetzt die Reviews madig machen, aber man sieht bei Cyberpunk häufig 40% oder mehr.
https://i.postimg.cc/wMNFNFwp/bzly1hbe7qwd1.png (https://postimg.cc/SYyWFL0T)
https://i.postimg.cc/JhdQdSg8/UFn-XMY6-V59-WHDfe-W9t-Gq-U6-1200-80-png.webp (https://postimg.cc/PLYZCVTV)
dildo4u
2024-11-03, 10:07:24
Cyberpunk skaliert nicht 245k und 285k sind fast gleich schnell daher die schlechten Werte bei Techspot.
https://i.ibb.co/541Wk4R/cyberpunk-2077-rt-1280-720.png (https://ibb.co/nmwsBmL)
https://www.techpowerup.com/review/intel-core-ultra-9-285k/18.html
Alleine der höhere Takt sollte mehr Performance bringen.
fondness
2024-11-03, 10:10:46
Cyberpunk skaliert nicht 245k und 285k sind fast gleich schnell daher die schlechten Werte bei Techspot.
https://i.ibb.co/541Wk4R/cyberpunk-2077-rt-1280-720.png (https://ibb.co/nmwsBmL)
https://www.techpowerup.com/review/intel-core-ultra-9-285k/18.html
Alleine der höhere Takt sollte mehr Performance bringen.
Danke. Und es ist nicht nur Cyberpunk. Es gibt ein paar Spiele mit deutlichen Ausreißern.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.