Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake (Lion Cove+Skymont, Xe HPG, LGA1851, 20A+N3B, 2024)
Seiten :
1
2
3
4
[
5]
6
7
8
9
Exxtreme
2024-08-11, 15:05:06
Spiele lieben L3 cache je mehr desto besser also ist man sehr wohl Bandbreiten limitiert
Nein. Spiele lieben in allererster Linie niedrige Latenzen. Das ist der Grund warum der L3-Cache so regelt. Mit Bandbreite skalieren sie kaum. Sieht man auch hier:
https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Specials/Ryzen-7-5800X3D-5800X-RAM-Skalierung-3D-V-Cache-1394526/2/
Der zusätzliche Cache erhöht die RAM-Bandbreite nur sehr unwesentlich. Damit wären fps-Unterschiede von 30% nicht ansatzweise zu erklären.
reaperrr
2024-08-11, 15:15:11
Nein. Spiele lieben in allererster Linie niedrige Latenzen. Das ist der Grund warum der L3-Cache so regelt. Mit Bandbreite skalieren sie kaum. Sieht man auch hier:
https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Specials/Ryzen-7-5800X3D-5800X-RAM-Skalierung-3D-V-Cache-1394526/2/
Der zusätzliche Cache erhöht die RAM-Bandbreite nur sehr unwesentlich. Damit wären fps-Unterschiede von 30% nicht ansatzweise zu erklären.
So ist es.
Übrigens ein Grund, warum der größere L2 von Raptor gar nicht sooo wahnsinnig viel IPC in Spielen gebracht hat:
Die Latenz des L2 is bei Intel u.a. wegen der Größe relativ hoch, deutlich höher als bei AMD.
Definitiv ein Grund, warum mit Arrow Lake noch die 192KB "L1,5" zwischengeschaltet werden, damit sich eine weitere Vergrößerung und Latenzerhöhung des L2 nicht so negativ auf die Performance in Latenz-sensitiven Anwendungen auswirkt.
Altehardware
2024-08-11, 15:57:50
Genau war es cl20 ddr4 2133 18ns und cl18 ddr4 3600 10ns
Aktuell läuft ddr4 2666 cl20 15ns
Cpu r7 3800xt stock grob zwischen 3,9-4,4ghz meist 4,2ghz
0,9ns L1, 2,7ns L2, 9,9ns L3
Mem 90ns was langsam
edit
Spiele lieben Latenzen besonders kurze aber nicht alle ansonsten würde der x3d nicht so gut funktionieren.
Der 5800x3d ist um 400mhz langsamer als der non x3d und ist schneller demzufolge größere Latenzen.
So ist es.
Übrigens ein Grund, warum der größere L2 von Raptor gar nicht sooo wahnsinnig viel IPC in Spielen gebracht hat:
Die Latenz des L2 is bei Intel u.a. wegen der Größe relativ hoch, deutlich höher als bei AMD.
Definitiv ein Grund, warum mit Arrow Lake noch die 192KB "L1,5" zwischengeschaltet werden, damit sich eine weitere Vergrößerung und Latenzerhöhung des L2 nicht so negativ auf die Performance in Latenz-sensitiven Anwendungen auswirkt.
Jo bin ich auch sehr gespannt. Für Spiele ist das sicherlich das interessanteste neue Feature an der CPU.
MiamiNice
2024-08-11, 19:00:09
Wer denkt das intel hier an die spitze kommt irrt intel wird ebenso mit arrow lake gerade mal die perf der ci 14th gen erreichen und deutlich an der Effizienz gearbeitet haben was sie mussten.
Ja, aber bei Intel kann man den ganzen Käse umgehen und trotzdem Takt und Verbrauch bis ins ultimo fahren, so lange man den Kram kühlen kann. Intel war mit OC immer an der Spitze, ist es auch jetzt noch nach dem Zen5 Release und wird wahrscheinlich auch nicht die Krone vs. Zen5 3D verlieren. Sieht man nur nicht, weil die Damen aus der Fachpresse nur OOTB testen mit standard Ram und ständig was von Effizienz faseln. Und selbst mit standard Ram und OOTB lässt der 14900k den Zen5 oft im CPU Limit stehen. Da wird es für ARL doch wohl ein leichtes sein das zu übertrumpfen.
iamthebear
2024-08-11, 19:03:47
Spiele sind ein interessanter Sonderfall, da sich der Ablauf jedes Frame wiederholt.
Das Ziel ist es, dass der L3 so groß ist, dass alle Daten die während eines Frames benötigt werden hinein passen. Dann müssen sich die Daten aus dem RAM geladen werden, die sich von Frame zu Frame geändert haben und das sind relativ wenig.
Wie wiele Daten das sind ist von Spiel zu Spiel unterschiedlich. Bandbreitenintensive Spiele mit niedrigerer Framerate (im CPU Limit) brauchen mehr L3 als leichtere Spiele mit höherer Framerate.
Der zusätzliche Cache erhöht die RAM-Bandbreite nur sehr unwesentlich. Damit wären fps-Unterschiede von 30% nicht ansatzweise zu erklären.
Wenn ein X3D mit 96MB L3 nur die halbe Missrate von einem 32MB L3 hat dann muss nur die halbe Menge an Daten vom RAM geladen werden.
Klar bei einem sequentiellen AIDA Benchmarks siehst du da nichts (da Missrate = 100%) aber in typischen Gaming Workloads macht das einen riesigen Unterschied.
Ob das Spiel diese zusätzliche Bandbreite braucht ist wieder eine andere Sache. Das hängt stark vom Spiel ab wobei der Trend klar zu mehr Threads und mehr Bandbreitenlimitierung geht.
Übrigens ein Grund, warum der größere L2 von Raptor gar nicht sooo wahnsinnig viel IPC in Spielen gebracht hat:
Zusätzlicher L2 bringt bei Spielen eher wenig, da der Workload eine Größe hat, dass die Daten sowieso nicht in den L2 passen.
Der Hauptgrund für die Vergrößerung des L2 dürfte ohnehin nicht die Latenz sein sondern, dass der Ring entlastet wird.
Im Fall von Intel ergibt sich jedoch ein weiterer Vorteil:
Wenn die Threads (z.B. mittels APO) richtig verteilt werden so dass der L2 auch tatsächlich ausgenutzt wird (auch der der E Core Cluster) dann müssen weniger Daten im L3 gehalten werden wodurch dieser effektiv größer wird. 68MB L2+L3 wirken mehr als 36MB L3 alleine.
Die Latenz des L2 is bei Intel u.a. wegen der Größe relativ hoch, deutlich höher als bei AMD.
Definitiv ein Grund, warum mit Arrow Lake noch die 192KB "L1,5" zwischengeschaltet werden, damit sich eine weitere Vergrößerung und Latenzerhöhung des L2 nicht so negativ auf die Performance in Latenz-sensitiven Anwendungen auswirkt.
Die Größe des L2 ist immer ein Tradeoff.
Ist dieser zu groß, schadet dies Workloads, die gerade nicht mehr in den L1 passten (z.B. 100-200KB). Ist dieser zu klein ist die Last auf dem Ringbus zu groß was die effektive L3 Latenz noch deutlich erhöht.
Intel scheint hier überhaupt einen kleinen Kunstgriff gemacht zu haben.
Normalerweise werden die Cachestufen nacheinander durchsucht. Im Fall von L1.5 und L2 scheint Intel diese jedoch parallel zu durchsuchen, denn sonst würden sich die Latenzen nicht erklären lassen.
Damit hat man die Vorteil aus beiden Welten. Alle Workloads <192KB kann man mit blitzschnellen L1.5 Latenzen bedienen und die 3MB L2 deckt größere Workloads ab ohne dabei die Latenzen gegenüber einem 3 Level Design zu erhöhen.
dildo4u
2024-08-12, 09:31:54
Ja, aber bei Intel kann man den ganzen Käse umgehen und trotzdem Takt und Verbrauch bis ins ultimo fahren, so lange man den Kram kühlen kann. Intel war mit OC immer an der Spitze, ist es auch jetzt noch nach dem Zen5 Release und wird wahrscheinlich auch nicht die Krone vs. Zen5 3D verlieren. Sieht man nur nicht, weil die Damen aus der Fachpresse nur OOTB testen mit standard Ram und ständig was von Effizienz faseln. Und selbst mit standard Ram und OOTB lässt der 14900k den Zen5 oft im CPU Limit stehen. Da wird es für ARL doch wohl ein leichtes sein das zu übertrumpfen.
Die konversativen Tests waren doch ok, die Chips vertragen nicht mal Intel Spec auf dauer erst das neue BIOS verhindert Spitzen über 1.55Volt.
https://www.hardwareluxx.de/index.php/news/hardware/mainboards/64193-begrenzt-auf-1,55-v-intel-und-mainboard-hersteller-verteilen-microcode-update-0x129.html
Nicht vergessen die neuen Chips nutzen noch feinere Fertigung sind also vermutlich anfälliger für Elektromigration.
AMD kappt seine 4nm TSMC CPU unter 1.4 Volt.(Selbst mit PBO und bei 160Watt)
https://youtu.be/RzoO1zuzivM?si=RbeUhBMd8uoaYEFJ&t=1797
fondness
2024-08-14, 10:54:12
ST kann nur leicht steigen bei 5.7 Ghz und 14% mehr IPC. Alles andere bleibt abzuwarten. Speziell bei der gaming leisten muss man sehen, wie sich der ausgelagerte IMC auf die Latenzen auswirkt.
Ja, ST wird nicht viel steigen, dafür sollte es sonst klar Fortschritte geben. Zum einen dürfte die Perf/Watt dank TSMC 3nm deutlich steigen und zum anderen sollte durch die wesentlich schnelleren e-Cores und der schon angesprochenen besseren Perf/Watt auch die Multi-Core-Performance deutlich steigen.
iamthebear
2024-08-14, 20:32:56
Bitte nicht vergessen: Die 14% IPC bezogen sich aif Redwood Cove, nicht Raptor Cove.
MTL war auch bei der IPC hinter Raptor Lake zurück und die Latenzen waren so grauenhaft, dass es in einem Gaming Desktop Review mit RTX 4090 statt der iGPU ein riesiges Drama gegeben hätte.
Nightspider
2024-08-14, 21:06:32
Da ich bei Intel nicht so oft vorbeischaue:
Was ist denn aktuell ein realistischer Release Zeitraum?
dildo4u
2024-08-14, 21:13:25
Angeblich dieses Jahr aber nicht der genaue Monat.
https://www.computerbase.de/2024-06/intel-panther-lake-2025er-client-cpus-setzen-voll-auf-intel-18a-und-nicht-tsmc/
MSABK
2024-08-14, 21:33:55
Bitte nicht vergessen: Die 14% IPC bezogen sich aif Redwood Cove, nicht Raptor Cove.
MTL war auch bei der IPC hinter Raptor Lake zurück und die Latenzen waren so grauenhaft, dass es in einem Gaming Desktop Review mit RTX 4090 statt der iGPU ein riesiges Drama gegeben hätte.
Bedeutet was konkret im Vergleich zum 14900K?
iamthebear
2024-08-15, 00:36:59
Single threaded Performance:
14% IPC Lion Cove vs. Redwood Cove
5-10% IPC Lion Cove vs. Raptor Lake
+/- 0% Performance Arrow Lake vs. Raptor 14900K (auf den originalen Launch Settings)
MT ist es großes "kommt darauf an":
.) Welche Taktraten kommen wohl bei 125W PL1 raus???
.) Skymont ist VIEL schneller d.h. bei 24 Threads wohl sehr gut
.) Aber kein SMT. Das spielt aber erst bei > 24 Threads eine Rolle
.) Bei Gaming: Keine Ahnung. Könnte durch das ganze Chipletzeugs schlechter sein. Umgekehrt sind 3MB und starke Skymont Kerne ohne SMT vielleicht auch die bessere Lösung
Aktuelle Benchmarks gibt es derzeit nur von Jaykihn:
https://x.com/jaykihn0/status/1816099937500684755
Das deckt sich jedoch ziemlich gut mit den Vorhersagen die igor vor einiger Zeit einmal gemacht hat.
reaperrr
2024-08-15, 02:39:15
Single threaded Performance:
14% IPC Lion Cove vs. Redwood Cove
5-10% IPC Lion Cove vs. Raptor Lake
+/- 0% Performance Arrow Lake vs. Raptor 14900K (auf den originalen Launch Settings)
Die 14% gelten für Lunar-LC, Desktop-LC hat immerhin 20% mehr L2 und wohl auch 20% breitere Anbindung (Associativity, Bandbreite) des L2, also würde ich für Desktop-Lion eher 15-16% mehr IPC als Redwood erwarten.
Die IPC des Kerns selbst sollte bei Redwood außerdem eher ca. identisch zu Raptor sein.
In den CB-Tests waren Notebooks mit Raptor zwar ST 3-5% schneller, mit aber auch 200 MHz höherem SC-Turbo als das getestete 155H-Modell.
Mehr als 1-3% beträgt der IPC-Vorteil von Raptor also nicht, zumal ich bei Notebooks auch immer etwas skeptisch bin, wie zuverlässig die Vergleichbarkeit hinsichtlich gehaltener Taktraten, RAM-Latenzen usw. ist.
Wieviel IPC bei MTL evtl. auch durch das Chiplet-Design (zusätzliche Latenz für Kommunikation über SoC-Tile, evtl. langsamere Speicherzugriffe) verloren gegangen ist, wissen wir auch nicht wirklich, so intensiv ist MTL mangels Desktop-Chips von niemandem wirklich getestet worden.
Redwood ist vom Aufbau her jedenfalls praktisch Raptor + größere L1-Caches, wodurch einer oder beide L1 evtl. 1 cycle mehr Latenz haben, was in manchen Anwendungen dann vielleicht zu minimaler IPC-Regression führt, in anderen Fällen wie Spielen aber vielleicht auch minimal mehr IPC gebracht hätte.
Langer Rede kurzer Sinn:
Aus den "14% ggü. Redwood" jetzt nur noch 5-10% ggü. Raptor zu machen, halte ich für übertrieben.
Ich rechne schon mit rund 15% mehr IPC als bei Raptor, in Spielen die eh nur 6-8 Threads wirklich nutzen, wo fehlendes SMT nicht schadet, auch mal mehr.
Der SC-Gleichstand des QS kommt garantiert eher von 600-800 MHz niedrigeren Turbo-Taktraten, da N3B nicht ganz so hart auf Takt optimiert ist wie Intel 7 und der breitere Kern dabei am oberen Ende der V/f-Kurve auch nicht hilft.
Das mit ca. +/-0% zu 14900K wird bei den P-Kernen @stock ungefähr hinkommen, aber mMn eher mangels Takt.
Ich tippe, dass Intel aus Marketing-Gründen versuchen wird, den SC-Turbo des Top-Modells wenigsten irgendwie auf 5,8 GHz zu kriegen (wegen 100 MHz mehr als 9950X), generell aber auch eher in den Taktbereichen von Zen5 statt RTL unterwegs sein wird.
robbitop
2024-08-15, 07:15:16
L2 scheint so viel nicht zu bringen. RPL hat den L2 ggü ADL verdoppelt und es kamen popelige 2-3% mehr IPC in Spielen dabei rum. Weitere 20% (wenn man das Gesetz des sinkenden Grenzertrags berücksichtigt) werden vermutlich einen sehr begrenzten Einfluss haben.
fondness
2024-08-15, 09:25:41
Weil ich das jetzt schon ein paar mal lesen: Ich kann mir nicht vorstellen, dass der ausgelagerte IMC Performance kostet, nicht mit Base Die. Zumindest wäre es maximal dämlich, wenn es so wäre.
Und ja aufs Prozent genau kann man es sowieso nicht sagen. Hängt ja auch maßgeblich davon ab, wie Intel die 14% ermittelt hat. Aber viel bleibt auf jeden Fall nicht über abzüglich geringerer Taktraten.
Aufgrund der 4-Stufigen Cache-Struktur kann das Ding trotzdem super für Spiele sein. Wir haben ja jetzt gelernt, dass der Begriff "IPC" für Spiele relativ irrelevant geworden ist und sowieso viel zu schwammig genutzt wird.
robbitop
2024-08-15, 09:46:49
Weil ich das jetzt schon ein paar mal lesen: Ich kann mir nicht vorstellen, dass der ausgelagerte IMC Performance kostet, nicht mit Base Die. Zumindest wäre es maximal dämlich, wenn es so wäre.
Das kann schon sein. Off Chip kostet fast immer Latenz die dann auf die Memorylatency aufgeschlagen wird.
dildo4u
2024-08-15, 09:55:03
Geekbench leak zum Core Ultra 7 265KF
https://wccftech.com/intel-core-ultra-7-265kf-arrow-lake-cpu-benchmarks-leak-strong-single-core-performance/
Single Core auf 9600X-Niveau und MC etwas mehr als 9700X mit PBO. Bei Spielen wird er trotzdem 10% mehr Bums haben als der 9700X.
Badesalz
2024-08-15, 10:21:19
Bei welcher CPU lassen sich die Geekbench-Ergebnisse gut auf RL übertragen?
Bei Spielen wird er trotzdem 10% mehr Bums haben als der 9700X.Könnte ja auch sein. Weil?
Wann soll das raus? Wäre bis dahin 9800X3D nicht auch schon fertig?
dildo4u
2024-08-15, 10:28:04
Geekbench ist ziemlich nutzlos zeigt aber das der volle Takt da ist das weist auf einen baldigen Launch hin.
Wir brauchen die Dinger damit AMD nicht komplett abhebt 300€ für 6 Cores und so weiter.
Bei welcher CPU lassen sich die Geekbench-Ergebnisse gut auf RL übertragen?
Könnte ja auch sein. Weil?
Wann soll das raus? Wäre bis dahin 9800X3D nicht auch schon fertig?
Weil das bei den 9000ern nicht ankommt und ARL eine günstigere Cache-Struktur für Spiele haben sollte.
@dildo4u
AMD ist nicht "völlig abgehoben" sondern zockt die early adopter ab. Das ist bei CPUs immer so gelaufen, scheiss P/L-Verhältnis bei Launch, später passen sich die Preise an und dann sinken die Preise kontinuierlich bis zur nächsten Gen, um schnellere CPUs auch den unteren Käuferschichten schmackhaft zu machen. Beim nächsten Launch wiederholt sich das Ganze.
Badesalz
2024-08-15, 10:52:03
Weil das bei den 9000ern nicht ankommt Ah so... Ja... Ok...
@all
Auf dem überweigend mit Spielern bevölkerten 3DC verstehe ich die Diskussion trotzdem nicht so wirklich. Dank AMD sind AMD-Zockerkisten wenig bis garnicht interessant, wenn da kein X3D drin steckt. Sind die Zen5 X3D schon da?
edit:
Und die angeblichen +10% bei Arrow, was sollen die machen? Mit 60fps in minFSP macht das dann 66fps. Was soll die Erregung?
Gegenüber? 9700X? Das wäre stand heute um die 13,7% gegenüber dem 7700X. DAS ist die goile CPU die Intel 2 Jahre nach 7700X bringt? 68 minFPS dann?
Gehts euch gut? :ulol:
fondness
2024-08-15, 10:58:02
Das kann schon sein. Off Chip kostet fast immer Latenz die dann auf die Memorylatency aufgeschlagen wird.
Klar kann es sein. Aber das sollte eigentlich der Vorteil eines Base-Dies sein, dass ich das verdrahten kann wie onchip. Würde das wirklich Performance kosten, dann wäre man hoffentlich so schlau gewesen und hätte den IMC zu den CPU-Kernen gepackt.
fondness
2024-08-15, 11:08:29
Single threaded Performance:
14% IPC Lion Cove vs. Redwood Cove
5-10% IPC Lion Cove vs. Raptor Lake
+/- 0% Performance Arrow Lake vs. Raptor 14900K (auf den originalen Launch Settings)
MT ist es großes "kommt darauf an":
.) Welche Taktraten kommen wohl bei 125W PL1 raus???
.) Skymont ist VIEL schneller d.h. bei 24 Threads wohl sehr gut
.) Aber kein SMT. Das spielt aber erst bei > 24 Threads eine Rolle
.) Bei Gaming: Keine Ahnung. Könnte durch das ganze Chipletzeugs schlechter sein. Umgekehrt sind 3MB und starke Skymont Kerne ohne SMT vielleicht auch die bessere Lösung
Aktuelle Benchmarks gibt es derzeit nur von Jaykihn:
https://x.com/jaykihn0/status/1816099937500684755
Das deckt sich jedoch ziemlich gut mit den Vorhersagen die igor vor einiger Zeit einmal gemacht hat.
Singel-Threaded dürftest du nicht so weit weg sein. Multi-Core gehen ich allerdings von einer massiven Steigerung aus. Intel war bisher bei MT erheblich durch die hohe Leistungsaufnahme und den daraus folgernden niedrigen Takt bei MT limitiert. Dank 3nm sollte das deutlich besser sein. Zudem hat man jetzt in MT faktisch 24 gleich starke Kerne (der Taktvorteil der big-Cores ist bei MT irrelevant).
Gaming hat man den "Vorteil" von fehlenden SMT ( ja das kostet bei Gaming Leistung) und wenn alle 24 Kerne den selben L3 haben könnte das Skalierungsvorteile bringen. Umgekehrt weiß man natürlich nicht, wie sich die ganzem Umbauten auf Gaming auswirken.
iamthebear
2024-08-15, 13:38:46
Singel-Threaded dürftest du nicht so weit weg sein. Multi-Core gehe ich allerdings von einer massiven Steigerung aus.
Ja Steigerung wird es geben und man wird den 9950X schlagen. Die Frage ist nur um wieviel.
Intel war bisher bei MT erheblich durch die hohe Leistungsaufnahme und den daraus folgernden niedrigen Takt bei MT limitiert. Dank 3nm sollte das deutlich besser sein.
Hier kommt dann wieder das "kommt darauf an" ins Spiel.
Im Desktop hat man nur mehr das halbe PL1 zur Verfügung und die Skymont Kerne werden wohl beim Verbrauch auch etwas näher an den P Cores dran sein, nicht nur bei der Performance.
In TDP limitierten Notebookbereich wird man jedoch z.B. mit 6+8 35W die alten Raptor Lakes meilenweit abhängen.
Zudem hat man jetzt in MT faktisch 24 gleich starke Kerne (der Taktvorteil der big-Cores ist bei MT irrelevant).
Bei MT werden eher alle Kwerne gleichzeitig etwas zurückgefahren werden d.h. der relative Abstand zwischen den 2 Kernen bleibt bestehen.
Trotzdem: Das Verhältnis von 1.4x Performance bei 2x Fläche macht ricbtig Sinn so dass beide Kerne ihre Existenzberechtigung haben.
Gaming hat man den "Vorteil" von fehlenden SMT ( ja das kostet bei Gaming Leistung) und wenn alle 24 Kerne den selben L3 haben könnte das Skalierungsvorteile bringen. Umgekehrt weiß man natürlich nicht, wie sich die ganzem Umbauten auf Gaming auswirken.
Es ist nicht direkt SMT das die Performance bei Intel kostet. Aber wenn di SMT abschaltest dann wird der Thread stattdessen auf die E Cores gelegt wo pro Cluster 4MB L2 zur Verfügung stehen. Werden dkiese auch nutzt so müssen diese 4MB nicht im L3 liegen.
Das Ganze ist aber eine Schedulingfrage. Mit APO wenn es Inteo selbst optimiert funktioniert das auch bereits jetzt ganz gut. Wenn es die Spielehersteller tun (oder einfach dem Windoiws Scheduler überlassen wird) hakt es aber noch manchmal etwas.
OgrEGT
2024-08-18, 19:29:34
https://videocardz.com/newz/intel-core-ultra-200-lineup-leaks-out-launching-october-10th
Intel Core Ultra 200 lineup leaks out, launching October 10th
aufkrawall
2024-08-18, 19:34:12
Aber wenn di SMT abschaltest dann wird der Thread stattdessen auf die E Cores gelegt
Nö, die E-Cores werden sowieso schon gegenüber SMT Siblings bevorzugt.
robbitop
2024-08-18, 20:04:14
Klar kann es sein. Aber das sollte eigentlich der Vorteil eines Base-Dies sein, dass ich das verdrahten kann wie onchip. Würde das wirklich Performance kosten, dann wäre man hoffentlich so schlau gewesen und hätte den IMC zu den CPU-Kernen gepackt.
Nach meinem Verständnis verbessert modernes Packaging die off chip Nachteile - eliminiert sie aber nicht gänzlich. IIRC ging bei MTL auch die memorylatency hoch. Trotz modernem Packaging.
Reaping_Ant
2024-08-18, 21:14:12
https://videocardz.com/newz/intel-core-ultra-200-lineup-leaks-out-launching-october-10th
Intel Core Ultra 200 lineup leaks out, launching October 10th
Der 265K könnte interessant werden. Wenn er auf dem Level des 14700K bzw. leicht darüber performt und dabei deutlich weniger verbraucht könnte er meinen etwas angestaubten 10850K im Heim-PC beerben. Sollte zum Zocken sicher ein nettes Upgrade sein.
Es fehlt natürlich SMT, was in meinen Arbeits-Workloads (numerische Simulationen) in der Regel 30-40% Speedup bringt, aber dafür gibts ja den 7950X in der Workstation im Büro.
Mortalvision
2024-08-19, 09:56:46
Ja, die ganzen 265er scheinen mit sehr wenig Watt gut zurecht zu kommen. Zwar dann ohne 5,7 Gigaheiz, aber vielleicht analog zu den Ryzen 5 eben deutlich kühler und effizienter.
MSABK
2024-08-19, 14:37:00
Sieht doch spannend aus soweit. Das wird ein interessanter Schlagabtausch gegen den 7800X3d mit dessen Energieeffizienz.
https://videocardz.com/newz/intel-core-ultra-200-lineup-leaks-out-launching-october-10th
Intel Core Ultra 200 lineup leaks out, launching October 10th
Alles B0-Die, wie es aussieht.
Undertaker
2024-08-19, 16:04:25
Sieht doch spannend aus soweit. Das wird ein interessanter Schlagabtausch gegen den 7800X3d mit dessen Energieeffizienz.
Hmm, mMn eher unwahrscheinlich, da Arrow Lake nicht so nah am Effizienz-Sweetspot ausgeliefert werden wird. Der X3D taktet ja auch eher deshalb so niedrig, weil der Chip schlicht keinen höheren Arbeitspunkt verträgt. Falls Arrow Lake einen guten Leistungssprung beim Gaming bringt und für einen Gleichstand zum 7800X3D untertaktet werden könnte, ließe sich vielleicht manuell die gleiche Effizienz erreichen, out of the Box glaube ich aber nicht daran.
dildo4u
2024-08-21, 09:07:05
Leak vom Top Modell.
https://wccftech.com/intel-core-ultra-9-285k-arrow-lake-cpu-blazes-past-core-i9-14900ks-ryzen-9-9950x-benchmark-leak/
MiamiNice
2024-08-21, 09:10:55
Dazu nochmal ca. 10 Prozent OC und wir sind fein. Danke für den Link, Dildo.
Single Thread genau wie mein 14900KS (6200 Mhz bei leichter Last). MT bissl weniger, da drückt der 14900KS 25600 in GB6. Allerdings overclocked/undervolted. Also auch keine Revolution in Sachen Performance absehbar aber sicher in Sachen Effizienz/Reliability ;)
robbitop
2024-08-21, 11:13:51
Single Thread genau wie mein 14900KS (6200 Mhz bei leichter Last). MT bissl weniger, da drückt der 14900KS 25600 in GB6. Allerdings overclocked/undervolted. Also auch keine Revolution in Sachen Performance absehbar aber sicher in Sachen Effizienz/Reliability ;)
Sind dann also 9% mehr taktnormiert, wenn dein 14900KS das gleiche ST Ergebnis erreicht.
9950X taktet mit ~5,5 GHz. Auf 5,7 GHz normiert (taktnormierte Leistung): 3359 -> 3481
Der 285K hat 3450. Also ziemliche Punktlandung was die Geekbench taktnormierte Leistung angeht.
In Spielen wird der 285K sicherlich vorn liegen. Da ist Zen5 irgendwie merkwürdig langsam (im Vergleich zum Leistungssprung in Anwendungen). Da wird erst Zen 5 X3D wieder "konkurrenzfähig" werden IMO.
fondness
2024-08-21, 11:41:17
Also 3449 schafft ein 9950X schon auch fast exakt:
https://www.computerbase.de/2024-08/amd-ryzen-9-9900x-9950x-test/3/#diagramm-geekbench-63
Bei CB Single-Threaded 3427. MT ist der 285K wie erwartet dank 24 Cores knapp vorne. ~20.800 für den 9950X vs. ~23.000 für den 285K. Hier wäre allerdings noch die TDP interessant.
In Spielen wird der 285K sicherlich vorn liegen. Da ist Zen5 irgendwie merkwürdig langsam (im Vergleich zum Leistungssprung in Anwendungen). Da wird erst Zen 5 X3D wieder "konkurrenzfähig" werden IMO.
Sofern Intel nicht ähnliche "Merkwürdigkeiten" im Design oder mit Windows hat auf jeden Fall. Reicht ja schon die aktuelle Gen.
basix
2024-08-21, 11:59:24
"Vermutlich" wird Arrow Lake in Spielen vorne liegen. Aber das wissen wir erst, wenn der Release da ist. Zen 5 verhält sich nicht wie erwartet, könnte bei Arrow Lake auch passieren. Obwohl ich das nicht erwarte, da das Frontend nicht gross geändert hat sowie deutlich stärkere E-Cores und der zusätzliche 192kB Cache beim P-Core dabei sind.
Was ein wenig Ungewissheit reinbringt ist das Chiplet Thema. Und ob das für Games nachteilige Effekte mit sich bringt.
fondness
2024-08-21, 12:44:31
"Vermutlich" wird Arrow Lake in Spielen vorne liegen. Aber das wissen wir erst, wenn der Release da ist. Zen 5 verhält sich nicht wie erwartet, könnte bei Arrow Lake auch passieren. Obwohl ich das nicht erwarte, da das Frontend nicht gross geändert hat sowie deutlich stärkere E-Cores und der zusätzliche 192kB Cache beim P-Core dabei sind.
Was ein wenig Ungewissheit reinbringt ist das Chiplet Thema. Und ob das für Games nachteilige Effekte mit sich bringt.
Ich denke auch, dass sie in Spielen vorne liegen, weil sie ein paar Sachen haben, die in Spielen gut funktionieren sollten:
- L1-Cache jetzt einen Takt weniger Latenz
- Wieder ein schneller L2-Cache
- Kein SMT mehr das durchaus 2-3% gekostet hat bisher
- Sehr große Caches
- Kein Skalierungsproblem >8 Cores
- Einfacheres Scheduling in Windows
- Die eCores sind mittlerweile auch potent genug um auch in Spielen einen Mehrwert zu liefern.
Das einzige was dagegen spricht ist der ausgelagerte IMC, aber ich denke doch, dass man schlau genug war da keine Latenzregressionen einzugehen.
Und natürlich der niedrigere Takt (und Takt skaliert eben immer, IPC nicht).
E39Driver
2024-08-21, 13:06:36
Sehr gut. Sieht endlich mal wieder nach einem spannenden Duell auf Augenhöhe aus.
In SC beide quasi gleich schnell. Zen 5 kann jedoch warum auch immer aber diese SC-Leistung in Gaming nicht auf die Straße bringen. Bei Arrow Lake würde ich es erstmal nicht erwarten. Bleibt der Zen 5 X3D Konter der wohl diesmal ohne größere Taktabschläge kommt, mal schauen wer am Ende die Nase vorne hat
Das Hauseigene Die ist in 20A, richtig? Sofern der pünktlich kommt, wäre bei Intel ja auch ein weiterer Knoten geplatzt.
MiamiNice
2024-08-21, 13:10:14
Liegt es eigentlich noch immer am IF, dass AMD die Leistung in Spielen nicht immer auf die Straße bekommt? Passt nicht genug in den gestapelten Speicher und es muss noch zu oft aus dem langsamen Ram nachgeladen werden? An der CCD Struktur kann es imo nicht mehr liegen.
fondness
2024-08-21, 13:11:16
Bleibt der Zen 5 X3D Konter der wohl diesmal ohne größere Taktabschläge kommt, mal schauen wer am Ende die Nase vorne hat
Der 3D-Cache bringt ohne Taktabschläge ~30%. ;)
Altehardware
2024-08-21, 13:45:01
Leider hat zen5 etwa -400mhz Takt.
arcanum
2024-08-21, 13:47:06
Wahrscheinlich werden 9700X3D und 285 mit OC (falls der AMD nicht wieder schmilzt) am Ende +/- 5% auseinander liegen mit 20-25% Effizienzvorteil für den 9700X3D. Die wahren Stars fürs Gaming werden aber 265 und evtl. sogar 245 sein die für weniger Geld sehr gut performen.
Platos
2024-08-21, 13:51:06
Naja, Effizienz unter Gaming ist im momentanten Markt nur für Leute relevant, die den PC nur einschalten, wenn sie zocken und ihn dann unmittelbar danach wieder ausschalten.
Sobald da auch teillast (Browsing, Videos, Office) dazu kommt, wird dann jede AMD Chiplet-CPU wieder deutlich ineffizienter werden.
robbitop
2024-08-21, 13:55:28
Der 3D-Cache bringt ohne Taktabschläge ~30%. ;)
Aber nicht in jedem Spiel. In einem Index würde ich (ohne Taktverlust) eher ~20% vermuten. Was trotzdem viel ist im Context von heutigen CPUs.
fondness
2024-08-21, 14:00:07
Aber nicht in jedem Spiel. In einem Index würde ich (ohne Taktverlust) eher ~20% vermuten. Was trotzdem viel ist im Context von heutigen CPUs.
Es sind 21% mit 10% Taktregression in einem Index 7700X vs. 7800X3D: ;)
https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_spiele_in_720p_reduzierter_parcours_alle_cpus
Beim 5800X3D sogar 28% inkl. Taktregression. Viele unterschätzen noch immer wie sehr Zen an der Speicherlatenz hängt. Ohne Taktregression also locker 30%.
maximus_hertus
2024-08-21, 14:01:55
Die wahren Stars fürs Gaming werden aber 265 und evtl. sogar 245 sein die für weniger Geld sehr gut performen.
Da wäre ich mir nicht so sicher.
Wer sagt denn, dass Intel die Preise nicht deutlicher nach oben schraubt?
Sehen wir uns die Situation doch mal an:
- Intel hat gerade finanzielle "Probleme". Man entlässt 15% der Belegschaft, streicht überall Kosten zusammen, sagt die eigene Hausmesse ab, beim Marketing werden mal eben 35% eingespart. Ergo ist Geld verdienen aktuell wichitger als die letzten paar Prozent Marktanteil.
- Arrowlake wird in 3nm gefertigt. Das ist alles, aber nicht günstig. Wenn man sich die ganzen Tiles etc. so anschaut, dann dürfte Arrowlake teurer zu produzieren sein als Zen 5.
- mich würde es nicht wundern, wenn der Ultra 9 K den Preis des i9 KS einnehmen würde. Und die CPUs darunter ebenfalls um eine Stufe rauf wandern, also zum Launch ca. so:
Ultra 9 285K: 699 USD - 780-800 Euro
Ultra 7 265K: 499-549 USD - 550-620 Euro
Ultra 5 245K: 369-399 USD - 400-450 Euro
Bei den kleineren non K Ultra 5 könnte es dann 2025 so aussehen:
Ultra 5 245: 299-319 USD - 330-360 Euro
Ultra 5 235: 259 USD - 290-300 Euro
Ultra 5 225: 219 USD - 245-255 Euro
Ob das dann die großen Begeisterungsstürme auslösen würde?
Wie geschrieben, bis alle Kosteneinsparungen wirken muss Intel möglichst alles verdienen, was geht und wird entsprechend nichts "unter Wert" anbieten. Und wenn Arrowlake auf ganzer Linie überzeugt, kann man fast darauf wetten, dass Intel in deren aktueller Situation keine "Schnapper" daraus machen wird, sondern versuchen wird den höchstmöglichen Preis zu nehmen, um die CPUs möglichst mit hohen Margen zu verkaufen.
Falls Intel am oberen Ende die PReise ansetzt, könnte AMD bei den X3D entsprechend folgen:
9950X3D: 749-799 USD, mindestens 699 USD (ero mindestens 780 Euro, ggf. sogar 900+ Euro)
9900X3D: 599 USD (rund 670 Euro)
9800X3D: 429-449 USD (rund 475-500 Euro)
Relativ gesehen wären die Ultra 5 ohne K "attraktiv", aber Ryzen 7000 und Intel 14th Gen verschwinden nicht so einfach vom Markt.
Der kolportierte 7600X3D könnte für z.B. 299 USD MSRP und späterem Straßenpreis von 299 Euro durchaus eine Gaming Alternative sein (vs Ultra 5 non K).
Imo könnte das am Ende eine sehr unspannende "Schlacht" der neuen Gens werden, da es beiderseits keine großen Schritte bei der PErformance geben wird bzw. gegeben haben wird.
MiamiNice
2024-08-21, 14:03:42
Naja, Effizienz unter Gaming ist im momentanten Markt nur für Leute relevant, die den PC nur einschalten, wenn sie zocken und ihn dann unmittelbar danach wieder ausschalten.
Sobald da auch teillast (Browsing, Videos, Office) dazu kommt, wird dann jede AMD Chiplet-CPU wieder deutlich ineffizienter werden.
Der Jahresunterschied an Stromkosten zwischen AMD und Intel, bei normaler Nutzung, sind ca. 50€. Eine übliche Gaming Kiste kostet irgendwas um die 2000 - 3000€. Effizienz ist daher für keinen Gamer relevant. Falls doch, sollte man sich ein anderes Hobby suchen. Natürlich imho ;)
M4xw0lf
2024-08-21, 14:08:39
Also 3449 schafft ein 9950X schon auch fast exakt:
https://www.computerbase.de/2024-08/amd-ryzen-9-9900x-9950x-test/3/#diagramm-geekbench-63
Bei CB Single-Threaded 3427. MT ist der 285K wie erwartet dank 24 Cores knapp vorne. ~20.800 für den 9950X vs. ~23.000 für den 285K. Hier wäre allerdings noch die TDP interessant.
Sofern Intel nicht ähnliche "Merkwürdigkeiten" im Design oder mit Windows hat auf jeden Fall. Reicht ja schon die aktuelle Gen.
Geekbench scheint bei MT Intel eh überdurchschnittlich gut zu schmecken. 14900K = 9950X ist ansonsten in MT-Anwendungen sehr selten.
arcanum
2024-08-21, 14:08:47
Naja, Effizienz unter Gaming ist im momentanten Markt nur für Leute relevant, die den PC nur einschalten, wenn sie zocken und ihn dann unmittelbar danach wieder ausschalten.
Sobald da auch teillast (Browsing, Videos, Office) dazu kommt, wird dann jede AMD Chiplet-CPU wieder deutlich ineffizienter werden.
Das wird bei der Betrachtung vom Stromverbrauch in der Tat gerne oft vernachlässigt, zumal im Highend-Bereich selbst 30W Mehrverbrauch im Schnitt bei der CPU lächerlich sind, wenn solche Systeme 400W+ aus der Dose ziehen. Allgemein wird Intel gerne im schlechtesten Licht betrachtet. Bei Gaming werden Messungen mit irgendwelchen Extremprofilen gemacht die 2-3% mehr Performance bei 25% mehr Verbrauch bringen gegenüber optimierten Einstellungen. Hier muss aber auch Intel eingreifen und mit den Boardpartnern endlich mal ordentliche Reviewer-/Default-Profile zur Verfügung stellen. Ich hoffe das Raptor Lake-Fiasko war ein Weckruf mehr Ressourcen in diese Richtung zu investieren.
Altehardware
2024-08-21, 14:10:07
Üblicher gaming Pc liegt bei knapp 1000€ maximal ohne monitor Tasta Maus.
Geld aus dem Nichts kann ich und die meisten auch nicht erschaffen.
basix
2024-08-21, 14:32:28
Das wird bei der Betrachtung vom Stromverbrauch in der Tat gerne oft vernachlässigt, zumal im Highend-Bereich selbst 30W Mehrverbrauch im Schnitt bei der CPU lächerlich sind, wenn solche Systeme 400W+ aus der Dose ziehen. Allgemein wird Intel gerne im schlechtesten Licht betrachtet. Bei Gaming werden Messungen mit irgendwelchen Extremprofilen gemacht die 2-3% mehr Performance bei 25% mehr Verbrauch bringen gegenüber optimierten Einstellungen. Hier muss aber auch Intel eingreifen und mit den Boardpartnern endlich mal ordentliche Reviewer-/Default-Profile zur Verfügung stellen. Ich hoffe das Raptor Lake-Fiasko war ein Weckruf mehr Ressourcen in diese Richtung zu investieren.
Sowas wie ein Eco Mode wie bei AMD wäre ja nicht schlecht. 1-Klick und die TDP wird von 125W auf 65-80W oder so beschränkt. Würden vermutlich viele bei ihren Gaming-Kisten so machen.
robbitop
2024-08-21, 14:34:06
Es sind 21% mit 10% Taktregression in einem Index 7700X vs. 7800X3D: ;)
https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_spiele_in_720p_reduzierter_parcours_alle_cpus
Beim 5800X3D sogar 28% inkl. Taktregression. Viele unterschätzen noch immer wie sehr Zen an der Speicherlatenz hängt. Ohne Taktregression also locker 30%.
Ui das ist ziemlich fettig. Aber hängt wahrscheinlich auch ein wenig vom Parcours ab.
Ich bin jedenfalls ein Big LLC Fan. Nie wieder ohne ^^.
Fand das damals schon beim i7 5775c sehr sehr geil und jetzt beim 5800x3D auch. Man hat einfach sehr viel Konsistenz in der Spieleperformance.
Man darf aber auch nicht vergessen, dass das alles mit JEDEC o.Ä. gemessen wird. Zwischen 5600C40 und 8533C36 (ok, das ist aktuell hart am Limit aber in die 7400C34 Richtung gehts recht easy mit dem aktuellen Intel IMC) liegen mal gut 15-50% Performance in den Szenarien die am Speicher hängen. Damit holt man 50-70% der Mehrperformance eines riesen LLC.
Man darf aber auch nicht vergessen, dass das alles mit JEDEC o.Ä. gemessen wird. Zwischen 5600C40 und 8533C36 (ok, das ist aktuell hart am Limit aber in die 7400C34 Richtung gehts recht easy mit dem aktuellen Intel IMC) liegen mal gut 15-50% Performance in den Szenarien die am Speicher hängen.
In welchem Szenario soll 7400 C34 für 50% mehr Performance sorgen? Klingt ziemlich utopisch.
Ja Tippfehler, 15-20% sollte da stehen. Ich hatte seinerzeit in MSFS2020 gemessen und über 20% Differenz bei den Average FPS feststellen können zwischen Standard-Speicher und Tuning auf 4-DIMM-Board.
w0mbat
2024-08-23, 22:12:52
Ich bin echt auf ARL gespannt. Nach der Enttäuschung mit Zen 5 könnte Intel hier wirklich wieder vorne liegen.
Lion Cove bringt sicher zweistellig mehr IPC und selbst mit etwas weniger Takt wird das ein single-thread Monster werden. Dazu noch die sehr starken Skymont E-Cores und man hat dazu richtig viel multi-thread Leistung. Dank N3B auch zum ersten Mal seit Langem wieder eine bessere Fertigung (Zen 5 = N4P). Plus neuer Sockel mit neuen Mobos etc.
Ich hab zwar noch lange nicht vor meinen 5800X3D in Rente zu schicken, aber wer bald aufrüstet könnte mit ARL eine gute Option haben. Wenn wir jetzt noch eine "Adamantine" Version mit 128MB L4 Cache im base tile als X3D Konkurrent bekommen könnten... :D
//differentRob
2024-08-23, 23:05:33
Beim Node noch ein fettes Fragezeichen.
Dank dem Asus Leak ist ja quasi gesichert, dass an der Spannungsversorung auch was ändert. P/E fahren getrennt. Das sollte Overclocker neue Möglichkeiten geben :D
KarlKastor
2024-08-24, 07:59:49
Die Erwartungshaltung gegenüber N3B verstehe ich nicht. Das ist ne Krücke von TSMC gewesen überhaupt nen N3 letztes Jahr bringen zu können. Alles setzt jetzt auf N3E. Apple sägt auch die N3B SoC schnell ab.
Auch ist die Effizienz der N3B SoC bei Apple kaum besser als die der N4P.
Der größte Unterschied liegt bei der höheren Transistordichte.
arcanum
2024-08-24, 12:10:30
Die Erwartungshaltung gegenüber N3B verstehe ich nicht. Das ist ne Krücke von TSMC gewesen überhaupt nen N3 letztes Jahr bringen zu können. Alles setzt jetzt auf N3E. Apple sägt auch die N3B SoC schnell ab.
Auch ist die Effizienz der N3B SoC bei Apple kaum besser als die der N4P.
Der größte Unterschied liegt bei der höheren Transistordichte.
N3 ist insgesamt wirklich nicht gut aber Intel hätte erstmal einen Vorsprung bei der Node während die vorigen Produkte immer mindestens eine Full-Node im Nachteil waren. Abgesehen davon gibt es keine verifizierten Informationen über das genutzte Verfahren für das CPU Tile sondern nur viele unterschiedliche Gerüchte. N3B scheint ja so mies zu sein, dass das ausphasen im Interesse von TSMC und den Partnern ist. Die Frage ist, ob wir deshalb überhaupt noch Produkte in N3B sehen oder ob alles nur noch in N3E oder N3P gefertigt wird.
Es gibt keine unterschiedlichen Gerüchte bezüglich TSMC. Außer du redest von Intels 20A, welcher wenn überhaupt später kommt und nur für 6+8. LNL und ARL verwenden beide TSMC N3B. Aufgrund der Design Inkompatibilität können oder konnten sie nicht einfach wechseln.
arcanum
2024-08-24, 12:42:12
Es gibt keine unterschiedlichen Gerüchte bezüglich TSMC. Außer du redest von Intels 20A, welcher wenn überhaupt später kommt und nur für 6+8. LNL und ARL verwenden beide TSMC N3B. Aufgrund der Design Inkompatibilität können oder konnten sie nicht einfach wechseln.
Hast Du denn einen Link wo die originäre Quelle N3B für das CPU Tile von ARL ausspricht?
w0mbat
2024-08-24, 12:49:20
Kannst mich als Quelle nehmen. LNL und ARL haben CPU tiles in N3B. Es soll eine ARL Version in 20A geben.
Momentan sieht es mMn so aus als gäbe es 2 ARL-Dies, eine B0 in N3B (damit startet das gesamte Lineup) und ein C0 in 20A, das dürfte später, wenn es dann erscheint, die 6+8 und geringer ersetzen. Ich glaube auch nicht, dass man das separat launchen wird, es wird einfach als neue Rev. verbaut, die Produkte sind im Grunde gleich.
Hast Du denn einen Link wo die originäre Quelle N3B für das CPU Tile von ARL ausspricht?
Ich habe sehr viel, was ich dir nicht verlinken kann. Das sind Infos über Monate und Jahre. Du findest sehr viel im Internet, ich kann dir das nicht vorkauen.
Für vieles braucht es eine gewisse Erfahrung, um das überhaupt einschätzen zu können. Es gibt keine unterschiedlichen Gerüchte, hier muss man schon bei der Wahrheit bleiben.
Einzige Option wäre höchstens 20A gewesen. Es sollte aber schon aufgefallen sein, dass Intel gar nicht mehr von 20A spricht. Ja weil ARL-S demnächst nicht in 20A gefertigt wird. Aber gut, vor nicht allzu langer Zeit wollten es viele gar nicht erst wahrhaben, dass Intel überhaupt auf TSMC für CPUs geht. Immerhin sind wir schon ein Schritt weiter und TSMC an sich wird nicht mehr abgestritten von den Leuten. Jetzt wird höchstens noch der exakte TSMC Prozess abgestritten. Wobei du mittlerweile eine Ausnahme bist, praktisch jeder spricht von N3B.
@ryan
y33H@ schrieb mal, dass 20A ein Pipecleaner für 18A ist. Wenn der Prozess nur ein Die hervorbringt, welches in eher kleiner Serie gefertigt wird und das nur teilweise das untere Ende von der ARL-Generation abbildet, warum sollte Intel noch davon sprechen? Ich glaube schon, dass der kommt, aber wie gesagt bekommt das mMn keinen separaten launch sondern dürfte einfach irgendwann in die Produkte <265k on the fly einfließen.
arcanum
2024-08-24, 13:18:24
Die einzige handfeste Info im Netz: "Intel CEO confirms the use of TSMC N3 process node for next-gen Arrow Lake & N3B node for its Lunar Lake CPUs"
Warum sollte er für LL explizit N3B nennen und bei Arrow Lake N3 sagen wenn er ebenfalls N3B meint? Die teilweise untereinander zitierenden Artikel sind auch die Basis für die N3B-Gerüchte die heute kursieren. Anfang 2023 wurde die Entscheidung getroffen ARL ein Jahr zu verschieben. Ist jetzt nicht so abwegig dass man die Zeit genutzt hat um auf N3E umzustellen. Aber alles in Allem sind die Details egal, da N3B und N3E abseits vom Yield nicht so weit auseinanderliegen. Mir geht es nur darum, dass es bislang nur kolportierte Gerüchte gibt die aus Interpretationen entstanden sind, die hier aber als Fakt genommen werden.
iamthebear
2024-08-24, 13:28:51
Wieso sollte Intel CPUs in 2 verschiedenen TSMC 3nm Nodes zur gleichen Zeit launchen?
Wäre N3E rechtzeitig verfügbar gewesen so hätte man diesen sicher für beide Designs verwendet.
arcanum
2024-08-24, 13:31:55
Wieso sollte Intel CPUs in 2 verschiedenen TSMC 3nm Nodes zur gleichen Zeit launchen?
Wäre N3E rechtzeitig verfügbar gewesen so hätte man diesen sicher für beide Designs verwendet.
Kapazität, Vergünstigungen von TSMC? N3B ist in erster Linie für TSMC ein schlechtes Geschäft wenn Intel wie Apple keine defekten Chips bezahlt.
Es gab mal die Meldung, dass es zwei Partner für N3B gibt, Apple und Intel. N3B hat eben den Vorteil der Packdichte, was Intel sehr entgegen kommt.
für 20A:
https://www.tomshardware.com/news/intel-displays-arrow-lake-wafer-with-20a-process-node-chips-arrive-in-2024
den gibts auf jeden Fall, hatte Aug/Sep 23 sein Tape out.
Igors Projektionen dürften das 8+16 Die betreffen und stammen aus dem Frühjahr 23, das Tape out des 8+16 dürfte etwa April 23 erfolgt sein, dafür gibts aber keine Quelle. https://www.igorslab.de/intels-interne-performance-projektion-fuer-raptor-lake-s-refresh-und-arrow-lake-s-so-schnell-sollen-cpu-und-igp-werden-exklusiv/
Dass es N3-CPUs geben wird, wusste man schon 2021, als noch unter Bob Swan eine stärkere Zusammenarbeit mit TSMC vermutet wurde https://www.heise.de/news/Fertigungsgeruechte-Apple-und-Intel-CPUs-ab-2023-mit-TSMCs-3-nm-6127995.html.
Intel lässt sich dieses Abenteuer auch richtig ordentlich was kosten: https://www.heise.de/news/Intel-2025-TSMCs-zweitgroesster-Kunde-nach-Apple-9546158.html
In 20/21 unter Swan dürften auch die Entscheidungen und Planungen für die weiteren Entwicklungen für Intels Prozesse (bis 18A) für die heutigen Produkte (bis Panther Lake, Nova Lake usw) konkret gefallen sein. Da gabs ja auch die Leaks bis Nova Lake, erinnert ihr euch?
Also anzweifeln von N3B bei ARL ist nicht mehr, das wäre dämlich. Swan und den Technikern dürfte klar gewesen sein, dass die bis zum Arrow Lake Launch keinen konkurrenzfähigen Prozess in entsprechender Kapazität hinbekommen werden und entschieden sich folglich für TSMCs N3. Man wollte schlichtweg das zu dem Zeitpunkt beste haben um nicht ins Hintertreffen zu geraten. Was heute passiert sind die Folgen dieser Entscheidung. Zu Intels Pech verzögerte sich N3 um 1/2 Jahr und wurde zu N3B, folglich konnte ARL auch nicht im Juni 2024 launchen, wie das sicherlich geplant war, sondern erst im Oktober. Folglich refreshte man Raptor Lake. Wenn man die Timelines zusammenbringt, kann man die ganze Story dahinter gut erkennen.
Bob Swan ist mMn dafür verantwortlich, dass es bei Intel überhaupt konkurrenzfähge Produkte gibt und die Aufholjagd bei den Prozessen offenbar auch erfolgreich war. Pat Gelsinger hat mMn mit den überaus wichtigen, lebensrettenden Entscheidungen bei Intel überhaupt nichts zu tun, dem werden sie die Erfolge aber an Revers heften.
MiamiNice
2024-08-24, 14:15:30
Danke für die Links, HOT :up:
Den Teil mit den inoffiziellen Performance Projektionen finde ich ganz interessant.
Wir sehen, dass Raptor Lake Reresh zwischen einem und vier Prozent zulegen kann, je nach Suite. Bei Arrow Lake sind es, anwendungsbedingt, zwischen drei und immerhin 21 Prozent. Den größten Zuwachs verzeichnet Arrow Lake übrigens in den Floating-Point-Durchläufen, während die Performance beim Raptor Lake Refresh nahezu stagniert. Hier entwickelt sich der Zuwachs nahezu gleichmäßig, was lediglich der Taktsteigerung anzurechnen ist.
Die sind AFAIK nicht inoffiziell, die sind von Intel lt. Igor.
Man kann die Story übrigens noch ein bisschen weiter spinnen, wenn man darüber nachdenkt, leider wirds da doch arg unbelegt (außer vielleicht durch die zu optimistischen alten Roadmaps).
Intel wollte 20A sicherlich auch in 2024 schon fertig haben und die 6+8-ARLs sicherlich bis Ende 24. Allerdings ist so 1/2 Jahr Verzögerung auch keine größe Sache, man war also offenbar auch hier erfolgreich, der Pipecleaner von 18A sollte diese CPU sicherlich schon von Anfang an sein (Intel4 für Intel3 und 20A für 18A).
Und es war sicherlich geplant Nova Lake mit Panther Cove (kein Nachfolger des ARL-Kerns lt. Tom von MLID sondern ein Nachfolger von Golden/Raptor Cove, Intel wollte offenbar also 2-gleisig fahren) in 18A zum Jahresende 25 fertig zu haben. Offenbar grätscht hier das Scheitern von Royal Core aber ein bisschen hinein, weil man die Rentable Units aus Cougar Cove herausstrich. Sicherlich sollte statt eines großen Nova Lake S Beast Lake S (in N2P?) erscheinen mit Royal Core, also 8 Cougar Cove-Kernen, die zusammen 4 Threads mit unglaublicher IPC bearbeiten können. Aus dem Projekt wurde nichts, also sehen wir offenbar jetzt die ursprüngliche Planung ein Jahr verzögert Ende 26 mit Nova Lake S 8+16 und Panther Cove+Darkmont und die Verzögerung wird mit Arrow Lake Refresh ausgeglichen. Der von Anfang an geplante Panther Lake dürfte es aber schaffen, die erste wirklich pünktliche CPU zu werden lt. Intel-Planung.
iamthebear
2024-08-24, 15:01:52
Kapazität, Vergünstigungen von TSMC? N3B ist in erster Linie für TSMC ein schlechtes Geschäft wenn Intel wie Apple keine defekten Chips bezahlt.
Anders herum:
Wäre N3E rechtzeitig verfügbar gewesen: Welchen Sinn hätte es dann überhaupt gemacht noch etwas in N3B zu produzieren?
Es gab mal die Meldung, dass es zwei Partner für N3B gibt, Apple und Intel. N3B hat eben den Vorteil der Packdichte, was Intel sehr entgegen kommt.
Packdichte ist eher Chips mit hohere Parallelisierung interessant z.B. für GPUs. Da kann man leicht etwas Takt opfern und dafür mehr Shader verbauen.
CPUs (speziell für Desktop/Notebook) sind auf Performance optimiert. Da ist die Packdichte sekundär da man mit zusätzlichen Transistoren sowieso kaum mehr etwas Sinnvolles anstellen kann.
für 20A:
https://www.tomshardware.com/news/intel-displays-arrow-lake-wafer-with-20a-process-node-chips-arrive-in-2024
den gibts auf jeden Fall, hatte Aug/Sep 23 sein Tape out.
Tape out ja aber die Frage ist, ob es Intel damit wirtschaftlich konkurrenzfähige Yields schafft.
Dass es N3-CPUs geben wird, wusste man schon 2021, als noch unter Bob Swan eine stärkere Zusammenarbeit mit TSMC vermutet wurde https://www.heise.de/news/Fertigungsgeruechte-Apple-und-Intel-CPUs-ab-2023-mit-TSMCs-3-nm-6127995.html.
Intel lässt sich dieses Abenteuer auch richtig ordentlich was kosten: https://www.heise.de/news/Intel-2025-TSMCs-zweitgroesster-Kunde-nach-Apple-9546158.html
In 20/21 unter Swan dürften auch die Entscheidungen und Planungen für die weiteren Entwicklungen für Intels Prozesse (bis 18A) für die heutigen Produkte (bis Panther Lake, Nova Lake usw) konkret gefallen sein. Da gabs ja auch die Leaks bis Nova Lake, erinnert ihr euch?
Das hatte jedoch in erster Linie matpolitische Gründe. Bob Swan war ein Finanzler und hatte von der Technik keinen Plan weshalb er sich intern gegen die Leute aus der Fertigung nie durchsetzen konnte.
Mit dem Wechsel zu TSMC dachte er, dass er die eigenen Leute an der kurzen Leine halten kann aber das hat ihm dann alles nicht mehr viel genützt.
Dass TSMC N3 besser ist als Intels aktuelle Nodes steht außer Zweifel. Das Problem daran ist jedoch: Intel hat hunderte Milliarden in seine Fabs investiert. Diese sind aber für den Foundrybetrieb großteils unbrauchbar weil wirtschaftlich nicht konkurrenzfähig (zu hohe Kosten pro Output) was man ja in den letzten Bilanzen gut gesehen hat.
Wenn Intel nun zu TSMC wechselt was sollen dann die eigenen Fabs machen? Dann muss man die ganzen Investitionen abschreiben.
Der ganze Plan hätte nur funktioniert wenn man das Foundrygeschäft in den Griff bekommt aber davon ist man meilenweit entfernt.
Also anzweifeln von N3B bei ARL ist nicht mehr, das wäre dämlich. Swan und den Technikern dürfte klar gewesen sein, dass die bis zum Arrow Lake Launch keinen konkurrenzfähigen Prozess in entsprechender Kapazität hinbekommen werden und entschieden sich folglich für TSMCs N3. Man wollte schlichtweg das zu dem Zeitpunkt beste haben um nicht ins Hintertreffen zu geraten. Was heute passiert sind die Folgen dieser Entscheidung. Zu Intels Pech verzögerte sich N3 um 1/2 Jahr und wurde zu N3B, folglich konnte ARL auch nicht im Juni 2024 launchen, wie das sicherlich geplant war, sondern erst im Oktober. Folglich refreshte man Raptor Lake. Wenn man die Timelines zusammenbringt, kann man die ganze Story dahinter gut erkennen.
Eigentlich hätte bereits Anfang 2023 Meteor Lake in den Desktop starten sollen. Aber dann haben die ganzen Chipletsachen den Release verzögert und Intel 4 hatte die selben Taktprobleme wie bereits die letzten 2 Nodes davor. Da Redwood Cove auch keine IPC Verbesserungen gebracht hat war ein Backport wie bei Rocket Lake auch keine Alternative.
Bob Swan ist mMn dafür verantwortlich, dass es bei Intel überhaupt konkurrenzfähge Produkte gibt und die Aufholjagd bei den Prozessen offenbar auch erfolgreich war. Pat Gelsinger hat mMn mit den überaus wichtigen, lebensrettenden Entscheidungen bei Intel überhaupt nichts zu tun, dem werden sie die Erfolge aber an Revers heften.
Ob das lebensrettend war wird sich noch zeigen. Ich denke nicht, dass Intel eine Überlebenschance hat wenn sie ihre eigenen Nodes nicht in den Griff bekommen.
Die mieserable Lion Cove Performance hat gut gezeigt, dass die Fertigung nicht Intels einziges Problem ist. 10% mehr Performance hätte man mit einem Intel 3 Refresh wohl auch hinbekommen.
y33H@
2024-08-24, 16:57:13
Wo sind 14% IPC vs Redwood Cove denn miserabel?
reaperrr
2024-08-24, 17:48:05
Wo sind 14% IPC vs Redwood Cove denn miserabel?
Das frage ich mich auch, zumal die 14% für Lunar-LC mit weniger L2 gelten, ARL-LC also eher noch 1-2% drauflegen dürfte.
Die Leute haben einfach unrealistische Erwartungen, IPC-Steigerungen von 20% und mehr haben wir in den letzten 20 Jahren eigentlich immer nur dann gesehen, wenn von einem schmalen Hochtakt-Design auf ein IPC-fokussiertes Design umgestiegen wurde, oder - in Spielen - wenn es massive Verbesserungen an der Cache-Struktur oder -Menge gab.
Selbst Nehalem brachte damals in einigen Anwendungsfällen (u.a. Spiele in realistischen Auflösungen aka mehr am GPU-Limit) nur wenig mehr RealWorld-IPC als Penryn, und die allseits geliebte Sandy brachte ggü. NHL auch nur rund 15% mehr IPC, bloß halt kombiniert mit wesentlich mehr Takt dank dem letzten gleichzeitig pünktlichen und überlegenen Intel-Prozess.
Wenn man die Cache-Sonderfälle (Broadwell und ZenX3D) rausrechnet, und die überproportionale Steigerung in Spielen bei Zen3 zum Großteil den Vorteilen des 8C-CCX statt der IPC selbst zurechnet, gab es IPC-Steigerungen von durchweg über 20% zum Vorgänger nur bei Conroe und Zen1, und deren Vorgänger waren architekturelle Sackgassen, die in der Form nicht mehr passieren werden.
robbitop
2024-08-24, 19:22:59
Naja Sunny Cove auf Skylake und Golden Cove auf Sunny Cove sind schon relativ ordentliche Sprünge gewesen. Zen 3 brachte auch fast 20% ggü Zen2.
fondness
2024-08-24, 19:24:22
Vor allem gab es damals mehr und nicht weniger Takt.
Bei Sunny Cove gab es bestimmt nicht mehr Takt und bei Cypress Cove auch nicht wirklich. Selbst bei Golden Cove nicht. Die hatten alle etwas über 5 Ghz in der Spitze auf einen Kern.
10900k= 5300 Mhz
11900K= 5300 Mhz
12900k= 5200 Mhz
Richtung 6 Ghz ging es erst mit Raptor Cove. Einen stetigen Anstieg gab es auch innerhalb der ganzen Skylake Versionen, nur gab es da ja auch lange keine Architektur Verbesserungen. Und Raptor Cove ist praktisch auch nur Golden Cove mit größerem L2.
Die 5700 Mhz beim 285K sind besser als man erwarten konnte von der N3B Fertigung. Das hätte ich mir schlimmer vorgestellt, allerdings hätte ich eher mit 20% mehr IPC gerechnet. Beeindruckender ist Skymont. Wäre Schade wenn sie das Atom Design Team aus Austin auflösen würde.
reaperrr
2024-08-24, 21:16:21
Naja Sunny Cove auf Skylake
OK, CB-Test angeschaut und hatte die Werte etwas schlechter in Erinnerung.
Wobei aber auch bei Sunny/Cypress Cove in Spielen in 720p nur ~6% mehr FPS rumkamen, nur die Frametimes sind auch fast um die offizielle IPC gestiegen.
Golden Cove auf Sunny Cove
OK, wobei Golden im Prinzip nicht die nächste, sondern übernächste Gen war, Tiger Lake hatte ja z.B. schon das Cache-System von GC und wurde lediglich nicht für Desktop veröffentlicht.
Das wäre in etwa so, als hätte AMD Zen4 übersprungen, wobei Intel fairerweise für die Steigerung keine 4 Jahre gebraucht hat.
Zen 3 brachte auch fast 20% ggü Zen2.
Da haben die Spiele, die vom monolithischen 8C-CCX und Ausmerzung einiger Zen2-Schwächen überproportional profitiert haben, den Durchschnitt hochgezogen. In den meisten Anwendungen waren es auch hier eher so 11-15% IPC.
robbitop
2024-08-24, 21:53:28
Irgendwas zieht den Durchschnitt immer hoch und runter. Papperlapap ;)
y33H@
2024-08-24, 23:20:32
Würde auch abwarten was die Skymont Cores bringen bei einigen Spielen, bin noch nicht komplett durch.
Undertaker
2024-08-25, 09:32:35
Unabhängig von deren Performance: Ohne Skalierung über 8 Kerne hinaus werden die in dem use Case generell nicht viel beitragen können, so zumindest meine Erwartung. Und auch die mutmaßliche höhere Latenz zwischen E- und P-Cores spricht gegen deren Nutzen in Games.
fondness
2024-08-25, 09:59:01
Und auch die mutmaßliche höhere Latenz zwischen E- und P-Cores spricht gegen deren Nutzen in Games.
Gibts keinen gemeinsamen L3?
Bei Sunny Cove gab es bestimmt nicht mehr Takt und bei Cypress Cove auch nicht wirklich. Selbst bei Golden Cove nicht. Die hatten alle etwas über 5 Ghz in der Spitze auf einen Kern.
10900k= 5300 Mhz
11900K= 5300 Mhz
12900k= 5200 Mhz
Richtung 6 Ghz ging es erst mit Raptor Cove. Einen stetigen Anstieg gab es auch innerhalb der ganzen Skylake Versionen, nur gab es da ja auch lange keine Architektur Verbesserungen. Und Raptor Cove ist praktisch auch nur Golden Cove mit größerem L2.
Die 5700 Mhz beim 285K sind besser als man erwarten konnte von der N3B Fertigung. Das hätte ich mir schlimmer vorgestellt, allerdings hätte ich eher mit 20% mehr IPC gerechnet. Beeindruckender ist Skymont. Wäre Schade wenn sie das Atom Design Team aus Austin auflösen würde.
Ja gut, dann sinkt eben zum ersten mal der Takt deutlich. Der Kern der Aussage bleibt bestehen: Zählen tut letztendlich die Leistung und nicht die IPC.
aufkrawall
2024-08-25, 10:05:03
Und auch die mutmaßliche höhere Latenz zwischen E- und P-Cores spricht gegen deren Nutzen in Games.
Ist aber schon durch Raptor Lake + Win 11 >=22H2 widerlegt, da ist ständig Last auf den E-Cores in Spielen und ein Abschalten im Bios senkt die fps wenigstens geringfügig, oder in manchen Fällen auch etwas mehr. Asset Streaming/Dekompression-Last dürfte auch nicht latenzkritisch sein, und Entlastung da hilft insbesondere bei etwaigen Einbrüchen.
Ausgehend vom 13900K: https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-e-cores-enabled-vs-disabled/2.html
Müsste Skymont was bringen für Spiele. Bei Gracemont gab es nur in einigen wenigen Spielen einen Nachteil, bei den meisten eher einen kleinen Vorteil.
Problematischer war SMT: https://youtu.be/I8DJITHWdaA?t=639
Undertaker
2024-08-25, 10:39:09
Ich schau nur gerade auf die Tests 9700X vs. 9950X, und da hat letzterer sogar Vorteile durch höheren Takt, mehr TDP und tatsächlich gleichstarke 8 weitere Kerne: Der Performancezuwachs ist faktisch Null. Falls ARL nicht erheblich bessere P- zu E-Core Latenzen hat, als AMD zwischen den CCDs, wüsste ich nicht, wo da so wirklich Mehrleistung entstehen kann...
aufkrawall
2024-08-25, 10:42:52
HT wird ja um so problematischer für Spiele, je mehr HT-fähige Kerne vorhanden sind. Vermutlich in erster Linie durch solche Spiele, die einen dummen Umgang mit dem Erstellen von wie vielen Threads etc. haben. Das Problem hat man aber mit mehr E-Cores bei gleichbleibender P-Core-Anzahl nicht.
dildo4u
2024-08-25, 10:43:34
Intel hat doch extra Profile erstellt weil E-cores Performance kosten.
https://www.pcgameshardware.de/CPU-CPU-154106/News/Core-i7-i9-14000-Intel-Gaming-Booster-APO-weitere-Spiele-1443056
aufkrawall
2024-08-25, 10:48:33
Und wo gibts Tests, die das mit Win 11 22H2+ und ausbalanciert-Energieprofil (was den Windows 11 Scheduler beeinflusst) bestätigen? Diese von Intel kolportierten Spitzengewinne für APO sind total seltsam, sonst hätten RPL-CPUs mit E-Cores ja völlig abstinken müssen in manchen Spielen vs. solche ohne. Sieht mir sehr nach Marketing-BS aus.
Ph0b0ss
2024-08-25, 10:56:09
Unabhängig von deren Performance: Ohne Skalierung über 8 Kerne hinaus werden die in dem use Case generell nicht viel beitragen können, so zumindest meine Erwartung. Und auch die mutmaßliche höhere Latenz zwischen E- und P-Cores spricht gegen deren Nutzen in Games.
Falls die E-Core Cluster beim Arrow Lake, so wie in dem Beispiel hier, zwischen den P-Cores angeordnet werden, müssten die Latenzprobleme ja gelöst sein, da es ansonsten ja auch zwischen den P-Cores Latenzprobleme geben würde:
https://s20.directupload.net/images/240825/temp/9clwii9h.jpg (https://www.directupload.eu/file/d/8657/9clwii9h_jpg.htm)
von hier:
https://www.hardwareinside.de/intels-arrow-lake-s-soll-eine-neuordnung-der-p-und-e-kerne-entlang-des-ringbus-erfahren-84479/
robbitop
2024-08-25, 11:08:15
HT wird ja um so problematischer für Spiele, je mehr HT-fähige Kerne vorhanden sind. Vermutlich in erster Linie durch solche Spiele, die einen dummen Umgang mit dem Erstellen von wie vielen Threads etc. haben. Das Problem hat man aber mit mehr E-Cores bei gleichbleibender P-Core-Anzahl nicht.
Entsprechend müsste ein 16C Zen ohne SMT auch ganz gut performen oder?
fondness
2024-08-25, 11:16:44
HT wird ja um so problematischer für Spiele, je mehr HT-fähige Kerne vorhanden sind. Vermutlich in erster Linie durch solche Spiele, die einen dummen Umgang mit dem Erstellen von wie vielen Threads etc. haben. Das Problem hat man aber mit mehr E-Cores bei gleichbleibender P-Core-Anzahl nicht.
Es ist primär ein Scheduling-Problem. Wenn der Scheduler einen neuen Thread auf einen Kern legt wo schon ein Thread läuft anstatt auf einen der noch frei ist, kostet das natürlich Performance. Sinnvollerweise sollten die "SMT-Threads" immer erst verwendet werden, wenn alle Kerne ausgelastet sind (was zB bei einem 9950x in Spielen defacto nicht vorkommt).
OgrEGT
2024-08-25, 11:20:24
Entsprechend müsste ein 16C Zen ohne SMT auch ganz gut performen oder?
Aber doch nur ideal wenn es ein 16C CCX wäre oder immerhin ein 16C CCD und eben nicht 2 8C CCDs die mit IF verbunden sind?
robbitop
2024-08-25, 11:25:35
Aber doch nur ideal wenn es ein 16C CCX wäre oder immerhin ein 16C CCD und eben nicht 2 8C CCDs mit IF verbunden sind?
Das sollte kaum relevant sein wenn es kaum oder wenig Interedependenz zwischen den Threads gibt. Das sollte bei Spielen kaum der Fall sein.
OgrEGT
2024-08-25, 11:40:29
Wie kann man das feststellen wie viel oder wenig Abhängigkeit es gibt?
Wenn es mal in Zukunft CPUs gleicher Architektur als 16C CCX und 8C CCX gäbe dann könnte man gut vergleichen... so hat man mehr oder weniger den 2 8C CCD Latenz Malus...
robbitop
2024-08-25, 11:56:17
Wie kann man das feststellen wie viel oder wenig Abhängigkeit es gibt?
Wenn es mal in Zukunft CPUs gleicher Architektur als 16C CCX und 8C CCX gäbe dann könnte man gut vergleichen... so hat man mehr oder weniger den 2 8C CCD Latenz Malus...
Tja dafür steigt dann die Latenz im CCX. So wie es ist passt es schon.
aufkrawall
2024-08-25, 14:18:04
Sinnvollerweise sollten die "SMT-Threads" immer erst verwendet werden, wenn alle Kerne ausgelastet sind (was zB bei einem 9950x in Spielen defacto nicht vorkommt).
Klingt simpel, aber scheint es dann offenbar doch nicht zu sein?
iamthebear
2024-08-25, 14:26:49
Falls die E-Core Cluster beim Arrow Lake, so wie in dem Beispiel hier, zwischen den P-Cores angeordnet werden, müssten die Latenzprobleme ja gelöst sein, da es ansonsten ja auch zwischen den P-Cores Latenzprobleme geben würde:
https://s20.directupload.net/images/240825/temp/9clwii9h.jpg (https://www.directupload.eu/file/d/8657/9clwii9h_jpg.htm)
von hier:
https://www.hardwareinside.de/intels-arrow-lake-s-soll-eine-neuordnung-der-p-und-e-kerne-entlang-des-ringbus-erfahren-84479/
Auf den Grafiken von Intel sieht das aber ganz anders aus:
https://www.pcgameshardware.de/screenshots/1000x562/2024/08/intel-arrow-lake-pcgh_artwork.jpg
Da sind eindeutig unten die 8 P Cores und oben die 4 E Core Cluster.
Ph0b0ss
2024-08-25, 15:14:35
Auf den Grafiken von Intel sieht das aber ganz anders aus:
https://www.pcgameshardware.de/screenshots/1000x562/2024/08/intel-arrow-lake-pcgh_artwork.jpg
Da sind eindeutig unten die 8 P Cores und oben die 4 E Core Cluster.
Wenn der die shot stimmen sollte, dann wirds wohl ähnliche Latenzen wie beim Raptor Lake zwischen den P Cores und den E Cores geben:
Core i9-13900K:
https://s20.directupload.net/images/240825/temp/7aemab9d.jpg (https://www.directupload.eu/file/d/8657/7aemab9d_jpg.htm)
Sieht noch deutlich besser aus als beim Ryzen 9 7950X zwischen den CCD:
https://s20.directupload.net/images/240825/temp/8ny8maqz.jpg (https://www.directupload.eu/file/d/8657/8ny8maqz_jpg.htm)
Ganz schlecht sieht es momentan noch beim Ryzen 9 9950X zwischen den CCDs aus. Da stimmt wohl aber irgendwas noch nicht:
https://s20.directupload.net/images/240825/temp/qs97ukdc.png (https://www.directupload.eu/file/d/8657/qs97ukdc_png.htm)
links:
https://www.anandtech.com/show/17601/intel-core-i9-13900k-and-i5-13600k-review/5
https://www.anandtech.com/show/17585/amd-zen-4-ryzen-9-7950x-and-ryzen-5-7600x-review-retaking-the-high-end/10
https://www.anandtech.com/show/21524/the-amd-ryzen-9-9950x-and-ryzen-9-9900x-review/3
Beim Arrow Lake wäre die Latenz zu den E Cores aber auch noch wichtiger als bei Raptor Lake, da ja schon ab dem 9. anstatt dem 17. Thread auf die E Cores zugegriffen wird.
aufkrawall
2024-08-25, 15:20:34
Wie schon mal erwähnt: Nein, da auch schon bei Raptor E-Cores gegenüber HT Siblings vom Scheduler bevorzugt werden.
Ph0b0ss
Diese ultra hohen inter-CCD-Latenzen sind ja schon bei Strix negativ aufgefallen.
MMn gibt es ab Zen6 trotzdem nur ein CCX für 16 Kerne, aber 8 große und 8 kompakte an einem CCX würd ich tippen. Beim kolportierten 32 Kern-Die dann das ganze 2x und für ein kleines Die ohne 512Bit 4+4. AMD täte einfach gut daran, Kompaktkerne überall zu bringen.
fondness
2024-08-26, 10:44:40
Klingt simpel, aber scheint es dann offenbar doch nicht zu sein?
Nein ist es leider nicht. Zum einen sind in der Praxis tausende Threads aktiv, zum anderen weiß der Schedular im vorhinein natürlich nicht, wieviel Last welcher Thread erzeugt. Dazu ist die Last natürlich keine Konstante und ein Kontext-Switch sehr teuer. Das ist auch schon mit lauter gleich starken CPU-Kernen kompliziert genug und Dinge wie SMT, e-Cores, getrennter L3, etc. machen es nicht gerade einfacher.
Badesalz
2024-08-27, 08:03:51
In Spielen wird der 285K sicherlich vorn liegen. Da ist Zen5 irgendwie merkwürdig langsam.Na das Thema hat sich jetzt weitgehend erledigt... (bald auch für 23H2 erhältlich)
Da wird erst Zen 5 X3D wieder "konkurrenzfähig" werden IMO.Zen5X3D soll sämtlichen bisherigen Leaks nach viel näher am Taktverhalten der nicht-X3D sein als das noch bei Zen4 war/ist.
Das wird in Spielen also anscheinend nicht nur "konkurrenzfähig", sondern direkt AuaAua-Onkel werden.
dildo4u
2024-08-27, 08:23:37
Intel hat seine eigenen Probleme wegen der E-cores das muss was in Windows passieren oder es müssen Tonnen mehr Spiele Profile von Intel erstellt werden.
Badesalz
2024-08-27, 08:42:30
Das wäre mal eine schöne Welt... Nicht nur auf "Profile" im Grakatreiber warten, sondern jetzt auch noch für solche in... "CPU-Treibern".
Was für ein Schwachsinn oder?
Der Servermerkt will das Zeug schonmal auf keinen Fall. Die kriegen das auch unter Linux & Co. nicht so wirklich eingefangen. Deswegen wird es solche Xeon auch nicht geben. Servermarkt mag zwar ggf. auch E-Cores, aber entweder E-Cores oder P-Cores. Auf keinen Fall aber mixed. Deswegen macht AMD das auch mit ihren c-Cores nicht.
Und der Consumer bekommt jetzt App-Profiles dafür? Ernsthaft?
Wieviele E-Cores nochmal müssen sie aktuell dazu packen, um daraus bei Blender mit Zen5 mitzuhalten? Was für ein Müll.
dildo4u
2024-08-27, 08:48:46
Ja aber nötig bis das Windows Seitig gelöst wird alle Hersteller nutzen Performance und E-Cores.
AMD Strix hat ja schon gemixte Cores.
Zossel
2024-08-27, 08:56:51
Intel hat seine eigenen Probleme wegen der E-cores das muss was in Windows passieren oder es müssen Tonnen mehr Spiele Profile von Intel erstellt werden.
Wenn die neuen E-Cores im Verhältnis zu den P-Cores nicht mehr so langsam sind wie die Alten entschärft sich auch das Problem mit dem Scheduler.
Es ist dann weniger schlimm wenn der Scheduler falsch geraten hat.
Badesalz
2024-08-27, 08:58:45
Ist tatsächlich ein Punkt. Die Lösen das aber anscheinend alles im Microcode und fahren das auch so wie es grad noch am sinnvollsten ist.
@Zossel
Den Unterscheid zwischen "gut" und "weniger schlimm", den gibt es aber noch oder? Beim Strix interessiert der Kernel nicht.
Zossel
2024-08-27, 09:11:04
@Zossel
Den Unterscheid zwischen "gut" und "weniger schlimm", den gibt es aber noch oder? Beim Strix interessiert der Kernel nicht.
Das ist eine immanente Eigenschaft von Heuristiken.
Badesalz
2024-08-27, 09:16:32
Da ist was dran. Heuristisch gesehen ergeben sich dabei aber nie Grundlagen für eine Annahme, daß "weniger schlimm" irgendwann auch "gut" sein wird.
Alles nach "weniger schlimm" fällt schon direkt unter Fantasie. Leider.
Beim Strix interessiert der Kernel nicht.
dildo4u
2024-08-28, 10:29:20
Intels Halo Version taucht mal wieder auf vermutlich 2025 Release?
(20 XE GPU)
https://wccftech.com/intel-arrow-lake-halo-enthusiast-laptop-cpus-spotted-tackle-amd-strix-halo-apple
Ist eben auch für Intel eine hevorragende Idee, das so zu machen.
Weltraumeule
2024-08-28, 11:45:08
Mal ne Frage als Noob. Reicht es nicht einfach, die Kernzuweisung für Spiele nur auf p-cores zu legen und Ruhe ist? Mit Process Lasso kann man sowas ja auch als Profil speichern, glaube ich.
MiamiNice
2024-08-28, 11:50:33
Das willst Du heute eigentlich nicht mehr so haben. Z.b. Star Citizen spawnt auf meiner Kiste 32 Prozesse. Wenn ich die alle an die P Cores binden würde, hätte ich harte Probleme. Aber ja mit Prozess Lasso geht so was und man kann Profile abspeichern.
iamthebear
2024-08-28, 23:05:09
Mal ne Frage als Noob. Reicht es nicht einfach, die Kernzuweisung für Spiele nur auf p-cores zu legen und Ruhe ist? Mit Process Lasso kann man sowas ja auch als Profil speichern, glaube ich.
Das kann bei manchen Games mit problematischen Scheduling eventuell ein Workaround sein, generell bei allen Games würde ich das aber nicht machen.
Wenn die richtigen Threads auf die E Cores verschoben werden, dann kann das auch deutlich schneller sein. Im Idealfall wird pro E Core Cluster ein Thread verschoben. Dieser kann dann bis zu 4MB L2 nutzen wodurch bis zu 4MB L3 frei werden.
//differentRob
2024-08-29, 09:17:58
Kann man nicht davon auagehen, dass ARL wie LnL zuerst alles auf die ECores wirft und erst wenns mehr benötigt, wird der Task auf den P-Core geschoben?
dildo4u
2024-08-29, 09:21:21
Das Konzept macht natürlich in LL mehr Sinn für Desktop willst du sofort den P-Core.
//differentRob
2024-08-29, 09:37:23
Nicht zwingend. Wenn damit die Pcores von Trash Task befreit werden, dann ist mir das sehr recht.
Skymont mit Zen3/4 IPC wird für den random shit mehr als ausreichend sein. Sobalds dann an 3d Anwendungen oder Encoding etc. geht, werden dann halt die grossen aktiviert.
Die paar ms die es fürs einmalige sheduling braucht tun dann keinem weh.
KarlKastor
2024-08-29, 15:00:05
Tun im Desktop mehr weh als 2 Joule mehr Energie. Den Kern kann man auch ein paar ms später von unwichtigen Task befreien.
basix
2024-08-29, 15:05:04
Ja, das Scheduling wird bei Desktop sicher aggressiver auf P-Core gehen als bei Mobile. Der Vorteil an den viel schnelleren E-Cores ist, dass gewisse Tasks vom Anwendungs- und Lastprofil her gar nie mehr auf P-Cores gezügelt werden müssen. Oder zumindest deutlich mehr Tasks als bei den bisherigen E-Cores. Das wird die P-Cores schon entlasten.
mocad_tom
2024-08-29, 16:24:34
https://www.computerbase.de/2024-08/arrow-lake-halo-nach-2-jahren-lebenszeichen-von-intels-staerkster-igpu/#update-2024-08-29T14:02
Bei Computerbase gibt es ein Update bei Arrow Lake Halo.
In einem chinesischen Forum hat sich ein Produktmanager von Lenovo zu dem Thema geäußert. Er bestätigt, dass zumindest ein ähnliches Produkt von Intel kommen wird, doch werde dieses nicht schon bald verfügbar sein und könne von den früheren Beschreibungen von Arrow Lake Halo abweichen.
Wir werden im nächsten Jahr haufenweise Unified RAM Geräte sehen, die für Inferencing mit großen LLM vorgesehen sind.
192GByte RAM
Das wird ein Spaß.
Zossel
2024-08-29, 19:43:50
Nicht zwingend. Wenn damit die Pcores von Trash Task befreit werden, dann ist mir das sehr recht.
Dann beschwere dich bei den Anwendungsentwicklern.
fondness
2024-08-30, 10:53:51
Intel erlaubt wohl bis zu 250W:
https://wccftech.com/intel-arrow-lake-s-unlocked-skus-up-to-250w-pl1-performance-profiles-core-ultra-9-285k-ultra-7-265k-159w-ultra-5-245k/
Zum Vergleich, ein 9950X riegelt bei 200W ab, die anderen deutlich früher.
MiamiNice
2024-08-30, 10:58:06
Das Ding macht bei 250 Watt dicht, egal was ich einstelle?
€: Nein, ist nur das OC Profile für die Leute die nicht selbst Hand anlegen wollen. Glück gehabt.
fondness
2024-08-30, 11:01:59
ich kenn mich bei Intel nicht aus, "PL1" soll jedenfalls 250W sein.
dildo4u
2024-08-30, 11:02:38
Nein 250/150 ist PL1.
https://i.ibb.co/YfX8DrM/Bildschirmfoto-vom-2024-08-30-11-01-37.png (https://ibb.co/9yh2wML)
maximus_hertus
2024-08-30, 11:03:27
Das Ding macht bei 250 Watt dicht, egal was ich einstelle?
€: Nein, ist nur das OC Profile für die Leute die nicht selbst Hand anlegen wollen. Glück gehabt.
Nein, für Profis ist es weiterhin offen.
Badesalz
2024-08-30, 11:09:07
Wir werden im nächsten Jahr haufenweise Unified RAM Geräte sehen, die für Inferencing mit großen LLM vorgesehen sind.
192GByte RAM
Das wird ein Spaß.Ja oder? Früher war man Opfer einer Malware, die Bitcoins rechnete...
Gipsel
2024-08-30, 11:43:37
Nein 250/150 ist PL1.
https://i.ibb.co/YfX8DrM/Bildschirmfoto-vom-2024-08-30-11-01-37.png (https://ibb.co/9yh2wML)Wie sicher sind diese Werte? Wollte intel nicht mit Arrow Lake zu geringerem Verbrauch gehen? Das Teil kommt in 3nm und zieht trotzdem mal gepflegt mindestens genauso viel wie Raptorlake? Performance-Profil ist mit einem 13900K/14900K ja 125/253W und nicht 250/250W (erst Extreme geht auf 253/253W und da soll ArrowLake dann 250/295W sein).
MSABK
2024-08-30, 11:50:31
Vot muss Intel die Watts erhöhen nachdem AMD über die Software weitere Performance freischaltet.
MiamiNice
2024-08-30, 11:57:07
Wie sicher sind diese Werte? Wollte intel nicht mit Arrow Lake zu geringerem Verbrauch gehen? Das Teil kommt in 3nm und zieht trotzdem mal gepflegt mindestens genauso viel wie Raptorlake? Performance-Profil ist mit einem 13900K/14900K ja 125/253W und nicht 250/250W (erst Extreme geht auf 253/253W und da soll ArrowLake dann 250/295W sein).
Die Dinger kommen mit Baseline Profile, alles andere ist wohl OC. Da die meisten Webseiten Tests eh ootb laufen, bleibt es doch bei 125 Watt. Ist doch deutlich! weniger als bisher. Allerdings wird damit auch die Diskrepanz zwischen Review Leistung und der Leistung bei Endkunden massiv differieren. Der Gap war schon immer groß, jetzt wird aus dem Gap ein Canyon.
Badesalz
2024-08-30, 12:03:39
Wow. Was für eine allgemeine Pauschalisierung :up: Als wenn jeder so ein Ding wieder so aufdrehen möchte, daß es schon Sinn macht es in 0,x kW anzugeben. Ist klar.
//differentRob
2024-08-30, 12:10:14
Man darf also Tests mit Base/Performance Profil erwarten. Dabei wird man feststellen, dass ausser absoluter heavy MT-Load kaum Einbussen festgestellt werden.
MiamiNice
2024-08-30, 12:13:47
Die Webseiten bedienen den DIY Markt, sind also Webseiten für HW affine Leute. Wie viele von denen werden wohl eine 700€ OC CPU mit Baseline Profile betrieiben? Wie viele Leute betreiben einen Ryzen mit/ohne PDO?
Von Arrow Lake erwartet man btw. aktuell 6 Ghz all P Core und 5 Ghz all E Core und 10000er DDR5 im Camm2 Modul. Das ist es was HW affine User damit vorhaben. Der Gap zu OOTB ist damit nur als Canyon zu beschreiben.
Badesalz
2024-08-30, 12:26:13
Von Arrow Lake erwartet man btw. aktuell 6 Ghz all P Core 1-2 Infos mehr dazu? Schon ab 3 ist man ja bei 5.4. Mit wieviel Tausenden Amper soll man diesen Node auf 6Ghz ziehen?
Gipsel
2024-08-30, 12:53:25
Die Dinger kommen mit Baseline Profile, alles andere ist wohl OC. Da die meisten Webseiten Tests eh ootb laufen, bleibt es doch bei 125 Watt. Ist doch deutlich! weniger als bisher. Allerdings wird damit auch die Diskrepanz zwischen Review Leistung und der Leistung bei Endkunden massiv differieren. Der Gap war schon immer groß, jetzt wird aus dem Gap ein Canyon.Also wenn man Raptor Lake als Referenz nimmt, dann rät intel explizit von Baseline ab und empfiehlt immer das höchste Profil, was das Mainboard hergibt (also Extreme im Normalfall und Performance auf Budget-Boards mit miesen VRMs).
Wo kommt Deine Vermutung her, daß das bei ArrowLake anders sein soll?
reaperrr
2024-08-30, 12:57:24
Wollte intel nicht mit Arrow Lake zu geringerem Verbrauch gehen?
Bei RTL sind's doch 253 Watt, also hat ARL doch 3 weniger ;)
Das Teil kommt in 3nm und zieht trotzdem mal gepflegt mindestens genauso viel wie Raptorlake?
Natürlich.
N3B ist wahrscheinlich nicht so stark auf Maximal-Takt optimiert wie die letzte Intel 7 Revision (N3B war ja Anfangs der Apple-Prozess, also eher auf Taktraten unter 5 GHz optimiert), und die P-Kerne packen wieder ordentlich Transistoren drauf, was die Kerne je Takt auch nicht sparsamer machen wird.
Vermutlich fängt der Verbrauch bei N3B oberhalb von 5 GHz schneller an zu explodieren als in Intel 7, so dass jede 100 MHz extra ordentlich Saft kosten.
Auch die E-Kerne werden Prozess-normalisiert mehr Strom ziehen als deren Vorgänger, sind schließlich auch deutlich fetter geworden.
Dass Intel da beim Verbrauch zumindest fürs Top-Modell an die Grenze geht, um nicht nur gegen den 9950X, sondern auch spätere X3D-Modelle bei den Balken möglichst gut auszusehen, war eigentlich klar.
Wenn es jetzt eine wundersame P-Kern-IPC-Steigerung von 30-40% gegeben hätte ohne den Verbrauch je Takt groß zu erhöhen, wären sie vielleicht moderater vorgegangen. Aber spätestens nach dem AMD-Windows-Patch wird ja selbst Zen4 in einigen Szenarien ne Herausforderung (den 7800X3D muss Intel in Spielen auch erstmal schlagen).
Gipsel
2024-08-30, 13:08:41
Bei RTL sind's doch 253 Watt, also hat ARL doch 3 weniger ;)Na ja Raptor hat 125W/253W im Performance Profile und 253W/253W im Extreme (außer der 14900KS, der steht dann bei 320W/320W). Arrow wäre schon im Performance Profile bei 250W/250W und im Extreme bei 250W/295W. Die dauerhafte Verlustleistung (PL1) im Performance-Profile verdoppelt sich also sportlich von 125W auf 250W.
Aber okay, im auf etwas besseren Boards normalerweise anliegenden Extreme Profil sinkt die dauerhafte Leistung tatsächlich um 3W (28/56s[?] Boost geht dann aber bis auf 295W).
Badesalz
2024-08-30, 13:15:12
Aber spätestens nach dem AMD-Windows-Patch wird ja selbst Zen4 in einigen Szenarien ne Herausforderung (den 7800X3D muss Intel in Spielen auch erstmal schlagen).
Wenn man sich so anschaut wie - jetzt in allerhöhsten Nöten - die Werkzeuge wie Kanacks testen (oder was Luxx da veranstaltet) und wie die Masken teils fielen, dann wird das diesmal ein echtes Massaker sein.
Nicht speziell für Intel. Allgemein.
Mir selbst ist eigentlich erstmal nur noch HWUB und GN geblieben.
Den gesamten Rest kannst du nahezu vergessen. Und wenn schon halbwegs sinnig-objektiv, dann mit hin und her Einstellungen um ordentlich Chaos in der Interpretation zu stiften. Selten so bewusst gewesen was für eine Sinkgrube.diese "Branche" ist.
W4RO_DE
2024-08-30, 13:17:09
Each Arrow Lake-S "Core Ultra 200" CPU will still retain a "Baseline" profile which will be enabled by default and users who want extra performance can opt-in to the "Performance" profile through the motherboard's BIOS. The KS chip operates at a 150W TDP at PL1 by default in the "Baseline" profile.
https://wccftech.com/intel-arrow-lake-s-unlocked-skus-up-to-250w-pl1-performance-profiles-core-ultra-9-285k-ultra-7-265k-159w-ultra-5-245k/
Verstehe ich das richtig, dass zukünftig von Hause aus das Intel Baseline Profil aktiv ist, und der Performance Mode praktisch als eingebautes OC-Profil händich im BIOS zu aktivieren wäre?
Gehe ich ferner recht in der Annahme, dass daher für den Arrow Lake Release Reviews zu erwarten sind, in denen die Prozessoren innerhalb ihrer Spezifikationen getestet werden, also eben nicht im Performance Mode mit 250 Watt, sondern im Baseline Profil?
Edit: Habe das Zitat mit Link eingefügt.
maximus_hertus
2024-08-30, 13:30:07
Verstehe ich das richtig, dass zukünftig von Hause aus das Intel Baseline Profil aktiv ist, und der Performance Mode praktisch als eingebautes OC-Profil händich im BIOS zu aktivieren wäre?
Ja, korrekt.
Gehe ich ferner recht in der Annahme, dass daher für den Arrow Lake Release Reviews zu erwarten sind, in denen die Prozessoren innerhalb ihrer Spezifikationen getestet werden, also eben nicht im Performance Mode mit 250 Watt, sondern im Baseline Profil?
Nein, es wird meistens Tests mit dem höchsten Profil (250W) geben, dann wird es einige mit b250 sowie 125W geben und es wird wahrscheinlich auch 1-2 Tests geben, die nur mit 125W testen.
250W wird der Standard sein, mit dem getestet wird.
Echte "Profis" werden sicherlich auch über die 250W hinaus gehen können.
Badesalz
2024-08-30, 13:46:03
Gehe ich ferner recht in der Annahme, dass daher für den Arrow Lake Release Reviews zu erwarten sind, in denen die Prozessoren innerhalb ihrer Spezifikationen getestet werden, also eben nicht im Performance Mode mit 250 Watt, sondern im Baseline Profil?
Als jemand der nicht ständig mit der Testerszene verkehrt bin ich grad bisschen durcheinander. Wenn mittlerweile 3 von 4 Tests eines Ryzens 1x mit PBO und 1x ohne durchlaufen - was zeigen soll was das überhaupt bringt, also das Interesse am Test steigert - was genau sollte verhindern, daß die Intel größtenteils 1x mit Baseline und 1x mit Performance getestet werden?
W4RO_DE
2024-08-30, 13:52:21
Bisher hat man Intel nur mit den von den Mainboardherstellern standardmäßig aktivierten Verbrauchswerten (die defacto ein OC darstellen) getestet, daher meine Überlegung.
amdfanuwe
2024-08-30, 15:16:11
und der Performance Mode praktisch als eingebautes OC-Profil händich im BIOS zu aktivieren wäre?
Wahrscheinlich mit dem Hinweis, dass die Garantie dann erlischt.
MiamiNice
2024-08-30, 15:26:28
Each Arrow Lake-S "Core Ultra 200" CPU will still retain a "Baseline" profile which will be enabled by default and users who want extra performance can opt-in to the "Performance" profile through the motherboard's BIOS. The KS chip operates at a 150W TDP at PL1 by default in the "Baseline" profile.
https://wccftech.com/intel-arrow-lake-s-unlocked-skus-up-to-250w-pl1-performance-profiles-core-ultra-9-285k-ultra-7-265k-159w-ultra-5-245k/
Verstehe ich das richtig, dass zukünftig von Hause aus das Intel Baseline Profil aktiv ist, und der Performance Mode praktisch als eingebautes OC-Profil händich im BIOS zu aktivieren wäre?
Gehe ich ferner recht in der Annahme, dass daher für den Arrow Lake Release Reviews zu erwarten sind, in denen die Prozessoren innerhalb ihrer Spezifikationen getestet werden, also eben nicht im Performance Mode mit 250 Watt, sondern im Baseline Profil?
Edit: Habe das Zitat mit Link eingefügt.
Genau so sieht das aus.
Vielleicht erbarmt sich der ein oder andere Tester das Performance Profil zu aktivieren (unwahrscheinlich, wenn Intel abstinkt erzeugt das mehr Klicks und Aktivität im Forum oder Kommentar Bereich) . Aber den 10000er DDR5 als Camm2 wird da definitiv niemand verbauen oder testen. Dafür kann man dann zum Bauer auf den YT Kanel gehen oder selbst testen ;)
Das ist genau der Grund warum ich meinte das der Gap zwischen Test und Real World Performance nun so groß wird, wie niemals zuvor.
Und bisher war dieser Gap auch schon riesig.
Lehdro
2024-08-30, 16:03:19
Solange das "Performance" Profile von der Garantie gedeckt wird, sehe ich keine Probleme. PBO wird auch oft mitgetestet und das obwohl es OC ist. Sollte Intel also das bisherige Gebaren fortführen und eben nur die "Default" Ootb Option als "Baseline" spezifizieren, anstatt den Wilden Westen walten zu lassen, fände ich das die beste Lösung.
1. Intel kommt vom Ineffizienz Image weg
2. Es wird nicht an der Performance gespart
3. OEMs haben endlich eine feste Richtlinie
Win-Win.
MiamiNice
2024-08-30, 16:11:09
Ich halte das für vollkommen falsch. Eine OC CPU welche man auf ein OC Mainboard steckt, sollte auch direkt OC aktiviert haben. Zumindest mal den Performance Mode, welcher ja schon der kleinste Nenner beim CPU OC ist (schafft jede CPU).
Wer richtig OC betreibt lächelt über den Performance Mode.
Ich habe immer dieses Bild vom Sportwagen im Kopf, welcher auf 120 km/h gedrosselt verkauft wird.
aufkrawall
2024-08-30, 16:13:02
Aha. Weil man Grafikkarten übertakten kann, soll man auch nur noch jede Grafikkarte ausschließlich mit Übertaktung betreiben und testen? Das ist selbst für deine Verhältnisse ein dickes Unsinns-Ei gelegt. ;D
MiamiNice
2024-08-30, 16:16:17
Aha. Weil man Grafikkarten übertakten kann, soll man auch nur noch jede Grafikkarte ausschließlich mit Übertaktung betreiben und testen? Das ist selbst für deine Verhältnisse ein dickes Unsinns-Ei gelegt. ;D
Kommen den GPUs als OC Version? Gibt es extra Chipsätze für GPUs die es nur aus dem Grund OC gibt bzw. die OC erst ermöglichen und extra Geld kosten? Gibt es dieselbe GPU nochmal als non OC Version und non OC Chipsätze für die GPU?
Dein Vergleich hinkt gewaltig.
Der User nimmt mehr Geld in die Hand für CPU, Board und Ram damit er OC überhaupt betreiben kann und kauft extra dafür gebaute HW. Und auf dieser HW muss man OC erst aktivieren und gestestet werden diese Produkte ohne OC?
Für mich hört sich das nach hartem Tobak an. Wenn man ohne OC testen will, sollte man auch die non OC Produkte testen. OC Produkte ohne OC zu testen ist komplett am Produkt vorbei getestet.
Ich kann es auch noch anders aufziehen. Ein Review soll die Eigenschaften eines Produkts testen und beleuchten. Ein Produkt dessen hauptsächliche Produkteigenschaft das OC ist, nichts anderes sind k CPUs und 90iger Mainboards, MUSS daher mit OC gestet werden. Schon alleine um den Begriff Review oder Test gerecht zu werden.
maximus_hertus
2024-08-30, 16:20:48
Genau so sieht das aus.
Wow, du weißt also schon mehr als selbst die Reviewer ;) Immer wieder lustig wie du deine Meinung (oder dein Wunschdenken) als Fakt verkaufst.
Wenn die Performance Profile von der Garantie abgedeckt sind, würde es mich wundern, wenn auch nur einer ohne dieses Profil testet. Man wird sicherlich bei dem ein oder anderen noch ZUSÄTZLICH das Baselineprofil testen, was sicherlich eine gute Sache ist (mehr Daten = mehr Wissen über die Architektur = mehr Fakten).
aufkrawall
2024-08-30, 16:22:10
Kein normaler Mensch hat etwas dagegen, CPUs standardmäßig mit Parametern zu betreiben, die noch unter Luft kühlbar sind. Komm mal auf die Realität klar (frommer Wunsch bei dir, wie hinlänglich bekannt...).
maximus_hertus
2024-08-30, 16:29:14
Ich halte das für vollkommen falsch. Eine OC CPU welche man auf ein OC Mainboard steckt, sollte auch direkt OC aktiviert haben.
Allcore 6 GHz? 6,2 GHz? 6,3 GHz? Was wäre ein korrekter Standardwert? Und warum genau dann DIESER Wert?
Zumindest mal den Performance Mode, welcher ja schon der kleinste Nenner beim CPU OC ist (schafft jede CPU).
Laut Intel schafft es nicht jede CPU. Wenn es 99% schaffen, ist es zwar fast gesichert, aber wenn man eine CPU aus den 1% erwischt, ist es einfach nur unprofessionell, wenn es ootb möglicherweise gar nicht klappt.
Wer richtig OC betreibt lächelt über den Performance Mode.
Wer richtig OC betreibt, dem ist es egal, was Stock auf dem Board eingestellt ist, der macht eh Custom Settings....
Ich habe immer dieses Bild vom Sportwagen im Kopf, welcher auf 120 km/h gedrosselt verkauft wird.
https://www.topgear.com/car-news/supercars/heres-key-helped-bugatti-do-407kmh
236 mph Baseline, 253 mph Performance Profil.
Oder glaubst du ernsthaft (ehrliche Frage), dass man mit deinen 6+ GHz Allcore OC 100+% Performance dazu gewinenn wird (im Schnitt, nicht nur in einem einzelnen Benchmark)? Selbst gegenüber dem Baseline Profil. Also um in der 120 km/h Analogie zu bleiben (vs. z.B. 240 km/h).
maximus_hertus
2024-08-30, 16:46:38
Kommen den GPUs als OC Version? Gibt es extra Chipsätze für GPUs die es nur aus dem Grund OC gibt bzw. die OC erst ermöglichen und extra Geld kosten? Gibt es dieselbe GPU nochmal als non OC Version und non OC Chipsätze für die GPU?
Jup, frage mal bei nVidia und deren Boardpartnern ;) Und das nicht erst seit gestern... Wer eine OC Karte bringen möchte, muss nochmal extra Zahlen + Auflagen erfüllen.
Der User nimmt mehr Geld in die Hand für CPU, Board und Ram damit er OC überhaupt betreiben kann und kauft extra dafür gebaute HW. Und auf dieser HW muss man OC erst aktivieren und gestestet werden diese Produkte ohne OC?
Nein, falsche Sichtweise. Die Hardware, von der du sprichst, ist schlciht die schnellste. Selbst wenn ich explizit 0 OC möchte, MUSS ich die "OC" HArdware kaufen, weil es KEINE NON-OC gibt.
Das wird wahrscheinlich auch bei ARL-S so sein.
Es gibt den Ultra 9 K, aber es wird 2024 eohl keinen non K geben. Ergo wird nur eine ganz ganz ganz ganz kleine Minderheit den K wegen dem OC kaufen.
Die ganzen OEM Kisten Käufer interessiert OC nciht die Bohne, die wollen schlicht die schnellste CPU. Und diese ist, selbst ohne OC, der i9 K (bisher) gewesen.
Die K CPUs sind doch nur dummes upselling. Willst du OC? Dann musst du auch die große CPU Variante kaufen. Und in dieser ist OC zwar frei geschaltet, der Aufpreis wird aber für die Variante gezahlt (nicht für die OC Fertigkeiten).
Echter OC CPUs waren z.B. die AMD TWKR CPUs. Hier würde ich mit diener Argumentation mitgehen.
Aber bei den i9 K CPUs will nahezu NIEMAND OC betreiben. Weil i9 K ist einfach schlicht die schnellste Intel Desktop CPU. Das du als OCer "gezwungen" wirst das Topmodel zu kaufen, um OC betreiben zu können, ist schlicht, wie beschrieben, upselling. Eine künstliche Beschränkung bei den anderen CPUs. Aber das macht aus dem i9 K keine "OC-CPU", sondern OC ist hier freigeschaltet.
Aber ich gehe nicht davon aus, dass du diese Argumentation folgen wirst....
MiamiNice
2024-08-30, 17:36:15
Ich kann Deiner Argumentation leider nicht folgen, absolut nicht :wink:
Fakt ist, egal ob Upselling oder sonst was, Intel, der Hersteller, bietet die Produkte als CPU mit freiem Multiplikator an und verkauft diese als OC CPUs.
Dazu validiert Intel Chipsätze speziell mit OC Fähigkeiten und lässt sich diese ebenfalls extra bezahlen. Als hauptsächliche Eigenschaft dieser Produkte beschreibt Intel den freien Multiplikator und das der Nutzer diesen ändern kann.
Das nicht zu testen ist fahrlässig, gerade wenn das Publikum, und davon sprechen wir hier, eher die HW affinen Leute aus dem DIY Bereich sind. Keine andere Kundschaft treibt sich auf diesen Seiten herum. Die CPUs ootb zu testen und mit standard Ram ist daher nicht nur falsch im Sinne des Produktes, sondern auch noch meilenweit an der Interessenlage des eigenen Publikums vorbei getestet (Wahrscheinlich hat der Bauer deswegen mehr Abos als die gesammte restliche deutsche IT "Fachpresse" zusammen).
Dein Beispiel mit NV ist btw. unglücklich. Der Boardpartner ist nicht der Endkunde. Der Endkunde kann bei NV keine GPU mit extra OC Chipsatz und Ram bestellen, er bestellt fertigen SKUs. Und diese SKUs werden auch alle getestet. Das wäre in etwa so als würdest Du nur Benchwerte zur ASUS RTX 4090 Super Extreme finden, aber nicht zur normalen ASUS RTX 4090. Bei GPUs wäre das ein Unding. Einen 14900k testet man aber als 14900 mit mehr Takt ;D Also doppelt falsch. Der Test zeigt weder was der 14900k kann, noch was der 14900 kann. Tests und Reviews sind dafür da um ein Produkt vorzustellen und dessen Fähigkeiten zu zeigen um Kaufanreize zu setzen. Das ist der einzige Sinn dahinter.
Also tut mir leid, bei dem Thema kommen wir sicherlich nicht zusammen.
Gipsel
2024-08-30, 18:00:55
Ich halte das für vollkommen falsch. Eine OC CPU welche man auf ein OC Mainboard steckt, sollte auch direkt OC aktiviert haben.Und dann bootet die Kiste nicht, weil niemand irgendein Mindest-OC garantiert. :rolleyes:
Ich kann Deiner Argumentation leider nicht folgen, absolut nicht :wink:
Fakt ist, egal ob Upselling oder sonst was, Intel, der Hersteller, bietet die Produkte als CPU mit freiem Multiplikator an und verkauft diese als OC CPUs.
Dazu validiert Intel Chipsätze speziell mit OC Fähigkeiten und lässt sich diese ebenfalls extra bezahlen. Als hauptsächliche Eigenschaft dieser Produkte beschreibt Intel den freien Multiplikator und das der Nutzer diesen ändern kann.
Das nicht zu testen ist fahrlässig, gerade wenn das Publikum, und davon sprechen wir hier, eher die HW affinen Leute aus dem DIY Bereich sind. Keine andere Kundschaft treibt sich auf diesen Seiten herum. Die CPUs ootb zu testen und mit standard Ram ist daher nicht nur falsch im Sinne des Produktes, sondern auch noch meilenweit an der Interessenlage des eigenen Publikums vorbei getestet (Wahrscheinlich hat der Bauer deswegen mehr Abos als die gesammte restliche deutsche IT "Fachpresse" zusammen).
Dein Beispiel mit NV ist btw. unglücklich. Der Boardpartner ist nicht der Endkunde. Der Endkunde kann bei NV keine GPU mit extra OC Chipsatz und Ram bestellen, er bestellt fertigen SKUs. Und diese SKUs werden auch alle getestet. Das wäre in etwa so als würdest Du nur Benchwerte zur ASUS RTX 4090 Super Extreme finden, aber nicht zur normalen ASUS RTX 4090. Bei GPUs wäre das ein Unding. Einen 14900k testet man aber als 14900 mit mehr Takt ;D Also doppelt falsch. Der Test zeigt weder was der 14900k kann, noch was der 14900 kann. Tests und Reviews sind dafür da um ein Produkt vorzustellen und dessen Fähigkeiten zu zeigen um Kaufanreize zu setzen. Das ist der einzige Sinn dahinter.
Also tut mir leid, bei dem Thema kommen wir sicherlich nicht zusammen.
Intel spezifiziert die CPUs, wie sie garantiert laufen (sollten). Deutlich über 90% der Nutzer betreiben die mit out-of-the-box-Einstellungen. Zusätzlich gibt intel Übertaktungsfunktionen frei, die der Nutzer selber aktivieren kann, deren Möglichkeit zur Performancesteigerung aber nicht garantiert wird.
Für einen Tester wäre es also schon irgendwo sehr ungewöhnlich, wenn er die von der übergroßen Mehrheit der Nutzer erfahrene Performance mit ootb-Settings nicht ermitteln würde.
Gerne kann er dann zusätzlich noch die Performance mit Übertaktung ergründen, wobei diese natürlich aufgrund der kleinen Sample-Größe nie garantiert sein kann sondern nur einen Eindruck von der eventuell möglichen Performance liefert.
Hakim
2024-08-30, 18:05:04
Ich sehe hier das Problem nicht, selbst bei K CPUs gibt intel Standardwerte an die jeder CPU ab Werk sozusagen Garantiert machen sollte. In den Tests wird das ja auch so gemacht, aber jeder gute Testseite hat halt noch zusätzlich eine Rubrik Übertaktung in der Regel wo auch das getestet und bewertet wird. Wo ist denn das Problem? Die meisten Käufer haben sowieso kein Plan, und kaufen die teuren K Modelle weil es halt die Besten/schnellsten Versionen sind, bauen oder lassen es sich einbauen und gut ist. Für die die mehr rausholen wollen schauen sich halt an was so die Tester (in der Rubrik OC) oder andere Leute in Foren etc erreicht haben, und testen sich auch ran.
MiamiNice
2024-08-30, 18:07:28
Und dann bootet die Kiste nicht, weil niemand irgendein Mindest-OC garantiert. :rolleyes:
Die Kisten haben doch bisher immer alle gebootet, nun schon seit wie vielen Generationen? 5? :rolleyes:
Intel spezifiziert die CPUs, wie sie garantiert laufen (sollten). Deutlich über 90% der Nutzer betreiben die mit out-of-the-box-Einstellungen. Zusätzlich gibt intel Übertaktungsfunktionen frei, die der Nutzer selber aktivieren kann, deren Möglichkeit zur Performancesteigerung aber nicht garantiert wird.
Für einen Tester wäre es also schon irgendwo sehr ungewöhnlich, wenn er die von der übergroßen Mehrheit der Nutzer erfahrene Performance mit ootb-Settings nicht ermitteln würde.
Gerne kann er dann zusätzlich noch die Performance mit Übertaktung ergründen, wobei diese natürlich aufgrund der kleinen Sample-Größe nie garantiert sein kann sondern nur einen Eindruck von der eventuell möglichen Performance liefert.
Hast Du dazu Statistiken bzw. Links? Mich würde interessieren welche 90% der User? Die 90% die Webseiten wie diese hier besuchen, CPU Tests lesen und private Kaufabsichten haben? Oder die wo der CPU einfach in der Workstation auf der Arbeit steckt?
deren Möglichkeit zur Performancesteigerung aber nicht garantiert wird
Das ist im übrigen der Punkt warum man genau das testen sollte, quasi der Punkt an diesen CPUs in unseren Gefielde.
Gipsel
2024-08-30, 18:09:00
Ich sehe hier das Problem nicht, selbst bei K CPUs gibt intel Standardwerte an die jeder CPU ab Werk sozusagen Garantiert machen sollte.Ist halt die Frage, ob ArrowLake das aufgrund des Backlashes der letzten Zeit noch genau so handhabt. Bei Raptorlake sagt intel ja, das Extreme Profile ist innerhalb der Spec und default sollte das höchste Profil sein, was das Board unterstützt. Aber auf der letzten Seite des Threads wurde doch gerade gesagt, daß mit ArrowLake das Baseline-Profil Standard werden soll (und Performance und Extreme als Übertaktung gelten?).
W4RO_DE
2024-08-30, 18:12:52
Aber auf der letzten Seite des Threads wurde doch gerade gesagt, daß mit ArrowLake das Baseline-Profil Standard werden soll (und Performance und Extreme als Übertaktung gelten?).
Wobei das bisher nur eine Information von wccftech ist, also möchte nicht sagen, dass das schon Fakt ist.
//differentRob
2024-08-30, 18:23:15
Wie viel mhz boost bekommt denn der Pcore wenn man ihn statt mit 125w halt mit 250w ausfährt? Im Teillast Szenario 'insert game' wohl kaum die Bohne wert.
Ohne manuelles Eingreifen hat man also keinen Profit. Die 125 Watt mehr brauchts, damit der Boost bei 20 odwr 24 ausgelasteten Kernen für Penisbech nicht zu tief sinkt.
Im Alltag für die meisten Anwender somit irrelevant. Wer professionell heavy MT workload fährt, der nutzt schlicht keine Desktop Plattform.
Gipsel
2024-08-30, 18:30:25
Die Kisten haben doch bisher immer alle gebootet, nun schon seit wie vielen Generationen? 5? :rolleyes:Sicher. Deswegen laufen bei Einigen ja auch Raptorlakes schon mit ootb-Settings nicht stabil. :lol:
Hast Du dazu Statistiken bzw. Links? Mich würde interessieren welche 90% der User? Die 90% die Webseiten wie diese hier besuchen, CPU Tests lesen und private Kaufabsichten haben? Oder die wo der CPU einfach in der Workstation auf der Arbeit steckt?
Der DIY-Markt ist im Vergleich zum OEM-Markt klein. In Q4/23 hatte intel angeblich etwa 86% Marktanteil im x86er OEM-Markt und 80% insgesamt (AMD liegt im DIY-Markt deutlich besser). OEMs lassen ihre Kisten selten übertaktet laufen.
Der Rest ist halt ein wenig persönliche Erfahrung. Ich weiß ja nicht, wie viele Rechner Du für Freunde/Bekannte zusammengebaut hast, aber mir sagten bisher immer Alle, daß die wollen, daß es stabil läuft und man keine Experimente machen soll. Sprich, davon laufen auch quasi alle @stock.
Wie groß ist der Anteil am DIY-Markt von Leuten, die ihre eigenen Rechner tunen im Vergleich zu den Rechnern, die sie für andere zusammenbauen (und die dann auch zu einem Großteil mit Stock-Settings laufen)? 1:1, 1:2 oder 1:3?
Meine persönliche Statistik mag einen Bias haben, aber von den insgesamt ~20 PCs, die ich bisher aus Einzelteilen für Andere zusammengebaut habe, wurden nur genau 3 nicht mit Stock-Settings konfiguriert (davon zwei für meinen Bruder, wobei sein momentanes Zen4-System nur eine leicht abgesenkte PPT und CO -10 hat, also nur sehr milde Abweichung). Nur ein System, was nicht für nahe Familienangehörige gedacht war, habe ich übertaktet. Ein gewichtiger Grund mag auch sein, daß ich nicht ständig Support spielen will. ;)
G3cko
2024-08-30, 20:45:08
OC ist praktisch tot.
Früher konnte man SKUs wählen mit hoher Core-Anzahl und niedrigem Takt = hohes OC Potenzial. Man konnte diese SKUs trotz der vielen Kerne mit OC auf eine höhere Singlethread-Leistung bringen als es auf dem Markt zu kaufen gab. Diese Zeiten sind vorbei.
Intel D805, Q6600, 5960x. Alle meine CPUs hatten um die 30-50% OC. Diese Leistung gab es erst Jahre später zu kaufen. Das ist heute vollkommen anders.
Ein paar 100 MHz für Ärger mit möglichen Instabilitäten und zum Dank einen explodieren Verbrauch.
Ich hab ja noch nie teure Mainboards gekauft. Aber wozu mehr als 100€ für ein Board. Nimm doch ein kleines Board mit eine dicken CPU. Ist am Ende schneller.
https://youtu.be/yzimFlRJbAM
Pat hat Nova Lake., Beast Lake und Royal Core gecancelt trotz, dass die Entwicklung gut voranschritt. Er möchte sich auf die e-Cores konzentrieren.
Das wars dann also erst mal mit Intel-CPUs im Hochleistungsbereich. Vielleicht exhumiert man ja Panther Cove für die post-ARL-Generation.
Vielleicht gräbt das ja mal jemand nach Pat wieder aus.
Ich hab das schonmal geschrieben, Pat hat sich bisher durch gar nichts positiv ausgezeichnet. Alle wichtigen strategischen Entscheidungen für Fertigung, TSMC-Kooperation und CPU-Designs wurden während der Swan-Ära entschieden.
fondness
2024-08-31, 10:17:21
Pat hat Nova Lake., Beast Lake und Royal Core gecancelt trotz, dass die Entwicklung gut voranschritt. Er möchte sich auf die e-Cores konzentrieren.
Hab ich schon vor Monaten hier spekuliert, dass sich Intel auf die eCores fokussiert und mittelfristig ein Zen-Konzept fahren will. ;)
Panther Lake könnte das letzte Produkt mit klassischen P-Cores sein.
Hab ich Zweifel, dass das so schnell passiert, einen p-like-e-Core zu entwickeln dauert. Ich vermute eher, dass man Panther Cove exhumiert als Raptor-Cove-Nachfolger in 18A uind den noch mal 2 Generationen laufen lässt, bevor man endgültig auf e-Core-Nachfolger auch im Desktop umsteigt. Im Grundsatz ist es natürlich ökonomischer, nur noch eine Kern-Architektur für alles zu entwickeln.
fondness
2024-08-31, 10:28:53
Sie sind doch schon fast da. Skymont hat fast dieselbe IPC wie Lion Cove bei höchstwahrscheinlich erheblich weniger mm² und Watt. Es braucht noch mehr Takt und ev. SMT, das könnte mit der nächsten Generation soweit sein. Aber ja es ist natürlich sehr spät, das stimmt. Pat ist definitiv der falsche Mann an der Spitze, er war bei jeder Entscheidung viel zu spät dran und hat auch die falschen Prioritäten gesetzt.
Sind auch noch viele andere interessante Infos über Jim Kellers Design drinnen in dem Video. Und er hat die Infos direkt von einem hohen Intel-Angestellten, also sehr glaubwürdig. Zeigt natürlich auch die Grabenkämpfe innerhalb Intels, wenn ein hoher Angestellter Pat direkt bloß stellt.
yzimFlRJbAM
MLID bringt die Stories erst, wenn andere bekannte Leaker davon sprechen, weil er keine Infos hat. In dem Fall hat Exist50 schon vor 2-4 Wochen davon berichtet. Etwa im Juni rum wurde die Entwicklung von Royal Core eingestellt.
Es gab trotzdem nie ein Beast Leak, der dichtet sich unglaublich viel zusammen. Auch mit den E-cores...im Moment gibt es eher die Befürchtung, sie würden E+P Kernentwicklung zusammenlegen aber mit der Basis von der P-Architektur in Haifa weitermachen. Also Austin schließen, dort wo die E-Kerne entwickelt. Das wäre schlecht.
fondness
2024-08-31, 14:14:49
MLID bringt die Stories erst, wenn andere bekannte Leaker davon sprechen, weil er keine Infos hat. In dem Fall hat Exist50 schon vor 2-4 Wochen davon berichtet. Etwa im Juni rum wurde die Entwicklung von Royal Core eingestellt.
Es gab trotzdem nie ein Beast Leak, der dichtet sich unglaublich viel zusammen. Auch mit den E-cores...im Moment gibt es eher die Befürchtung, sie würden E+P Kernentwicklung zusammenlegen aber mit der Basis von der P-Architektur in Haifa weitermachen. Also Austin schließen, dort wo die E-Kerne entwickelt. Das wäre schlecht.
Er sagt direkt im Video, dass sich ein hoher Intel angestellter bei ihm gemeldet hat und alles was er sagt direkt von diesem face to face kommt. Klar kann man alles als fake news abtun wenn es einem nicht in den Kram passt, klingt aber sehr glaubwürdig. Beast Lake wurde laut diesem auch schon Anfang des Jahres eingestellt und zwar von Pat höchstpersönlich. Das Design Team soll ziemlich angepisst sein, da das Design angeblich funktioniert hat und alle Milestones eingehalten hat.
Er sagt direkt im Video, dass sich ein hoher Intel angestellter bei ihm gemeldet hat und alles was er sagt direkt von diesem face to face kommt. Klar kann man alles als fake news abtun wenn es einem nicht in den Kram passt, klingt aber sehr glaubwürdig. Beast Lake wurde laut diesem auch schon Anfang des Jahres eingestellt und zwar von Pat höchstpersönlich. Das Design Team soll ziemlich angepisst sein, da das Design angeblich funktioniert hat und alle Milestones eingehalten hat.
Das behauptet er immer. Problem ist meistens, dass er bestimmte Sachen dazudichtet. Vor allem dann, wenn es ihn besser aussehen lässt. Er kann ja jetzt schlecht zugeben, dass Beast Lake nie existiert hat, wenn er davor ständig davon berichtet hat. Die Aussagen der Angestellten, sollten sie existieren, müsste man ungefiltert lesen. Und wie gesagt, die Einstellung von Royal Core selber war seit Wochen bekannt von Exist50 und noch jemand anderen. Ich glaube vor 4 Wochen hatte ich davon erstmalig gelesen.
Dennoch behauptet er meistens, er würde exklusiv davon berichten. Dem ist sehr selten der Fall. Er wird nicht ohne Grund oft als Clown bezeichnet. In dem Video wird noch viel mehr Unsinn zu hören sein, ich schaue mir das gar nicht erst an. Zum "alle Milestones eingehalten" kann man leicht was Gegenteiliges bringen:
Was part of royal core validation that got cancelled on june 25. They moved us to the GPU IP team, iam not sure if ill be impacted yet but have been chugging along working on debugs so far
I dont know. But i will say this, i worked in power management and reset validation, and we were behind all the other boxes in our alpha push. It looked very ambitious to us, and wouldve been a long road to drop ryl 1.0 by next year. But i think given the chance, we couldve made it.
https://www.reddit.com/r/intel/comments/1eyny65/comment/lkcxpt9/
Beast Lake war ein Roal Core Design hat er selber behauptet.
Ein Klassiker von ihm ist auch, irrwitzige IPC Steigerungen zu prognostizieren wie bei Meteor Lake. Wenn das dann wie erwartet nicht zutrifft (jeder seriöse wusste das MTL nur ein tick Architektur Update mitbringen wird), macht er nicht etwa seine Vorhersage als Fehler aus, sondern erfindet irgendwas, wo er Intel als Schuldigen hinstellen kann. Er selber macht nie Fehler, er liegt immer richtig. Sein Ego kann keine Fehler zugeben.
Lehdro
2024-08-31, 15:39:38
Ich glaube vor 4 Wochen hatte ich davon erstmalig gelesen.
Quick Googlecheck:
Er hat doch schon vor 4 Wochen darüber berichtet, wenn man sich den Titel dieses Videos anschaut. (https://www.youtube.com/watch?v=igDHiEbKGwY) (Angeschaut habe ich es nicht, keine Lust.)
Du betreibst also auch ganz schön viel FUD was ihn angeht. Ist das persönlich für dich? :confused:
Edit:
Er kann ja jetzt schlecht zugeben, dass Beast Lake nie existiert hat, wenn er davor ständig davon berichtet hat.
Aha: (https://forums.anandtech.com/threads/intel-current-and-future-lakes-rapids-thread.2509080/page-814#post-41015540)
I have no desire to play the leak game. But the Beast Lake name is real. That detail, at least, I will confirm.
Dickes Glashaus in dem du sitzt. :freak:
mocad_tom
2024-08-31, 19:44:35
Clearwater Forest nimmt Darkmont-Kerne, eine etwas verbesserte Version der Skymont Kerne von Arrow Lake.
Diamond Forest nimmt irgendwas Lion Cove mäßiges aber mit AMX.
Clearwater Forest hatte schon Tape Out.
Diamond Forest hat noch nicht Tape In - sie sind in der finalen Phase kurz vor Tape In.
Und der Kern, der dort entwickelt wird, der muss halt genug Wumms mitbringen. Wenn man Pat Gelsinger bei diesem Deutsche Bank Financial meeting so ein bisschen mitgelesen hat, dann ist der einzige Wachstumsmarkt der, wo die CPU der AI-GPU was hinliefern kann.
Und dort hat er auch angemerkt, dass Emerald Rapids die Daten schöner an Blackwell liefern kann als Grace.
Hier sind inferencing-Zahlen:
https://x.com/appenz/status/1828825055989735577
H200 liefert mehr als GH200.
Und inferencing ist weniger leistungsfordernd als training, dort werden die Unterschiede noch größer.
Bei Sierra Forest geht es doch nur noch drum Rechenzentrumsfläche zu konsolidieren. Es kommen gerade keine Datacenter-Herausforderungen, die massiv mehr Rechenkraft benötigen. Netflix mag seine Stromrechnung runterdrücken, aber durch das stagnierende Wachstum müssen sie nicht massiv Hardware dazu bauen.
Und bei AMD hat man auch nur von MI300X zahlen gesehen nix mit MI300A, die Versprechen mit den XPU erfüllen sich gerade nicht.
Die massive Zen5 AVX512 Leistung wurde nur dazugestückelt, damit Zen5 bei KI als Datenlieferant in den Ring ziehen kann. Sapphire und Emerald Rapids hatten die Nase vorne. Microsoft hat nur dewegen die Inferencing-Cluster aus Zen4 + MI300X gebaut, damit AMD an beiden Seiten mitoptimieren kann. Dort wird aber dann bald auf Zen5 umgeschaltet.
Beast Lake ist vllt wie damals Bulldozer einfach Over-Engineered und man hat halt rechtzeitig den Stecker gezogen.
Lion Cove liefert ab und vllt. muss man dem gar kein Hyperthreading mehr dazuspendieren. Wenn der einfach nur AMX dazubekommt und dafür dann ein paar 100Mhz einfach schneller laufen darf.
Bei AMX Workloads ist es eh so, dass der dann mit Base Clock läuft und trotzdem gigantische Mengen an Daten durchschaufelt.
Ungefährer ursprünglicher Plan:
- ARL -> NVL -> Beast Lake
jetziger Plan:
- ARL -> ARL-R -> NVL? -> ???
oder genauer:
18A-CPUs:
- Panter Lake (Cougar Cove (quasi Lion Cove Refresh, also das was Darkmont für Skymont ist), Darkmont),
- Clearwater Forest (Darkmont Server),
- Diamond Rapids (Lion Cove Server)
die gibts auch alle noch.
Weiterhin soll geplant gewesen sein:
- Nova Lake U/H Cougar Cove+Darkmont in 18A ohne Rentable Units (kommt wahrscheinlich noch)
- Nova Lake S Cougar Cove+Darkmont in N2 mit Rentable Units (1 und 2 Threads pro p-Core möglich) (gecancelt lt. MLID)
- Beast Lake S (wahrscheinlich TSMC N2P) 6 Royal-Cores, 1-4 Threads pro Kern möglich (gecancelt lt.MLID)
Für Nova Lake S muss es ja jetzt noch so ne Hauruck Entwicklung geben, ähnlich wie das bei Raptor Lake war, mal sehen wie das aussieht. Wenn Intel N2 schon gebucht hatte, muss irgendwas den Produktionsplatz besetzen.
Badesalz
2024-08-31, 21:00:02
Und bei AMD hat man auch nur von MI300X zahlen gesehen nix mit MI300A, die Versprechen mit den XPU erfüllen sich gerade nicht.Was ist jetzt XPU im Kontext mit AMD?
Die massive Zen5 AVX512 Leistung wurde nur dazugestückelt, damit Zen5 bei KI als Datenlieferant in den Ring ziehen kann.Hatten die nicht schon 2x256? Wäre ja nur eine Umwandlung... Das wäre sonst aber toll, wenn AMD "massive Leistung" einfach nur durch "dazustückeln" könnte. Nur warum machen sie das mit RDNA nicht? :usweet:
Bei AMX Workloads ist es eh so, dass der dann mit Base Clock läuft und trotzdem gigantische Mengen an Daten durchschaufelt.Gegenüber?
Ist das (AMX) nun fürs Schieben oder selbst rechnen?
Gipsel
2024-09-01, 00:01:59
Diamond Forest hat noch nicht Tape In - sie sind in der finalen Phase kurz vor Tape In.Tape-ins gibt es nicht, nur Tape-outs.
Oder Du meinst die umgekehrte Perspektive. Was für den Chip-Designer das Tape-out ist (Finalisierung des Designs und Senden an die Fab/Maskenshop), ist für die Fab das Tape-In (Erhalten des fertigen Designs vom Chip-Designer, ist aber eher ungebräuchlich). Also im Prinzip der identische Vorgang. ;)
mocad_tom
2024-09-01, 00:08:39
@Warum plötzlich XPU
Bei Falcon Shores wurde die XPU gecancelt und alle Armchair-Prozessor-Architekten haben gesagt "Der spinnt, wie kann Gelsinger das machen"
Tatsächlich sieht es aber so aus:
ZeRO-Offload is a ZeRO optimization that offloads the optimizer memory and computation from the GPU to the host CPU. ZeRO-Offload enables large models with up to 13 billion parameters to be efficiently trained on a single GPU.
https://www.deepspeed.ai/tutorials/zero-offload/
Man setzt hier bewusst drauf eben keinen unified Memory zu haben. In der CPU steckt deutlich mehr als in der GPU.
Und Grace Hopper hat ebenfalls keinen unified RAM.
nvidia hat bewusst Sapphire Rapids und später Emerald Rapids gewählt(und nicht Zen4 - das war nicht nur strategisch, sondern auch durch die Performance begründet).
Man sieht ja bei Blackwell - erneut wird ein B200-Score gemessen - aber noch kein GB200-Score. Die SVE Unit im ARM ist nur so Mittel für diese Aufgaben geeignet.
Während auf eine Grace-CPU zwei Hopper kommen, kommt auf eine Sapphire-Rapids-CPU vier Hopper-GPU.
Und trotzdem kommen bessere Scores bei Sapphire Rapids raus.
Die nächsten KI-Supercomputer(für TRAINING) bei Meta und bei Microsoft werden wieder mit x86 gebaut und wieder ohne unified Memory.
Zen5 und Granite Rapids werden sich hier blutigst bekriegen.
Zurück zur gecancelten Falcon Shores XPU: es war eine reflektierte Entscheidung. Und deshalb wird Beast Lake evtl auch eine reflektierte Entscheidung sein.
mocad_tom
2024-09-01, 00:12:37
@gipsel
https://x.com/gregorymbryant/status/1396860052145770497
Great way to start the week! We are taping in our 7nm Meteor Lake compute tile right now.
A well-deserved celebration by the team on this milestone. #IAmIntel #Innovation
Gipsel
2024-09-01, 00:15:21
@gipsel
https://x.com/gregorymbryant/status/1396860052145770497Zufälliger Vertipper in einem Twitter-Post sagt gar nichts. ;)
Oder kannst Du erklären, was das sein soll? Für Tape-Out kann Dir jeder erklären, wo der Begriff herkommt.
Edit mit Korrektur:
Wenn man verschiedene IP-Blöcke in einem Chip integriert, die separat entwickelt wurden, macht jeder dieser Teams eine Art Tape-out (nicht wirklich) zum Team, was die finale Integration verantwortet. Die Entgegennahme der fertigen Designs der IP-Blöcke zur finalen Integration wird eventuell bei intel intern als Tape-In bezeichnet.
mocad_tom
2024-09-01, 00:24:02
tape in meteor lake mai 2021 - tape out oktober 2021
https://sureshofficial.blogspot.com/2018/05/tape-out-vs-tape-in.html
reaperrr
2024-09-01, 01:25:04
Zufälliger Vertipper in einem Twitter-Post sagt gar nichts. ;)
Oder kannst Du erklären, was das sein soll? Für Tape-Out kann Dir jeder erklären, wo der Begriff herkommt.
Edit mit Korrektur:
Wenn man verschiedene IP-Blöcke in einem Chip integriert, die separat entwickelt wurden, macht jeder dieser Teams eine Art Tape-out (nicht wirklich) zum Team, was die finale Integration verantwortet. Die Entgegennahme der fertigen Designs der IP-Blöcke zur finalen Integration wird eventuell bei intel intern als Tape-In bezeichnet.
https://vavavoomproductions.com/was-bedeuten-tape-in-und-tape-out-im-elektronischen-design/
Also ein Vertipper ist es sicher nicht.
Nur weil ein Begriff relativ neu und noch nicht so geläufig ist, heißt das noch nicht, das es ihn nicht gibt.
w0mbat
2024-09-01, 10:32:35
Tape-in ist ein geläufiger Begriff.
Badesalz
2024-09-01, 10:47:39
nvidia hat bewusst Sapphire Rapids und später Emerald Rapids gewählt(und nicht Zen4 - das war nicht nur strategisch, sondern auch durch die Performance begründet)NA KLAR! :biggrin:
Die nächsten KI-Supercomputer(für TRAINING) bei Meta und bei Microsoft werden wieder mit x86 gebaut und wieder ohne unified Memory.
Zen5 und Granite Rapids werden sich hier blutigst bekriegen.Wow das ist mutig. Hätte ich nicht erwartet. Will das tatsächlich noch jemand machen, nach den Erfahrungen mit Aurora? :usweet:
Und die Probs sind nicht so wirklich weg. Man hat im Lab wie auf Top500 nur ehrliche Betroffenheit und Gnade walten lassen.
Zurück zur gecancelten Falcon Shores XPU: es war eine reflektierte Entscheidung.Natürlich war sie das. Wenn die Kundschaft der du das anzubieten versuchst dich fragt, ob du einen an der Waffel hättest für diese Leistung 1.5kW zu brauchen, dann solltest du reflektieren. Ne sorry: Rechnen mit 1,3kW. 200W davon war der integrierte "Ethernet"...
Dann sagt Jeff McVeigh halt: Der Markt hat sich in der Zeit so verändert, daß sein Plan auch mal ne APU zu machen, "premature" war. Der Markt hat sich in der Entwicklungszeit so verändert, daß so eine APU jetzt "no longer made sense to proceed".
Verstehst? Der Markt hat sich wohl, wie der Markt das halt so macht, zurückentwickelt. Daher hat sich Jeffs Idee als premature rausgestellt :uconf3:
Das ist aber auch nicht komplett falsch. Aktuell ist es halt so, daß bis Intel etwas bringt, der Markt sich bereits verändert ist.
Was aber tatsächlich wirklich schnell funktioniert ist das Reflektieren an sich. 17.05 lässt man die Werkzeuge noch verkünden, daß es bestätigt ist, ab 22.05 war die Idee "premature". Begleitet von irgendwas "for 2026".
mocad_tom
2024-09-01, 12:08:04
Vergleiche mal den Microsoft Eagle (auf dem wurde ja GPT4 trainiert) vs Alps vom Schweizer CSCS in der aktuellen Top500 Liste - have fun.
Die zweite Wahrheit, über die nicht so viel gesprochen wird:
So viel Netzwerktechnik wird gar nicht von nvidia geliefert.
Hopper und Blackwell können über Mellanox drüberkommunizieren.
Sie können aber auch über RoCEv2 drüberkommunizieren.
Und RoCEv2 ist halt einfach Off-The-Shelf-Netzwerktechnik und Nvidia Mellanox macht dir einen Vendor-Lock-In.
Bei den KI-Switches ist Broadcom Marktführer nicht nvidia.
nvidia schlüsselt das nicht auf.
Aber auf zwanzig H200 verkauft nvidia einen GH200.
Und bei Blackwell wird sich dieses Verhältnis nur minimal verändern.
80% des Datacenter-Revenue von nvidia kommen von 4 Kunden - Meta, AWS, Microsoft, google und die Trainieren Modelle auf H100 oder H200, aber das inferencing machen diese Player mit anderer Hardware - nicht mit Hopper und später nicht mit Blackwell.
Twitter Supercomputer auch RoCEv2 - komplett konventioneller aufbau.
https://www.yahoo.com/tech/elon-musk-fires-most-powerful-170521787.html
Badesalz
2024-09-01, 12:23:42
Das war jetzt aber nicht so wirklich im Kontext zu meinem Post oder? :whistle:
Hätte man dieses vom Zaun Brechen, nicht in einem passenderen Thread machen können? Im "wie geht es Intel" z.B.? Hätte wenigstens bisschen OnT.
Was ich bei NDv5 immer sehe, ist, daß ich nicht sehe, wieviel kW/MW sich das Zeug reinzieht. Das erleichtert nicht grad die Beurteilung. Was man aber klar sieht ist 2023 vs. 2020 und 2.073.600 vs. 128.000. Nun ja...
Was "klassisch" angeht: Bei APUs ist Wasserkühlung meist Pflicht. Das ist eine Hürde die man nehmen muss, wenn man die Infrastruktur dafür nicht schon hat.
Mal abgesehen davon, daß dies alles eh nur Chichi ist. Wenn man schon genug Personal mit entsprechendem Knowhow hätte, würde das überall schon auf Cerebras laufen. Gegenüber CS-3 sind NV oder AMD oder erst Recht Intel eher ein Scherz der vergangenen Tage.
mocad_tom
2024-09-01, 14:36:19
https://x.com/p1cturedump/status/1830218307019935844
12 Sapphire Rapids Cores betreiben eine H100-GPU
72 ARM-Cores betreiben eine H200-GPU
Zen5 will dorthin spechten.
Bei Lichte betrachtet und deshalb passt es in diesen Thread:
Das Killen von Beast Lake ist kein Beinbruch.
Top Engineers wurden aus dem Beast Lake Team in Falcon Shores gesteckt und das ist absolut richtig.
Skysnake
2024-09-01, 15:31:04
Arm und x86 big cores kannst du doch überhaupt nicht vergleichen. Die x86 fressen deutlich besser irregulären Code. Also irgendwelche Buisness Login sie voll von Branches ist.
Zossel
2024-09-01, 18:06:28
Arm und x86 big cores kannst du doch überhaupt nicht vergleichen. Die x86 fressen deutlich besser irregulären Code. Also irgendwelche Buisness Login sie voll von Branches ist.
Mir fällt eigentlich nichts ein warum ARM schlechter mit branchy Code als X64 klarkommen sollte.
iamthebear
2024-09-01, 19:30:04
Das ist alles eine Frage der Architektur, nicht des Befehlssatzes.
ARM lässt sich im Frontend etwas einfacher parallel decodieren da die Befehle eine feste Länge haben.
Nach dem Frontend gibt es sowueso nur mehr Micro Ops. Für Branch Predictor, Caches, Execution Units usw. ist der Befehlssatz vollkommen egal.
Badesalz
2024-09-02, 06:35:06
https://x.com/p1cturedump/status/1830218307019935844
12 Sapphire Rapids Cores betreiben eine H100-GPU
72 ARM-Cores betreiben eine H200-GPUBetreiben im 300A nicht 4 Zen4-Kerne, jeweils eine 300er GPU? Oder hab ich da was vercheckt? (kann gut sein)
Jetzt mal davon ab, daß sich kein Sinn in so einem Vergleich ergibt, wenn die GPUs nicht die gleichen sind und auch die sonstigen Eigenschaften der Architektur des Nodes nicht aufgeschlüsselt sind. Den Kunden selbst dagegen interessiert so etwas GARNICHT, da für ihn die einzigen wichtigen technischen Metriken der Preis pro nötige CPU und Watt pro nötige CPU sind.
Apropos Kunden. Willst du jetzt wirklich, daß ich aus dem Nähkästchen loslege in welchen (UND WARUM) Schritten Aurora gebaut wurde? :|
Was auch immer dich motiviert, ich würde an deiner Stelle den Ball erstmal noch bisschen flacher halten. Ich bin bisher nicht so hinterher weil einerseits OT, andererseits noch des Guten Willen wegen, aber wir sind jetzt schon bei 12 Fragestellungen von welchen du dich in der Lage sahst auf 5 einzugehen. Und deine Quote sinkt eher weiter.
Zen5 will dorthin spechten.Ist das so? :rolleyes: Im 300A bedienen 96 Cores 912 CUs. Ich glaub das macht allgemein auch mehr Sinn dabei nicht laienhaft von "GPU" zu sprechen, wenn man schon vollpro nicht von CPU, sondern von "Kernen" spricht. Du verstehst.
Top Engineers wurden aus dem Beast Lake Team in Falcon Shores gesteckt und das ist absolut richtig.Na mal sehen wo sie wieder gesteckt werden, wenn FalconShores gegen MI500A anstinken muss und sich die Idee als "premature" herausstellt.
davidzo
2024-09-02, 09:34:54
Naja, H100 und Mi-300X kann man schon recht gut vergleichen. Das zeigen ja die MLperf Benches bei denen sich AMD mit H100 vergleicht. Da sieht man auch wie wenig Zen5 vs Zen4 die Ergebnisse verbessert. Der wenige serielle Code der im CPUlimit läuft dürfte also überschaubar sein bei MLperf.
Mi-300A ist viel eher eine 3/4 GPU im Vergleich zur 300X. Das Verhältnis liegt mit 32 Kernen für eine volle GPU also eher zwischen den Sapphire Rapids basierten H100 Clustern und Grace Hopper.
12 Sapphire Rapids Cores betreiben eine H100-GPU
32 Zen4 Cores betreiben eine Mi-300X GPU (Mi300A: 24 Z4 + 3/4* Mi300X)
72 ARM-Cores betreiben eine H200-GPU
mocad_tom
2024-09-02, 09:57:42
https://x.com/p1cturedump/status/1830218307019935844
Ich habe sogar eine fiktiven Supercomputer auf 10.000 Hopper normiert (und dahinter Rmax als theoretische Rechenkraft rausgerechnet).
Ja ich vergleiche hier H100 mit H200 - aber die unterscheiden sich nur im mehr an GPU-RAM.
Zum Instinct MI300A -> ich sehe nur eine einzige Installation.
UND bei Instinct MI325X gibt es nur noch die GPU-only variante.
@Verhältnis CPU-Kerne zu GPU-Beschleuniger bei MI300A
24 Zen4 Kerne befeuern 0.75 MI300X (weil im MI300A ein paar GPU-Tiles rausgeflogen sind)
12 Sapphire Rapids befeuern einen H100
------------------------------
BTT
Ab dem 4. September können wir mit Lunar Lake wirklich schön rausfieseln, was Lion Cove so alles kann. Und an dem Kern wird Intel eine Zeit lang rumarbeiten und noch ein paar Handbremsen lösen.
Und so ein X3D-artiger Speicher steht ja auch im Raum.
Intel will mehr Advanced Packaging Kunden, dann brauchen die Referenz-CPUs zum herzeigen.
----
Edit @davidzo gleicher Gedanke
Badesalz
2024-09-02, 09:58:40
Naja, H100 und Mi-300X kann man schon recht gut vergleichen. Das zeigen ja die MLperf Benches bei denen sich AMD mit H100 vergleicht.Ja. Das war aber garnicht der Zankapfel. Der Typ hatte die steile PR-Idee unter verschiedenen CPU-Mikroarchitekturen mit verschiedenen GPUs gegenüberstellen zu können, wie viele Kerne wer braucht um "eine GPU" zu bedienen. Es ging nicht drum GPUs zu vergleichen :usweet:
Dir muss ich die Absurdität dessen nicht erklären oder? Du siehst an dem dazwischen geschobenen Beitrag auch die Mission. Richtig? "0.75 MI300X". Verstehste. Over the top Algebra.
Wenn einem nicht soviel am Forum liegen würde, wäre schon längst ignore bemüht.
Ich habe sogar eine fiktiven Supercomputer [...] Dafür brauchst du keine Zeit vergeuden. Nehm einfach Aurora.
edit:
WO siehst du nur eine einzige Installation? Du bist immernoch auf der Top500 angenagelt oder? MI300A ist bald eine Wald&Wiesen Hardware wie MI300X, wenn man sie so gebrauchen und bezahlen kann:
https://www.supermicro.com/de/accelerators/amd
Nächste Stufe sind dann flexible Hybride wie das ThinkSystem SR685a V3. Bestückst das mit Epycs und entscheidest dich dann entweder für die MI3X oder Nvidia. Achtung: Mit Epycs.
Ja von der 3er gibts als "A" nur die 300A. Heißt für dich, es wird bei der nächsten Runde keine 400A mehr geben? Was ist eigentlich GB200? Ist kein GB300 geplant?
KarlKastor
2024-09-02, 10:13:22
Tape-in ist ein geläufiger Begriff.
Und was genau besagt dieser?
w0mbat
2024-09-02, 10:35:12
Ein SoC besteht ja aus vielen verschiedenen Teilbereichen und IP-Blocks. Wenn diese fertig gestellt sind und zusammen gefügt werden, nennt man es „tape-in“. Korrigiert mich, falls ich falsch liege.
Badesalz
2024-09-02, 11:25:24
Hinzufügen eines fertigen Teilprojektes in das Ganze oder zum nächsten Teilprojekt (der drauf wartete, falls an der Stelle parallel nicht ging). Aus der Sicht des Empfängers ist es "tape-in von (XY)".
Es sind aber nur Begrifflichkeiten. Keine Ahnung was das jetzt für ein Klugshice-Massaker sein soll. Magnetbänder gibts da eh nicht mehr :wink: Bei uns heißt das flow-in und flow-out. aber auch nur, weil das jemand vor 20 Jahren lustig fand und sich das auch so eingebürgert hat. Interessiert sich sonst echt keine Sau dafür. Ehrlich...
robbitop
2024-09-02, 11:32:40
Ein SoC besteht ja aus vielen verschiedenen Teilbereichen und IP-Blocks. Wenn diese fertig gestellt sind und zusammen gefügt werden, nennt man es „tape-in“. Korrigiert mich, falls ich falsch liege.
Klingt wie das was "tape-out" ist.
Ob da wohl dass "Äffchen" Prinzip greift?
Also ein Äffchen hat das ggf einfach mal so gesagt und die anderen Äffchen haben es dann nachgesagt und wenn es genug Äffchen sagen ist es irgendwann ein legitimer Begriff. So wie zB Friseur mit "ö". Mal schauen wann es "Indschenjinör" (oder auch schon "Ingenör") heißt - dann verlasse ich das Land. ;D
w0mbat
2024-09-02, 11:39:00
Naja, tape-out ist wenn der ganze Chip fertig ist und die Fotomaske erstellt wird.Tape-in sind die einzelnen Teilbereiche davor. Du kannst nen NPU tape-in haben und auch wenn ale Teile schon ihren tape-in hatte, braucht es noch eine Weile bis zum finalen tape-out.
Badesalz
2024-09-02, 11:45:00
Ob da wohl dass "Äffchen" Prinzip greift?
Also ein Äffchen hat das ggf einfach mal so gesagt und die anderen Äffchen haben es dann nachgesagt und wenn es genug Äffchen sagen ist es irgendwann ein legitimer Begriff.Die gleiche Story also wie damals mit tape-out :rolleyes:
w0mbat
2024-09-02, 11:56:48
Ich hab "tape-in" das erste mal vor >8 Jahren gehört, ist jetzt kein wirklich neuer Begriff.
Badesalz
2024-09-02, 12:20:09
Schau nach wie alt tape-out wirklich ist. Das ist nicht nur nicht neu, das ist UR-alt ;)
robbitop
2024-09-02, 13:35:44
Aus der Zeit wo ggf wirklich noch tapes genutzt worden sind (und der Begriff noch Sinn machte). ^^
KarlKastor
2024-09-02, 14:25:03
Es interessiert doch niemanden der Begriff selber, sondern was denn nun der Zustand der Entwicklung ist zu diesem Zeitpunkt.
][immy
2024-09-02, 17:56:59
Also entgegen der großspurigen ankündigen von Intel, weisen die TDPs ja doch wieder auf einen extrem hohen Verbrauch hin. Langsam sollten sie ihre Fertigung doch mal in den Griff bekommen. Hier herrscht jetzt seit so vielen Jahren quasi Stillstand... Ist echt unglaublich wie unflexibel solche Konzerne sind.
Das klappt ja auch sehr gut mMn, nur in realistischen Zeiträumen. Wenn Mitte 25 dann ARL in 20A als Pipecleaner erscheint und PTL Ende 25 dann als erstes kommerzielles 18A-Produkt ist das schon eine Titanenleistung gewesen, das in den paar Jahren durchzuziehen, wenn man bedenkt, von wo Intel 2017/18/19 kommt - und das dann auch noch mit Customerstandards, nicht für Intel only.
reaperrr
2024-09-02, 18:49:37
Die gleiche Story also wie damals mit tape-out :rolleyes:
Jep, oder zig tausenden (oder wenn man alle Sprachen zählt, zig Millionen, oder gar Milliarden?) anderen Worten in der Menschheitsgeschichte :D
Im Ernst: Statt jetzt immer weiter zu versuchen, einen offensichtlich etablierten Begriff künstlich abzuwerten und die Existenzberechtigung abzusprechen, nur um nicht zugeben zu müssen, etwas schlicht nicht gewusst zu haben, sollte mancher es vielleicht einfach akzeptieren, abhaken und zum eigentlichen Thema zurückkehren.
Also entgegen der großspurigen ankündigen von Intel, weisen die TDPs ja doch wieder auf einen extrem hohen Verbrauch hin. Langsam sollten sie ihre Fertigung doch mal in den Griff bekommen. Hier herrscht jetzt seit so vielen Jahren quasi Stillstand... Ist echt unglaublich wie unflexibel solche Konzerne sind.
Das liegt ja nicht an der Fertigung.
Raptor war im Grunde noch in 10nm, gemessen daran ist der, wenn man ihn etwas näher am SweetSpot taktet statt Brechstange, sogar erstaunlich effizient. Intel taktet RTL für so einen inzwischen alten Prozess halt einfach ca. 500-700 MHz zu hoch, das ist alles.
Was ARL angeht: Die 250W-Modelle werden ja gar nicht mehr bei Intel gefertigt, sondern in TSMC N3B, welcher zumindest ggü. Intel 7 aka 10nm schon deutlich effizienter sein sollte.
Das Hauptproblem ist eher, dass das P-Kern-Design zu viele Transistoren hat und Intel für Konkurrenzfähigkeit bzw. einige Benchmark-Wins scheinbar wieder zu weit über den SweetSpot takten muss/will.
Schon die Raptor-Kerne wären selbst im gleichen Prozess massiv fetter als z.B. Zen4-Kerne, trotz ähnlicher IPC.
Das wird bei Lion Cove allein schon durch die nochmal vergrößerten Caches im Vergleich zu Zen5 auch nicht besser aussehen.
Und Transistoren brauchen grundsätzlich Strom. Klar, du kannst die Taktbarkeit am oberen Ende durch zusätzliche Pipeline-Stages und Masse-Transistoren strecken, aber das macht die Kerne dann halt [I]noch größer.
Das Problem ist bei ARL nicht mehr der Prozess, sondern das - zumindest in Sachen Perf je Million Transistoren - einfach nicht mehr so wirklich konkurrenzfähige P-Kern-Design.
AMD holt einfach aus viel weniger Transistoren ne ähnliche Performance raus, und hat es damit auch leichter effizient zu bleiben.
mocad_tom
2024-09-02, 20:11:56
Und Transistoren brauchen grundsätzlich Strom. Klar, du kannst die Taktbarkeit am oberen Ende durch zusätzliche Pipeline-Stages und Masse-Transistoren strecken, aber das macht die Kerne dann halt noch größer.
Das Problem ist bei ARL nicht mehr der Prozess, sondern das - zumindest in Sachen Perf je Million Transistoren - einfach nicht mehr so wirklich konkurrenzfähige P-Kern-Design.
AMD holt einfach aus viel weniger Transistoren ne ähnliche Performance raus, und hat es damit auch leichter effizient zu bleiben.
Ja Nein Jein
Je mehr sich ein Core darauf verlässt, dass er einfach nur viel Cache hat, dann wird das Core-Design in den nächsten Shrinks ganz schön gef**** .
https://x.com/overunderlay/status/1829284495104872773
Die Pipeline kann schön mit dem Prozess geshrinkt werden, Cache-Zellen werden kaum noch kleiner.
Und der Raptor Lake Core ist nicht ganz so empfindlich bei diesen vermurksten Context-Switches (die jetzt bei W11 zu Tage traten und jetzt gefixt sind, dennoch habe ich in richtigen VM-Umgebungen auch Context-Switches).
Ich denke das Pendel geht nicht so klar in Richtung Zen5, wie manch einer es hier gerne analysiert. Mit Granite Rapids werden wir mehr wissen und dort kommt ein RedwoodCove-Plus Kern rein.
Badesalz
2024-09-02, 21:29:50
Ich denke das Pendel geht nicht so klar in Richtung Zen5, wie manch einer es hier gerne analysiert.Ich denke das Gegenteil. Im Gegensatz zu Ryzen 9000 sind die Zen5 Epycs auch schon fertig (Microcode). Und die Ballern wieder richtig. Im Server ist das Thema auch diesmal imho erstmal durch.
Was Technik angeht. Was die OEMs machen ist eine andere Sache. Imho kommt da noch einiges an Marktanteilen wieder zusammen. Aber keine Vernichtung oder so :rolleyes: Darum gehts auch nicht. Noch +10% Marktanteile wäre aber endlich eine Art gesunder Markt.
Ich bin grad halt (verschiedene Gründe, auch beruflich) nicht so gut auf die Blauen zu sprechen und schau mir das grad mit bisschen Genugtuung an wie AMD jetzt eine weitere Tortilla Slap Challenge gewinnt, aber keiner beim gesunden Menschenverstand will Intel auf dem Boden kriechen sehen.
Jeder weiß wohin sowas führt. Dank NV.
edit:
Kommt vom ex Intel-Fanboy. Xeons der v2 bis v4 teils gehabt, teils noch zur vollen Zufriedenheit privat in Benutzung. TOP für mich. E3-1220L v2 ist immernoch meine absolute lieblings x86-CPU ever :uup:
Zossel
2024-09-03, 05:18:44
und Masse-Transistoren strecken
Schon wieder diese berühmten Masse-Transen.
mocad_tom
2024-09-03, 11:28:48
https://wccftech.com/intel-core-ultra-9-285k-cpu-benchmark-asus-rog-maximus-z890-apex-leak/
Geekbench ST:
285K: 3420
Ryzen 9950X: 3359
Geekbench MT:
285K: 23376
Ryzen 9950X: 20550
Jetzt noch bei Spiele gute Werte und die Karten werden neu gemischt
M4xw0lf
2024-09-03, 11:35:35
https://wccftech.com/intel-core-ultra-9-285k-cpu-benchmark-asus-rog-maximus-z890-apex-leak/
Geekbench ST:
285K: 3420
Ryzen 9950X: 3359
Geekbench MT:
285K: 23376
Ryzen 9950X: 20550
Jetzt noch bei Spiele gute Werte und die Karten werden neu gemischt
Geekbench MT überbewertet aktuelle Intel-CPUs deutlich gegenüber echten Anwendungen, mal sehen was davon real übrig bleibt.
dildo4u
2024-09-03, 11:47:43
Mit Zen 5 passt das besser als bisher 9900X = 14700k passt zu den Anwendungs Benchmarks zumindest unter Windwos.
Schnitt aller Reviews 9900X + 2.8% zu 14700k
https://i.ibb.co/5hHDJ1k/Bildschirmfoto-vom-2024-09-03-11-48-20.png (https://ibb.co/Ld7ws0r)
https://www.3dcenter.org/artikel/launch-analyse-amd-ryzen-9000/launch-analyse-amd-ryzen-9000-seite-2
Bei Geekbench 6 ist 9900X auch minimal schneller.
Badesalz
2024-09-03, 11:51:45
Jetzt noch bei Spiele gute Werte und die Karten werden neu gemischtGeekbench, ist nen Shicdreck wert. Was schleppst du denn hier an?
Lief der Blaue da echt mit nem 7200er RAM und mit VIER Channels? :rolleyes: Und der AMD?
@dildo4u
Schnitt aller Reviews in "Anwendungs Benchmarks" ist immernoch ein Haufen Müll, wenn man sich anschaut was da streckenweise als Anwendung gilt. Warum muss ich dir das erklären?
2 DDR5 DIMMs sind vier channels ;)
Badesalz
2024-09-03, 12:14:02
Jo lecks die Ku'... Stimmt :usweet: Aber die 7200 sind schon ok :uup:
dildo4u
2024-09-03, 12:17:20
Was willst du sonst als Maßstand nehmen dein Gefühl Zen 5 ist eine Gurke und wird massiv im Preis fallen damit es gegen Intel Sinn macht eine andere Einschätzung gibt es nicht.
Du hast diese Generation vergleichbare Voraussetzungen weil man jeweils alles neu kaufen muss wenn man ein DDR4 System besitzt.
Badesalz
2024-09-03, 12:25:42
Man kann vieles per Scripte benchen. Das haben die PR-Werkzeuge aber meist nicht drauf. Sie nehmen irgendeinen Blödsinn vom Benchtool der sich damit auszeichnet, daß man Knöppken drückt und nach ner Weile eine Zahl bei rauskommt. Was hat das mit "Anwendungen" zu tun?
Warum müssen wir uns immer an die untersten angleichen, mit ihren ycruncher, Geekbench & Co. Das sind keine "synthetische Anwendungen". Das sind garkeine Anwendungen.
Wenn es erstmal noch nichts anderes als Geekbench gibt, gibts es erstmal noch garnichts.
mocad_tom
2024-09-03, 13:51:41
@Badesalz
Ein bisschen runterkommen - da hängt nicht die Welt dran.
Heute muss man nur mal den Lion Cove in Lunar Lake auf 4GHz festnageln, und dann wissen wir schon ein bisschen mehr zu Arrow Lake.
Und diese schadenfrohe Vorhersage von Igor Wallosek zu Arrow Lake von vor einem Jahr scheint sich auch nicht zu bestätigen.
Wir haben hier feine Kerne, feines Uncore, feiner Prozess, feiner IMC.
Ohne SMT und mit starken E-Cores muss man auch mit Prozess-Lasso nicht rummurksen.
Einfach heute 18:00Uhr abwarten.
fondness
2024-09-03, 14:05:03
Geekbench, ist nen Shicdreck wert. Was schleppst du denn hier an?
Lief der Blaue da echt mit nem 7200er RAM und mit VIER Channels? :rolleyes: Und der AMD?
Interessant wird auch ob bei den OCing Boards wieder maximale TDP gegeben wird und wieviel davon beim Intel default Profil übrig bleibt. Aber es sollte durch 3nm hoffentlich doch deutlich besser sein als bisher. Jedenfalls riegelt der 9950x bei 200W ab, der 285X geht mal mindestens auf 250W. Plus natürlich wie es mit dem AMD-Patch in Windows aussieht.
@Badesalz
Ein bisschen runterkommen - da hängt nicht die Welt dran.
Heute muss man nur mal den Lion Cove in Lunar Lake auf 4GHz festnageln, und dann wissen wir schon ein bisschen mehr zu Arrow Lake.
Und diese schadenfrohe Vorhersage von Igor Wallosek zu Arrow Lake von vor einem Jahr scheint sich auch nicht zu bestätigen.
Wir haben hier feine Kerne, feines Uncore, feiner Prozess, feiner IMC.
Ohne SMT und mit starken E-Cores muss man auch mit Prozess-Lasso nicht rummurksen.
Einfach heute 18:00Uhr abwarten.
Die Vorhersage war 5-15% mehr Leistung als RPL und genau das sehen wir doch. Ich weiss ja auch nicht, was du da gelesen hast, aber schadenfroh war Igor auch nicht, der hat sich doch sogar über die Performancezuwächse gefreut :freak:. Zen5 ist halt auch nicht viel besser als RPL bei Cosumer Workloads, der geht erst bei Serversachen und AVX richtig steil. Es zeichnet sich doch exakt die Vorhersage bei Spielen ab: RPL = Zen5 < ARL < Zen5X3D.
Immer diese Paranoia.
Badesalz
2024-09-03, 21:30:25
@Badesalz
Ein bisschen runterkommen - da hängt nicht die Welt dran.Es wird aber fortlaufend der Welt erzählt. Nervt dich sowas nicht irgendwann?
Wir haben hier feine Kerne, feines Uncore, feiner Prozess, feiner IMC.Möchtest du einer Computerhardware einen Michelinstern vergeben?
eratte
2024-09-05, 07:56:03
Intel announces cancellation of 20A process node for Arrow Lake, goes with external nodes instead, likely TSMC
https://www.tomshardware.com/pc-components/cpus/intel-scraps-18a-process-for-arrow-lake-goes-with-external-nodes-likely-tsmc
Kriegsgeier
2024-09-05, 08:34:36
krass, das verändert doch ziemlich alles. Ich dachte Arrow Lake wird vollständig bei Intel gefertigt. Genau mit dem 20A Knoten - krass
Es wird also alles bei TSMC gemacht? Nur das Zusammenführen und Testen bei Intel?
Hier alles übersetzt:
Intel kündigt die Stornierung des 20A-Prozessknotens für Arrow Lake an und setzt stattdessen auf externe Knoten, wahrscheinlich TSMC
In einem überraschenden Schritt gab Intel heute bekannt, dass es bei seinen kommenden Arrow-Lake-Prozessoren für den Verbrauchermarkt nicht mehr plant, seinen eigenen „Intel 20A“-Prozessorknoten zu verwenden. Stattdessen wird es für alle Arrow-Lake-Chipkomponenten externe Knoten verwenden, wahrscheinlich vom Partner TSMC. Intels einzige Fertigungsverantwortung für die Arrow-Lake-Prozessoren besteht darin, die extern hergestellten Chiplets in den endgültigen Prozessor zu verpacken.
Die Ankündigung erfolgt, während Intel nach den beunruhigenden Finanzergebnissen des letzten Quartals eine umfassende Umstrukturierung einleitet. Das Unternehmen entlässt weiterhin 15.000 Mitarbeiter , eine der größten Personalkürzungen in seiner 56-jährigen Geschichte.
Der Knotenwechsel erfolgt, nachdem Intel auf seiner Veranstaltung Innovation 2023 erstmals einen Wafer mit Arrow Lake-Prozessoren vorgeführt hatte, die auf dem 20A-Knoten hergestellt wurden , was darauf hindeutete, dass die Chips bereits weit im Entwicklungszyklus fortgeschritten waren. Damals sagte Intel, Arrow Lake würde 2024 auf den Markt kommen. Seitdem deuteten Branchengerüchte darauf hin, dass der 20A-Knoten nur für eine Teilmenge der Arrow Lake-Familie verwendet wird , während der Rest einen TSMC-Knoten verwenden würde.
Intel sagt, dass sein entscheidender Next-Gen-Knoten „Intel 18A“ weiterhin im Zeitplan für die Markteinführung im Jahr 2025 liegt. Das Unternehmen hat seine Entwicklungsressourcen nun von 20A auf den neueren 18A-Knoten verlagert, was laut Angaben des Unternehmens durch die Stärke der Ertragsmetriken für 18A vorangetrieben wurde. Intel stellte erneut fest, dass es für 18A eine D0-Defektdichte (def/cm^2) von unter 0,40 erreicht habe , eine kritische Messung der Ertragsrate für einen Prozessknoten. Ein Prozessknoten wird normalerweise als produktionsreif und intakt angesehen, sobald D0 0,5 oder weniger erreicht.
Es sieht so aus, als würde Intel seinen 20A-Prozess nun komplett überspringen und die Kapitalausgaben vermeiden, die erforderlich sind, um den Knoten auf volle Produktion zu bringen. Die Beseitigung der immer horrenden Anlaufkosten eines neuen Knotens, insbesondere eines so fortschrittlichen wie 20A, wird sicherlich dazu beitragen, dass das Unternehmen seine Kostensenkungsziele erreicht.
Der Intel 20A-Knoten war für viele Produkte nie geplant, da das Unternehmen schnell auf den fortschrittlicheren 18A-Knoten umsteigen wollte, um sein Ziel zu erreichen, fünf Knoten in vier Jahren auszuliefern. Der Ausbau einer umfangreichen 20A-Produktion hätte also nur begrenzte Erträge gebracht. Intels 20A diente jedoch als Vehikel für mehrere neue Fortschritte, wie die RibbonFet Gate-All-Around (GAA )-Technologie, Intels erstes neues Transistordesign seit der Einführung von FinFET im Jahr 2011. Es war auch das Debüt der PowerVia-Rückseiten-Stromversorgungstechnologie des Unternehmens , die den Strom für die Transistoren durch die Rückseite des Prozessorchips leitet.
Intel sagt, dass die Erkenntnisse, die es aus seinem 20A-Knoten gewonnen hat, zum Erfolg seines 18A-Knotens beigetragen haben, was Sinn macht, da 18A eine engere Verfeinerung der für 20A entwickelten Technologien ist. Natürlich wird es Spekulationen geben, dass Intel mit seinem 20A-Knoten auf Ertragsprobleme gestoßen ist, aber uns sind keine externen Indikatoren für den Zustand des 20A-Prozessknotens bekannt.
Intel weist darauf hin, dass es Chips mit dem 18A-Prozess bereits im Labor gebaut hat und Betriebssysteme bootet. Außerdem hat es angekündigt, dass es nun sein wichtiges PDK 1.0 an Kunden ausgeliefert hat. Dieses wichtige Design-Framework wird es externen Kunden ermöglichen, Chips mit Intel-Prozessknoten zu bauen, eine wichtige Komponente von Intels Turnaround-Plan IDM 2.0, der darauf beruht, dass das Unternehmen zu einer externen Gießerei wird, die Chips für externe Kunden produziert.
Microsoft und das US-Verteidigungsministerium haben bereits eine Vereinbarung zur Produktion von Chips mit dem 18A-Knoten unterzeichnet, und Intel plant, bis Mitte 2025 über acht Tape-Ins zu verfügen.
Altehardware
2024-09-05, 10:12:55
dad erklärt einiges nun wo steht dann intel beim node
Der intel 7 entspricht in etwa tsmc n7 node mit viel augenzudrücken
Der tsmc n3 dürfte gut 60% Energie einsparen
Das hat intel bei ihren cpu auch nötig
der Takt soll bei 5,5ghz was etwas über dem sweetspot sein dürfte bei einer dichten cpu
Wenn n3b das soll vs n3 +5% effizienter sein also Takt = vernachlässigbar.
n5 vs n7 etwa 30% effizienter
derzeit 5,7ghz bei 330w (220a singlecore)
abzüglich des hammers von 1,5v auf 1,3v wo nur noch 4,5ghz erreicht wird =253w
253*0,4=102w
Somit dürften die cpu ne tdp von 195w haben bei 1,4v maximum =140a
und das bei maxed 5,5ghz peak turbo norm 5,2ghz=-600mhz
Da muss die ipc der arch deutlich schneller sein um das aufzufangen maximal sehe ich wie bei zen5 +5% als möglich an.
zwar ist der n3 node besser aber intels design ist zu dicht gepackt.
intels 20a versprach gaa das hätte viel gebracht -80% Energie vs intel7
KarlKastor
2024-09-05, 10:30:28
Das liest sich wie Brechdurchfall. Ein paar Fehler im Text schön und gut, aber den Mist kann man überhaupt nicht entziffern. Starte mal mit Interpunktion und vollständigen Sätzen.
Badesalz
2024-09-05, 11:38:16
Alle einmal volle Konzentration bitte! :eek:
und Intel plant, bis Mitte 2025 über acht Tape-Ins zu verfügen.TAPE-INs. Es gibt sie wirklich! :usweet:
Kriegsgeier
2024-09-05, 11:42:47
das wer der Googleüberzetzer :)
Badesalz
2024-09-05, 12:36:07
:| Das steht so im Originaltext ;)
Alle einmal volle Konzentration bitte! :eek:
TAPE-INs. Es gibt sie wirklich! :usweet:
Ist doch kein Wunder, wenn sie Nova Lake S, Beastlake und Konsorten gecancelt habem, müssen schnell Ersatzprodukte her. Hinzu kommen noch die üblichen Mobilprozessoren für Post-Nova-Lake und Celestial-GPUs/IGP-Chiplets.
E39Driver
2024-09-05, 14:10:50
Wenn Arrow- und Luna-Lake nun komplett aus TSMC Fertigung kommen und die GPUs auch, mit was will Intel dann zukünftig seine ganzen Fabs auslasten. Wirklich Aufträge zur Auftragsfertigung kamen nicht rein und mit dem alten RPL Plunder kann man doch mittelfristig nicht die Werke auslasten?
dildo4u
2024-09-05, 14:12:49
Für RMA von 13 14Gen?
https://wccftech.com/intel-14th-13th-gen-rma-requests-huge-delays-stock-availability-issues/
MiamiNice
2024-09-05, 14:15:46
Was hat die RMA von 13 und 14 Gen im 15 Gen Thread verloren?
In einem überraschenden Schritt gab Intel heute bekannt, dass es bei seinen kommenden Arrow-Lake-Prozessoren für den Verbrauchermarkt nicht mehr plant, seinen eigenen „Intel 20A“-Prozessorknoten zu verwenden. Stattdessen wird es für alle Arrow-Lake-Chipkomponenten externe Knoten verwenden, wahrscheinlich vom Partner TSMC. Intels einzige Fertigungsverantwortung für die Arrow-Lake-Prozessoren besteht darin, die extern hergestellten Chiplets in den endgültigen Prozessor zu verpacken.
Das ist gut zu wissen. Damit entfällt die Entscheidung ob man ein 6P Core Intel 20A ARL kauft oder einen 8P TSMC.
dildo4u
2024-09-05, 14:17:28
Er hat gefragt was Intel noch selber Fertigt wenn alles auf TSMC geht.
amdfanuwe
2024-09-05, 14:21:10
Wenn Arrow- und Luna-Lake nun komplett aus TSMC Fertigung kommen und die GPUs auch, mit was will Intel dann zukünftig seine ganzen Fabs auslasten.
Mit den Interposer Base-Tiles?
spotz
2024-09-05, 17:00:22
Wenn Arrow- und Luna-Lake nun komplett aus TSMC Fertigung kommen und die GPUs auch, mit was will Intel dann zukünftig seine ganzen Fabs auslasten. Wirklich Aufträge zur Auftragsfertigung kamen nicht rein und mit dem alten RPL Plunder kann man doch mittelfristig nicht die Werke auslasten?
Soll nicht Arrow Lake-U aus der Intel 3 Fertigung kommen für Laptops unter 1000 Euro?
dildo4u
2024-09-07, 07:30:52
Erste ArrowLake UK Preise
https://videocardz.com/newz/intel-core-ultra-9-285k-7-265kf-and-5-245kf-listed-by-first-retailer
reaperrr
2024-09-07, 08:00:13
Soll nicht Arrow Lake-U aus der Intel 3 Fertigung kommen für Laptops unter 1000 Euro?
Ja, auch wenn's in Wahrheit nur ein MTL-Refresh in Intel3 sein soll, also noch immer Redwood-Kerne usw.
Aber mit ARL-U aka MTL-Refresh, Granite Rapids, sowie dem Clearwater Forest Base Tile in Intel3T hat man schon einige Intel3-Produkte.
Die Frage ist halt, wie hoch die Nachfrage sein wird.
Kriegsgeier
2024-09-07, 08:20:56
krass: es gibt eine 24C 285T CPU mit 35 Watt? Wow!
dildo4u
2024-09-07, 08:24:31
Base TDP 14900t hat 35 Base 100 Watt Boost.
https://www.intel.de/content/www/de/de/products/sku/236791/intel-core-i9-processor-14900t-36m-cache-up-to-5-50-ghz/specifications.html
Hakim
2024-09-07, 13:14:37
Komisch das es bei dem 245K und 245KF Takt Unterschiede gibt
Prinzenrolle
2024-09-07, 16:10:41
Base TDP 14900t hat 35 Base 100 Watt Boost.
Einige werden sich bald über die Effizienz wundern.
Die ist nämlich deutlich besser als bei Zen 5, aber nicht in jeder Wattklasse, eher <150W.
Gamingperformance geht auch gut ab.
Die kleinste CPU der 245K leistet etwa soviel wie ein 7800X3D/14900KS bei ~75W, damit ist das Effizienzargument der X3D CPUs nicht mehr gültig.
Base TDP 14900t hat 35 Base 100 Watt Boost.
Bleibt auch schön kühl. Drückt bei 100W Cinebench leicht über 14700K Performance raus. Die E-Cores bringens einfach.
9950X und 285K nehmen sich aber bei ~200-250Watt wenig bei MC Performance.
robbitop
2024-09-08, 10:00:03
Welch Überraschung, wenn man eine CPU auf einem niedrigen Betriebspunkt (und nicht am Limit) betreibt wird sie um ein Vielfaches effizienter. Frequenz korreliert mit einer Potenzfunktion zur Leistungsaufnahme - insbesondere im Grenzbereich.
fondness
2024-09-08, 10:03:49
So nicht richtig. Frequenz korreliert mit einer Linearfunktion zur Leistungsaufnahme, aber Spannung korreliert mit einer Potenzfunktion (x^2) zur Leistungsaufnahme. ;)
Und für mehr Frequenz braucht es ab einem gewissen Limit sehr viel mehr Spannung.
robbitop
2024-09-08, 10:21:19
Nichts anderes habe ich gemeint. Natürlich implizit formuliert weil ich davon ausgehe dass das allen klar ist. Aber schön ausformuliert, Schlaubi Schlumpf. Das Bienchen hast du dir verdient X-D
Zossel
2024-09-08, 10:22:10
So nicht richtig. Frequenz korreliert mit einer Linearfunktion zur Leistungsaufnahme, aber Spannung korreliert mit einer Potenzfunktion (x^2) zur Leistungsaufnahme. ;)
Und für mehr Frequenz braucht es ab einem gewissen Limit sehr viel mehr Spannung.
Wenn man einen niedrigen Betriebspunkt will würde man wohl eher die FETs für einen möglichst niedrigen VGS(th) (https://en.wikipedia.org/wiki/Threshold_voltage) auslegen. (Achtung: Konjunktiv)
fondness
2024-09-08, 10:23:34
Nichts anderes habe ich gemeint. Natürlich implizit formuliert weil ich davon ausgehe dass das allen klar ist. Aber schön ausformuliert, Schlaubi Schlumpf. Das Bienchen hast du dir verdient X-D
Die Aussage "Frequenz korreliert mit einer Potenzfunktion zur Leistungsaufnahme" ist eben falsch. Darauf kann man schonmal hinweisen :)
Wenn man einen niedrigen Betriebspunkt will würde man wohl eher die FETs für einen möglichst niedrigen VGS(th) (https://en.wikipedia.org/wiki/Threshold_voltage) auslegen.
Ja stimmt, das fällt einem dann aber wieder bei höheren Betriebspunkten auf dem Kopf. /Edit: Hast du eh schon angedeutet.
robbitop
2024-09-08, 10:50:42
Über den Umweg der f/v Kurve ist das schon richtig und nur impliziert. Und das ist 8. Klasse Physik Wissen. Das sollte hier jeder wissen daher habe ich es impliziert. Das ist keine Korrektur das ist einfach nur kleinliche Besserwisserei.
Ich hoffe, das war’s jetzt mit dem Thema.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.