Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Arrow Lake (Lion Cove+Skymont, Xe HPG, LGA1851, 20A+N3B, 2024)
Seiten :
1
2
[
3]
4
5
6
7
8
9
davidzo
2024-03-06, 10:44:24
Dass Intel bei der EUV Umstellung spät dran war und dadurch eine Lücke hat die von TSMC aufgefüllt wird war ja bekannt. Ein bisschen neu ist die Info dass Intel es trotz aller Bemühungen nicht geschafft hat diese Delle mit Foundry-Aufträgen aufzufüllen. Das liegt sicher auch daran dass man intel7 / 10nm gar nicht erst den Foundrykunden angeboten hat. Und bei den anderen prozessen war man wohl zu langsam oder unkompetitiv mit der performance und dem pricing als dass man viele Kunden gewinnen hätte können. Das sie dchon irgendwie eine Niederlage für die Intel Foundry aus und dürfte Intel ganz gut an die Reserven gehen.
Auch interessant ist dass man gedenkt Intel7/10nm zurück zu bauen auf Intel 12.
Der Nachfolgenode von 22FFL ist basiert also nicht auf 14nm sondern auf Intel7.
Das zeigt eigentlich deutlich dass Intel selbst ihren eigenen aktuellen 7/10nm Node nicht für dauerhaft praktikabel hält. Relaxtere regeln, weniger Maskensteps und vermutlich viel viel weniger Leckströme sind der DUV prozess der größten Ausbaustufe den man langfristig den Foundrykunden anbieten will.
mocad_tom
2024-03-06, 11:44:21
Ich glaube es schmerzt, dass Tower Semi nicht mit eingegliedert werden konnte.
Intel 3 ist schlechter als TSMC N3
Es bringt also nix, wenn man den jetzt starten lässt und ausbaut und dann ist er doch wieder schlechter als TSMC.
Der Prozess wird auch vom Fleck weg gut laufen, weil NXE3600D das Belichten relativ easy macht. TSMC macht auch den N2-Prozess mit dem NXE3600D.
Wenn man sich jetzt zu lange mit Intel 3 beschäftigt, dann kommt man wieder nicht vor die Welle.
Zossel
2024-03-06, 11:53:11
Dass Intel bei der EUV Umstellung spät dran war und dadurch eine Lücke hat die von TSMC aufgefüllt wird war ja bekannt. Ein bisschen neu ist die Info dass Intel es trotz aller Bemühungen nicht geschafft hat diese Delle mit Foundry-Aufträgen aufzufüllen.
Große Tanker brauchen eben Zeit für Kursänderungen.
Intel ist kein schnelles Schlauchboot was mal eben auf Zuruf wenden kann.
TSMC hat auch seine Zeit gebraucht bis es da steht wo es jetzt steht.
Die Herausforderungen für Intel dürften hier gut beschrieben sein: https://www.semianalysis.com/p/rebuilding-intel-foundry-vs-idm-decades
reaperrr
2024-03-06, 13:14:21
TSMC hat auch seine Zeit gebraucht bis es da steht wo es jetzt steht.
Jup.
Zu 55nm-Zeiten war selbst UMC noch relativ konkurrenzfähig.
32nm mussten sie mangels Nachfrage ganz streichen.
Nach 28nm wurden sie erst wieder mit FinFET und hier auch erst so richtig mit 16FF+ konkurrenzfähig zu Intel, genau wie Samsung mit 14LPP.
Und ohne Intel's 10nm-Fiasko (wobei auch 7nm aka Intel 4/3 zu lange gebraucht hat) sowie Samsungs Probleme, nach dem noch konkurrenzfähigen 10LPP einen echten N7-Konkurrent auf die Beine zu stellen, wäre auch TSMC's N7(P) nicht so extrem positiv herausgestochen.
Samsung wollte bei 7LPE/LPP nicht zweigleisig fahren und direkt auf EUV, statt wie TSMC bei N7(P) noch auf DUV zusetzen, im Nachhinein hat Samsung damit extremst in die Scheiße gegriffen. Was natürlich keine Garantie dafür ist, dass sie nicht so oder so den Anschluss verloren hätten.
Aber sowohl Samsung als auch Intel haben in ihren Prozess-Roadmaps nach 10LPP respektive 14nm einige eklatante Fehlentscheidungen getroffen bzw. Fehler in der R&D gemacht, die sie genau zum falschen Zeitpunkt gegenüber TSMC Jahre gekostet haben, die mangels externer Auftragsvolumen und damit Gelder kaum wieder aufzuholen sind, solange TSMC selbst keine gravierenden Fehler macht oder "geopolitische Events" dazwischenkommen.
Zossel
2024-03-06, 13:47:17
Und ohne Intel's 10nm-Fiasko (wobei auch 7nm aka Intel 4/3 zu lange gebraucht hat) sowie Samsungs Probleme, nach dem noch konkurrenzfähigen 10LPP einen echten N7-Konkurrent auf die Beine zu stellen, wäre auch TSMC's N7(P) nicht so extrem positiv herausgestochen.
TSMC hatte durchaus auch heftige Rückschläge in der Prozessentwicklung.
iamthebear
2024-03-08, 19:02:43
Intel 4 ist noch ein deutlich größeres Fiasko als 10nm.
10nm hat 5 Jahre gebraucht hat aber zumindest in der Praxis eine > 2x Density (Tiger Lake vs. Rocket Lake) bei gleicher IPC
Bei Meteor Lake waren es nach 5 Jahren 1.33x Density bei gleicher IPC (Redwood Cove vs. Golden Cove)
Mit dem Takt hatten beide dieselben Probleme bei Release
Und wenn ich mir die Kapazitätsplanung so ansehe wird man bis 2027 nicht wirklich mehr liefern können.
Mag sein, dass man die Kunden mit TSMC Chips bedienen kann aber was machen dann die ganzen Fabs? Base Dies machen die man bei einer vernünftigen Ausbeute und monolithischen Chips gar nicht gebraucht hätte?
Mit dem Takt hatten beide dieselben Probleme bei Release
Cannonlake-U 2C 3.2 Ghz
Icelake-U 4C 3.9 Ghz
Meteor Lake-H 6C+8C 5.1 Ghz
Dieselben Probleme :freak:
Und wenn ich mir die Kapazitätsplanung so ansehe wird man bis 2027 nicht wirklich mehr liefern können.
Na wenn du das sagst, muss es ja stimmen....selten so ein Quatsch gelesen.
iamthebear
2024-03-08, 21:42:41
Cannonlake-U 2C 3.2 Ghz
Icelake-U 4C 3.9 Ghz
Meteor Lake-H 6C+8C 5.1 Ghz
Dieselben Probleme :freak:
Im Jahr 2019:
Bisherige Desktop 14nm Spitzentaktrate (9900K): 5GHz
Ice Lake 1065G7 15W Mobile: 3.9GHz also 1.28x langsamer
Im Jahr 2024 (OK Ende 2023):
Bisherige Desktop Intel 7 Spitzentaktrate (14900K): 6GHz
Meteor Lake 185H 45W: 5.1GHz also 1.18x langsamer
OK der Unterschied war bei Ice Lake noch etwas größer aber dafür war das auch eine 15W CPU.
Na wenn du das sagst, muss es ja stimmen....selten so ein Quatsch gelesen.
https://pbs.twimg.com/media/GHW5mkRXcAAMD77?format=jpg&name=4096x4096
Zum Vergleich:
Die 10nm Fertigung hat die 14nm Fertigung in Q2 2021 überholt. Damals war Alder Lake (erste 10nm Desktop CPU) noch nicht einmal released.
Laut der Grafik wird dies bei Intel (4/3/20A/18 alles zusammen gerechnet) zwischen 2026 und 2027 passieren.
Bis dahim gibt es entweder Raptor Lake Refreshes, TSMC Dies oder Paperlaunches ohne echte Verfügbarkeit.
Im Jahr 2019:
Bisherige Desktop 14nm Spitzentaktrate (9900K): 5GHz
Ice Lake 1065G7 15W Mobile: 3.9GHz also 1.28x langsamer
Im Jahr 2024 (OK Ende 2023):
Bisherige Desktop Intel 7 Spitzentaktrate (14900K): 6GHz
Meteor Lake 185H 45W: 5.1GHz also 1.18x langsamer
OK der Unterschied war bei Ice Lake noch etwas größer aber dafür war das auch eine 15W CPU.
Ein Vergleich Desktop mit Mobile ist nur bedingt sinvoll. Generell sind die heutigen Desktop CPUs von Intel stärker am Limit, was Taktfrequenzen und Stromverbrauch angeht. Intel hat über die Jahre konsequent 10nm auf Performance optimiert, allerdings gleichzeitig bei immer größeren Verbrauchswerten. So leichtfertig kann man bei mobilen Chips die Effizienz nicht in den Keller drücken. 1 Kern bei 5 Ghz verbraucht ja alleine schon 20+ Watt.
Du musst schon die mobilen Chips untereinander vergleichen. Das wäre in dem Fall aktuell ein i9-13900H mit 5.4 Ghz gegen Ultra 9 185H mit 5.1 Ghz. Das wäre ein valider Vergleich. Ein weiterer valider Vergleich wäre Ultra 7 155H mit 4.8 Ghz gegen i7-13700H mit 5.0 Ghz.
Du vergleichst einen zig Jahre lang auf Performance optimierten 10ESF Raptor Lake mit Intel 4. Zum 10nm launch im Jahr 2018 gab es Cannonlake-U mit 2 Kernen und maximal 3.2 Ghz und deaktivierter iGPU. Der Original 10nm war praktisch kaputt. CNL-U existierte praktisch nur auf dem Papier, was damals ein einziges Desaster gewesen ist. Du bist der Erste, der behauptet, Intel 4 sei ein deutlich größeres Fiasko als 10nm. Niemand mit etwas Ahnung und Seriosität wird dir hier zustimmen.
Streng genommen müsste man 10+ mit Intel 3 vergleichen als refresh node. Intel 4 sieht solide aus, auch der yield liegt höher als bei Skylake mit 14nm und Tigerlake mit 10SF im launch Quartal.
https://pbs.twimg.com/media/GHW5mkRXcAAMD77?format=jpg&name=4096x4096
Zum Vergleich:
Die 10nm Fertigung hat die 14nm Fertigung in Q2 2021 überholt. Damals war Alder Lake (erste 10nm Desktop CPU) noch nicht einmal released.
Laut der Grafik wird dies bei Intel (4/3/20A/18 alles zusammen gerechnet) zwischen 2026 und 2027 passieren.
Bis dahim gibt es entweder Raptor Lake Refreshes, TSMC Dies oder Paperlaunches ohne echte Verfügbarkeit.
Wafer Kapazität ist allerdings nicht gleichbedeutend mit Marktvolumen oder Auslastung. Die kommenden Generationen, egal ob Arrow Lake, Lunar Lake, Panther Lake, Granite Rapids usw verwenden kein Intel 7/10nm mehr bei der CPU oder GPU. Für I/O-Chiplets reicht noch Intel 7, hier muss es nicht das modernste sein. Das Volumen an 10nm Chips bei Intel wird deutlich abnehmen ab 2025. Die Wafer Kapazität selber muss ja erstmal nicht abnehmen. Solange Intel nichts umrüstet oder abrüstet, müsste sich gar nichts oder kaum was ändern.
Du behauptest, Intel könnte bis 2027 kaum mehr liefern als heute mit Intel 4, was Unfug ist. Das sind komplett andere Dimensionen von heute und 2027. Wenn man wirklich nach der Folie geht, liegt ein Faktor 6 bis 7 zwischen Intel 4 heute und EUV zusammen in 2027. Ab 2025 vergrößert sich die Kapazität allmählich immer weiter. Intel wird einige Zeit weiter auf TSMC setzen das ist bekannt, aber du übertreibst.
dildo4u
2024-03-09, 08:44:47
Er erwartet Arrow Lake nach Zen 5 aber noch 2024.
Dafür soll die Performance stimmen da Intel durch die Bank 3nm/20A nutzt.
Y5bXBEjvgvs
Tarkin
2024-03-09, 11:50:46
Er erwartet Arrow Lake nach Zen 5 aber noch 2024.
Dafür soll die Performance stimmen da Intel durch die Bank 3nm/20A nutzt.
https://youtu.be/Y5bXBEjvgvs
der saugt sich seine Infos wie immer aus den Fingern. Genau so lächerlich wie damals seine MTL und RPL Refresh Performance Leaks
Er erwartet Arrow Lake nach Zen 5 aber noch 2024.
Dafür soll die Performance stimmen da Intel durch die Bank 3nm/20A nutzt.
https://youtu.be/Y5bXBEjvgvs
Ist natürlich wieder vollkommener Unsinn, den er da labert, wenn S erst im Oktober in die QS-Phase geht, muss man da selbstverständlich noch Preproduktion und Massenproduktion hinzurechnen. Also: März 25 ist realistisch. 24 klappt auf garkeinen Fall, wenn die Qualification erst im Oktober los geht.
Die Verkacken es aber auch auf ganzer Linie, unglaublich.
Und ARL-H hat ein großes Compute-Die, ja welch Wunder, verbaut Intel hier ja dasselbe Compute Die wie bei ARL-S. Das ist dasselbe Ding in anderem Package.
Und natürlich kommt der zuerst, damit Anfang 25 Notebooks damit verkauft werden können, das verschiebt S dann mal wieder und dann passt das auch wieder zusammen.
Und das er einen Dummy oben rechts hat ist auch kein Wunder, so kann man das gleiche Pacakge auch mit kleineren Dies (6+8) verwenden.
Leonidas
2024-03-21, 09:08:22
Er erwartet Arrow Lake nach Zen 5 aber noch 2024.
Oh, wow. Das war Allgemein-Wissen seit Äonen, dokumentiert u.a. hier:
https://www.3dcenter.org/artikel/das-hardware-jahr-2024-der-vorschau
mocad_tom
2024-04-29, 13:29:44
https://wccftech.com/intel-core-ultra-5-240f-arrow-lake-s-desktop-cpu-8-16-6-8-dies-entry-level-segment/
Arrow Lake-S mit Intel 20A scheint in Revision A0 / A1 da zu sein.
Und die Modelbezeichnungen werden auch ein bisschen angedeutet.
Wobei das halt einfach auch bloß ein bisschen Vorwärtsraten sein kann.
Mit Lunar Lake und dem dazugehörigen Lion Cove / Crestmont kann man dann auch schon wieder ein bisschen Vorwärtsextrapolieren, wie die nächste Generation läuft.
Also erscheint der Ende 25. Bei A0 wird der nicht bleiben, eine Revision wirds auf jeden Fall geben. Wird immer offensichtlicher, 20A Ende 25, 18A Ende 26. Ich weiß, jetzt kommt gleich wieder ryan, aber ich steh dazu.
Altehardware
2024-04-29, 14:27:54
bei intel sieht es düster aus arrow lake maximal +15% wenn noch der intel 4 node stimmen soll a20 unwahrscheinlich da dies vor q4 2025 was wird da soll doch gaa genutzt werden die Maschinen kommen erst 2025 an
intel 4 würde deutlich mehr sinn ergeben wen der node cancelt ist was nicht undenkbar ist dann gute Nacht, bis 2027 hat man nix gegen amd zen5 und zen6 an der hand.
Intel meteor lake ist in tsmc n6 node das sagt alles.
Wenn jetzt A steppings in 20A existieren, dann könnten sie im Q4 schon raus gehen wenn B0 gut genug läuft.
Intel braucht 1 Jahr zur Markreife vom finalen Silizium aus gesehen. Das heißt, wenn Rev.B draußen ist und die wie vorgesehen funktioniert, kann man noch ein Jahr draufrechnen. Dann sind wir Ende 2025. Man kann hier MTL ranziehen: A0 gab es meines Wissens schon Ende 21, ab Mai 2022 gab es ein Stepping, das Windows booten konnte, Ende 2023 (Paperlaunch) kam die finale CPU raus.
basix
2024-04-29, 15:58:11
Intel braucht in der Tat relativ lange von erstem Silizium bis Market Release. Aber MTL würde ich jetzt nicht als Referenz nehmen, das war ein first-of-its-kind wegen dem Packaging. Ende Jahr für ARL ist nicht abwegig. Vielleicht wird es Q1/2025 aber sicher nicht Ende 2025.
Ende 2025 ist natürlich Blödsinn. Die 6+8 waren schon immer für Anfang 2025 angesetzt. Dieses Jahr kommt nur ARL-S 8+16 (N3B). 1 Jahr vom finalen Silizium ist auch kompletter Dummfug. Das lässt sich nicht verallgemeinern. Lunar Lake braucht 1 Jahr vom ersten lauffähigen Sample bis zum launch im September. Und der kommt auch mit Lion Cove und Skymont, A2 Stepping ist hier schon ein QS.
mocad_tom
2024-04-29, 16:54:12
In Arrow Lake-I20A ist kein Memory Controller drin.
In Arrow Lake-I20A werden noch die einfacheren Cache-Zellen eingesetzt.
Es gab vor Meteor Lake schon eine RISC-V Chip in Intel 4.
Der war mini und war dann der Pipe Cleaner für Meteor Lake.
Kommt halt wirklich drauf an wieviele Silizium-Prozess-Teams Intel hat.
Ann Kelleher hat gesagt, dass genügend Mittel zur Verfügung gestellt wurden.
(mehrere Reinräume, mehrere Stepper .....)
Das sind Maschinen, die nicht für "Revenue" da sind, sondern nur für R&D.
Die haben das komplette Backside-PowerVia in einem Intel 3-Prozess vorentwickelt und dieses KnowHow dann in Intel 20A reingepflanzt(auch hierfür waren Ressourcen vorhanden).
Den Lion Cove debuggen wurde sicher im TSMC-Prozess gemacht.
Intel 20A muss halt eine vernünftige Ausbeute bekommen.
Da machste dir das glaube ich erheblich zu einfach ;). ARL in 20A ist ein komplett anderes Projekt als ARL in N3 und ein wirklich fundamental anderer Prozess, das ist nicht vergleichbar und da gibts fast keine Synergien. Zudem soll ARL angeblich auch featuretechnisch weiter sein mit 20A. ARL in 20A ist ein rundes Jahr später dran als ARL in N3. Ich würd die Luftschlösser lassen und realistisch bleiben, grade bei Intel.
w0mbat
2024-04-29, 19:26:52
Interessanter Weise arbeiten die gleichen Ingenieure an 20A & N3 ARL, scheint mehr gemeinsam zu haben als man denkt.
mocad_tom
2024-04-29, 22:59:50
Ja und Nein
Du validierst auf einer Highlevel Ebene und versuchst dort den Lion Cove bugfrei zu bekommen.
Und dann designed man den Core mit konkreten Transistoren im konkreten Prozess.
20 bis 30 Prozent des Transistorbudget gehen drauf für Power delivery.
Und weil Intel 20A PowerVia hat muss man das ziemlich anders designen.
Dennoch ist es schonmal nicht schlecht, wenn man weiß, ja Lion Cove läuft in TSMC N3B.
Zossel
2024-04-30, 07:16:29
Intel debuggt immer noch viel an realen Silizium?
Hatte der Chef von Intel nicht ein Ende dieser teuren und ineffizienten Vorgehensweise angekündigt?
mocad_tom
2024-04-30, 08:31:17
Granite Rapids - Revision A2
https://twitter.com/yuuki_ans/status/1773255790771556611
Debugt wird in Software. Wenn das Ding in Silizium geht ist das Design complete und das schon seit vielen Jahren. Aber die konkrete Chipentwicklung dauert trotzdem ihre Zeit. Intel ist aber so ziemlich der langsamste im Markt in der Execution. Die Zeit vom Design zum fertigen Chip dauert bei Intel sehr lange, das ist eines der ganz großen Probleme die Intel hat.
Altehardware
2024-04-30, 10:03:29
intel hat Probleme bei der Fertigung und setzen ein design für eine Fertigung voraus das sie noch nicht haben siehe i20a und dann keine alternative also intel4 zu haben ist schlicht dumm.
Womit ein port quasi redesing zu tsmc n4 node sicher sein dürfte das nenn ich mal richtig falsch geplant.
Es gab ne Grund warum meteor lake in intel 4 cancelt wurde und dann zu tsmc n6 portiert wurde.
Intel sollte die designs mal bei verfügbare Fertigung entwerfen und nicht von zukünftigen den dass ist intels Problem.
Amd macht das auch nicht sie nutzen nur verfügbare nodes nicht zukünftige.
das design mag final sein aber nicht die tapeouts und Prüfungen darum wird arl frühestens q4 2025 kommen
mag sein das man die laptop sparte mit tsmc n4 node schon q1 2025 bringt aber mehr kommt da nicht.
Namen sind rauch die können sich ändern. die oem interessiert es nur ob ne neue intel gen kommt was da drin ist ist denen quasi egal.
mocad_tom
2024-04-30, 10:35:41
Henne <-> Ei
Du brauchst Vehikel, die du durch die Linie durchschickst, dann schaut man sich an, was das Silizium kann.
TSMC braucht vorneweg auch kleine Startvehikel.
Bis der Apple A17pro im TSMC N3B mit vernünftigen Ausbeuten lief hat es auch gedauert.
Da waren schon "Marktbeobachter" da, die sagten, M3 mit TSMC N3B läuft ab März 2022.
Und früher beim Sprung von 65nm auf 45nm auf 32nm auf 22nm da hat man die Fertigungs-Linie angeworfen und die Yieldraten gingen wie mit dem Lineal gezogen nach oben.
Intel muss da Geld drauf schmeissen, Wafer starten, Augen zu und durch.
Der große Unterschied zwischen TSMC ist:
TSMC wird in USA fertigen - ja (und deshalb bekommen sie auch Geld vom Chips-Act).
Intel macht in USA R&D für Leading-Edge-Prozesstechnologie.
Intel 3 und Intel 4 sind fertig. Sierra Forest wurde beim Conference Call Q1 2024 gelaunched.
https://d1io3yog0oux5.cloudfront.net/_93461a48c376c1b819b1fcbdf5ff5193/intel/db/887/9014/earnings_release/Q1+24_EarningsRelease_FINAL.pdf
Additionally, the next-generation E-core Intel® Xeon®, code-named Sierra Forest, achieved product release this week, and Intel expects Granite Rapids to be released in the third quarter.
mocad_tom
2024-04-30, 11:41:50
https://wccftech.com/intel-core-ultra-5-240f-arrow-lake-s-desktop-cpu-8-16-6-8-dies-entry-level-segment/
-----------------------------
Nur damit wir da nochmal Butter bei die Fische haben:
Xinoassassin1 schreibt:
"Core Ultra 5 240F (entry level DT SKU) will be mixed with 8+16 tile and 6+8 tile"
Xinoassassin1 schreibt:
"ARL-S 6+8 (i20A) A0/A1 CPUID C0662h"
----------------------
Core Ultra 5 240F wird es geben mit 8+16(N3E) Teildeaktiviert und 6+8 (i20A) mit allen Kernen aktiv.
LGA1851-Boards gab es ja schon auf der Embedded World zu sehen.
Interne Grafik gar nicht draufgelötet.
Schaut mir schon nach einem Q1 2025 Launch aus.
dildo4u
2024-04-30, 11:45:09
Kommen die i5 ohne K nicht immer im Januar?
High-End könnte früher kommen.
Wenn die die selbe SKU sogar aus 2 dice unterschiedlicher Fertigung raushauen, dann müssten die elektrischen Eigenschaften der Prozesse ja auch so +/- 10% vergleichbar sein. Sehr interessant.
Leonidas
2024-04-30, 13:30:58
ARL ist ein generelles 2025er Produkt. Aber normalerweise dürfte Intel es schaffen, die K/KF-Modelle schon im Spätherbst rauszuhauen. So sollte der Plan aussehen. Und dieses Jahr braucht es Intel nach dem zweiten ADL-Refresh ganz besonders.
iamthebear
2024-04-30, 22:30:24
Das hat man nach Coffee Lake auch behauptet und dann kam noch Coffee Lake Refresh, Comet Lake und Rocket Lake als 14nm Backport ;D
Was 20A angeht so bin ich gespannt, ob es Intel diesmal schafft mit brauchbaren Taktraten zu launchen. Nach Broadwell, Cannon Lake, Ice Lake und Meteor Lake bin ich da etwas skeptisch.
Rampage 2
2024-04-30, 23:44:40
Wie stark hat sich eigentlich die IPC bei Intel gesteigert seit Skylake (welche ja alle folgenden Generationen inkl. Comet Lake umfasst) bis hin zu jetzt Raptor Lake-R ? 50% oder sogar noch mehr?
Der maximal erreichbare Takt (Overclocking) im AllCore-Betrieb hat sich um ca. 20% gesteigert zwischen 9900KS/10900K (5.2 - 5.3 GHz) und 14900KS (6.2 - 6.3 GHz).
Das würde also heißen, bei +50% IPC hätte sich die ST-Leistung immer noch nicht verdoppelt.
R2
iamthebear
2024-05-01, 00:18:14
Was die Applikationen angeht:
Rocket Lake vs. Skylake (bzw. alles von Skylake bis Comet Lake) waren ca. 20%
Alder Lake vs. Rocket Lake waren noch einmal 20%
Raptor Lake war ziemlich identisch bis auf ein paar Ausreißer, die auf den größeren L2 bzw. schnelleren RAM angesprochen haben.
Also Faustregel 1.4x
Was Gaming angeht wird es kompliziert, da Spiele sehr stark von mehr L3 profitieren, jedoch der L3 bei Intel mit der Kernanzahl skaliert. Abgesehen davon spielt auch der verwendete bzw. unterstützte RAM eine Rolle und die Performance skaliert nicht linear mit dem Takt.
Laut dem 5800X3D Launch Review von CB sind es 1.73x Performance von 12900K vs. 7700K. Der 13900K brachte noch einmal 20%.
Allerdings darfst du wohl nun wieder 10% abziehen um die CPU dauerhaft stabil zu bekommen (Stichwort Intel Baseline)
12900K vs. 10900K waren 12%. Allerdings dürfte der Unterschied mit neuerem Spieleparkour tendentiell größer werden.
Scruffy
2024-05-01, 11:58:26
PCGH hat vor knapp 2 Jahren einen IPC-Vergleichtest gemacht: https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Core-i9-12900K-vs-Ryzen-9-5900X-Zen-3-Alder-Lake-IPC-Vergleich-1397753/
y33H@
2024-05-01, 14:00:59
RPL macht keine 6+ GHz auf allen Kernen ... für Arrow Lake würde ich eh bisschen weniger ansetzen, dafür klar mehr IPC - sprich Effizienz sollte deutlich steigen.
dildo4u
2024-05-04, 12:21:09
Arrow Lake High-End angeblich mit 5.5 GHz SC Boost.
https://wccftech.com/intel-core-ultra-9-285k-arrow-lake-desktop-cpu-clock-around-5-5-ghz
Dann sieht es nach einem typischen Tock aus mit um die 20% mehr IPC beim big core. Wenns gut läuft etwas über 20% und wenns schlecht oder normal läuft etwas unter 20%. Bei 5.5 Ghz kann man dann nur rund 10% erwarten.
Problematisch könnten Spiele sein, weil der IMC im Soc tile liegt und die Latenzen schon bei Meteor Lake nicht gut aussehen, die big core IPC dadurch sogar leicht gesunken ist. Bei der nächsten tile Generation mit Lunar und Panther Lake wird das korrigiert.
Bei der mobilen Variante zudem mit der alten NPU, der alten Grafik Architektur ohne zusätzliche Einheiten und alten LP-E Kernen auf Crestmont Basis auf dem Soc tile. Das ist irgendwo schon ein Fail was Arrow Lake angeht, insbesondere als Notebook CPU. Ist kein Wunder, dass Intel mehr von Lunar Lake und mittlerweile mehr von Panther Lake spricht.
mocad_tom
2024-05-04, 12:59:37
Ich habe mal den Taschenrechner angeworfen.
Angenommen, man klemmt Raptor Lake/Raptor Cove auf 4GHz fest und Lion Cove auf 4GHz fest, dann hat Lion Cove gegenüber Raptor Cove eine 25% höhere IPC.
Was generationsmäßig komplett böse wäre.
Jetzt kommt halt nicht raus, ob da ein Raptor Cove mit Hyperthreading(zwei Threads auf dem Raptor Cove) vs Lion Cove der halt sowieso nur einen Thread hat läuft.
Ich denke schon, dass Arrow Lake mit Zen 5 mithalten kann.
Das wird eine phänomenale Single-Thread-Leistung und die E-Cores legen ziemlich zu.
dildo4u
2024-05-04, 13:29:23
Zen 5 sollte erreichbar sein klar das Problem für Intel ist aber X3D.
Bei Mindfactory hat sich der 7800X3D schon öfter verkauft als das Zen 3 X3D Modell und allen anderen Zen 4 Varianten was absurd ist.
Um 200€ sieht es vermutlich besser für Intel aus auch weil man gegenüber i9 weniger für die Kühlung zahlt also wie Heute.
basix
2024-05-04, 14:51:50
Wenn die Gerüchte zu ARL und Zen 5 stimmen, sollten beide etwa ähnliche ST und Gaming Performance haben. Evtl. mit leichtem Vorteil AMD. AMD hat noch obendrauf den X3D Bonus und mehr maximale MT-Performance, falls man den 16-Kerner nimmt. Wir mMn schwierig für ARL. Man ist nicht abgeschlagen, aber vorne ist man auch nicht.
fondness
2024-05-04, 15:23:26
Zen 5 sollte erreichbar sein klar das Problem für Intel ist aber X3D.
Bei Mindfactory hat sich der 7800X3D schon öfter verkauft als das Zen 3 X3D Modell und allen anderen Zen 4 Varianten was absurd ist.
Wenn es Intel x Jahre nach dem ersten X3D von AMD nicht mal schafft das Ganze einfach nur zu kopieren sind sie echt selbst schuld. Wenn sie das Konkurrenzprodukt analysieren müssten sie die vias für den 3D-Cache schon bei Zen2 bemerkt haben.
OgrEGT
2024-05-04, 15:30:29
Bei Intel muss man mal abwarten wie die aktuelle Geschichte zu den 13th und 14th Gen CPUs ausgeht, wieviel Vertrauen dabei kaputt geht und ob man bei Arrow Lake daraus lernt und saubere Spezifikationen vorgibt, und dann sehen wir auf welchen Leistungsniveau die dann damit rauskommen...
MSABK
2024-05-04, 15:53:37
Wenn es Intel x Jahre nach dem ersten X3D von AMD nicht mal schafft das Ganze einfach nur zu kopieren sind sie echt selbst schuld. Wenn sie das Konkurrenzprodukt analysieren müssten sie die vias für den 3D-Cache schon bei Zen2 bemerkt haben.
Warum sollten sie? Welche Rolle spielt X3d außerhalb bon DiY Markt? Intel kontrolliert doch den Markt.
bbott
2024-05-04, 16:52:04
Bei Intel muss man mal abwarten wie die aktuelle Geschichte zu den 13th und 14th Gen CPUs ausgeht, wieviel Vertrauen dabei kaputt geht und ob man bei Arrow Lake daraus lernt und saubere Spezifikationen vorgibt, und dann sehen wir auf welchen Leistungsniveau die dann damit rauskommen...
Wird Intel nicht schaden, die Sicherheits Lücken inkl. Performance Abschlägen haben es auch nicht.
Intel Fan Base und OEMs ist zu festgefahren.
Zossel
2024-05-04, 17:30:19
Wenn es Intel x Jahre nach dem ersten X3D von AMD nicht mal schafft das Ganze einfach nur zu kopieren sind sie echt selbst schuld. Wenn sie das Konkurrenzprodukt analysieren müssten sie die vias für den 3D-Cache schon bei Zen2 bemerkt haben.
Intel plant eine schlechte Kopie:
https://www.heise.de/news/Intel-bringt-Stapel-Cache-in-seine-Prozessoren-9311620.html
y33H@
2024-05-04, 17:48:51
wieso schlecht? kennst du die Implementierung?
Zossel
2024-05-04, 17:59:27
wieso schlecht? kennst du die Implementierung?
Text bis zum Ende gelesen?
rentex
2024-05-04, 20:13:36
Warum kopiert Intel es nicht einfach? X3D ist von der Idee her, nicht Nobelpreis würdig.
reaperrr
2024-05-04, 20:16:51
Warum kopiert Intel es nicht einfach? X3D ist von der Idee her, nicht Nobelpreis würdig.
Entweder Patente (wobei ja wegen der Kreuzlizensierungen zwischen den beiden eigentlich so gut wie nix exklusiv sein sollte), oder schlicht Stolz.
OgrEGT
2024-05-04, 20:41:47
Text bis zum Ende gelesen?
Wohl nicht... denn da steht klar dass es sich dabei nicht wie bei AMD um eine Vergrößerung des L3 bei gleicher Geschwindigkeit handelt sondern ein zusätzlicher Cache eine Stufe davor also L4 der obendrein dann langsamer arbeiten soll...
reaperrr
2024-05-04, 21:22:15
Wohl nicht... denn da steht klar dass es sich dabei nicht wie bei AMD um eine Vergrößerung des L3 bei gleicher Geschwindigkeit handelt sondern ein zusätzlicher Cache eine Stufe davor also L4 der obendrein dann langsamer arbeiten soll...
Schneller als RAM-Zugriffe wird's schon sein, sonst würden sie es nicht machen, und vermutlich wird dieser L4 die geringere Geschwindigkeit im Vergleich zu X3D durch Größe kompensieren (alles unter 128MB wäre ne Enttäuschung).
Wird trotzdem interessant zu sehen, wieviel es letztlich im Vergleich zu AMD's Lösung bringt.
y33H@
2024-05-04, 22:30:30
Wohl nicht... denn da steht klar dass es sich dabei nicht wie bei AMD um eine Vergrößerung des L3 bei gleicher Geschwindigkeit handelt sondern ein zusätzlicher Cache eine Stufe davor also L4 der obendrein dann langsamer arbeiten soll...Und wieso muss ein zusätzlicher L4 automatisch schlechter sein als ein größerer L3?
iamthebear
2024-05-05, 00:15:43
Weil zuerst der L3 durchsucht wird und dann erst der L4, was automatisch schlechtere Latenzen bedeutet.
Der Vorteil wäre, dass es sich leichter kühlen lässt wenn die Cacheschicht nicht oben drauf sitzt.
Für mich hört sich das aber eher so an als wollte man damit primär die iGPU versorgen ähnlich wie damals bei Broadwell. Ob das wirklich ein Desktop Gamingmodell wird ist fraglich.
amdfanuwe
2024-05-05, 00:36:12
Warum kopiert Intel es nicht einfach? X3D ist von der Idee her, nicht Nobelpreis würdig.
Weil Intel mit Foveros direct noch nicht so weit ist.
T, Through-Silicon Vias: Finally, the T suffix will be used to indicate special versions of Intel’s nodes that support through-silicon vias (TSVs), for use in making base dies that are in turn used in copper-to-copper hybrid bonding. Also promoted by Intel under their Foveros Direct 3D branding, hybrid-bonding is the current end-game of die stacking, allowing dies to be directly stacked on top of each other using miniscule copper bonds that route into their respective die using TSVs. Hybrid bonding/TSVs will allow a bump pitch of under 10 microns, and thus an enormous number of connections between dies even within a single square millimeter.
...
Intel 3, Intel’s first high-volume EUV node, will also get a few variations over the next few years. This includes Intel’s first node for TSVs/Foveros Direct, Intel 3-T, as well as a feature enhanced Intel 3-E in the 2025 timeframe.
https://www.anandtech.com/show/21271/intel-foundry-future-14a-foveros-direct-beyond
Der L4 im Base Die dürfte AMDs Infinity Cache entsprechen.
Der L4 ist doch kein Konkurrent für X3D, sondern, so wie ich das verstanden habe, allein dafür da, Speicherzugriffe einzusparen. Der soll ja möglichst keinen Strom verbrauchen, daher ist er auch sehr langsam. Der X3D-Konter kommt erst mit Cougar Cove.
Zossel
2024-05-05, 08:38:56
Weil zuerst der L3 durchsucht wird und dann erst der L4, was automatisch schlechtere Latenzen bedeutet.
Der Vorteil wäre, dass es sich leichter kühlen lässt wenn die Cacheschicht nicht oben drauf sitzt.
Das stromsaufende Zeug "oben" drauf zu kleben ist allerdings schon die nächste Entwicklungsiteration, weil man die Amper über die Kontakte krasser skillen muss :-)
basix
2024-05-05, 08:43:24
Einen Vorteil hat ein grosser L4$ oder System Level Cache schon: Andere Funktionsblöcke wie iGPU und NPU könnten ebenfalls darauf zurückgreifen. Die profitieren unter Umständen sogar mehr als die CPU.
Da das Hybrid-Bonding mit 3D 3T-Kommt: Intel könnte die GPU gleich ins Base-Die giessen. Das müsste man nicht oben drauf stacken. Aber ich vermute, dass das Base-Die zum Cache und SoC Tile wird. Oben drauf kommen dann CPU und GPU.
dildo4u
2024-05-05, 08:54:09
Einen Vorteil hat ein grosser L4$ oder System Level Cache schon: Andere Funktionsblöcke wie iGPU und NPU könnten ebenfalls darauf zurückgreifen. Die profitieren unter Umständen sogar mehr als die CPU.
Da das Hybrid-Bonding mit 3D-Kommt: Intel könnte die GPU gleich ins Base-Die giessen. Das müsste man nicht oben drauf stacken. Aber ich vermute, dass das Base-Die zum Cache und SoC Tile wird. Oben drauf kommen dann CPU und GPU.
Das macht Null sinn wenn man im Desktop gegen winzige IGP ohne NPU antritt einfach alles an die Wand werfen und das Ding wird unbezahlbar.
Das macht im Notebook Sinn wo du mit Apple M3 Ultra Konkurrieren musst.
basix
2024-05-05, 09:26:32
Base Tile mit Hybrid Bonding in Intel 3-T ist ein H2/2025 Thema, ergo Panther Lake. Dort ist Zen 6 und M5 Max der Gegner, mein Freund ;)
Arrow Lake wird vermutlich gar keinen solchen L4$ haben. Zumindest im Desktop nicht, da bin ich mit dir einer Meinung.
davidzo
2024-05-05, 10:16:53
Entweder Patente (wobei ja wegen der Kreuzlizensierungen zwischen den beiden eigentlich so gut wie nix exklusiv sein sollte), oder schlicht Stolz.
Dafür müsste Intel wohl auch TSMCs SRAM adoptieren. X3D macht für AMD nur Sinn weil TSMC eben die kompaktesten SRAM Zellen der Industrie hat.
Btw, Intel war beim SRAM früher mal haushoch führend, es scheint aber dass sie eine Wand erreicht haben. Zudem scheint man ein Latenzproblem zu haben was durch einen Off-DIE Interconnect sicher nicht besser wird.
Schon seit Haswell ist der L3 entkoppelt (wobei er da trotzdem 1:1 lief) was ein bisschen Latenz kostet. Bei Alderlake kann man gut sehen was mit der P-Core performance passiert wenn die niedrig taktenderen E-Cores angeschmissen werden. Stacked L3 wäre wohl mindestens mit einer ähnlichen penalty verbunden.
Das macht im Notebook Sinn wo du mit Apple M3 Ultra Konkurrieren musst.
Die M-Ultra CPUs sind reine Desktop Prozessoren.
Arrow Lake wird vermutlich gar keinen solchen L4$ haben. Zumindest im Desktop nicht, da bin ich mit dir einer Meinung.
Wobei ich mich immer frage ob der große passive Base-DIE den man ja eh braucht um da CPU, GPU, SOC drauf zu stapeln wirklich soviel billiger ist als einer bei dem man ein bisschen L3 Cache mit drauf packt. Vermutlich schon, deswegen macht man es ja nicht, aber ich denke da immer an die ohnehin schon sunken costs gegenüber Monolithen.
basix
2024-05-05, 10:46:56
Wobei ich mich immer frage ob der große passive Base-DIE den man ja eh braucht um da CPU, GPU, SOC drauf zu stapeln wirklich soviel billiger ist als einer bei dem man ein bisschen L3 Cache mit drauf packt. Vermutlich schon, deswegen macht man es ja nicht, aber ich denke da immer an die ohnehin schon sunken costs gegenüber Monolithen.
Bei SRAM bist du halt schnell bei 10-15 Layern auf dem Chip, siehe V-Cache von AMD mit afaik 14 Layern. Bei nur ein paar Routing Layern vielleicht <5. Dazu reichen obendrauf planare Prozesse >=28nm für den Base Die / Interposer. Das ist alles viel, viel billiger
Leonidas
2024-05-05, 13:51:53
Mich interessiert zur ARL eher, wie weit Intel damit noch heruntergehen will: Nicht mehr Kerne, kein HyperThreading, max Clock wohl nur 5.5 GHz. Wieviel IPC-Gewinn braucht es allein, um dies aufzufangen gegenüber einem 14900K? Und welchen astronomischen IPC-Gewinn muß ARL bieten, um dann gleichzeitig noch mit Zen5 mithalten zu können?
iamthebear
2024-05-05, 14:42:14
Auf den Lunar Lake Die Shots sieht es aktuell so aus als würden die E Cores sehr viel stärker werden.
Dann macht es sowieso keinen Sinn SMT zu nutzen bevor nicht alle 24 Kerne schon einen Thread abarbeiten.
Klar für Cinebench ist es nicht ideal aber bei allen Anwendungen um die 16-24 Threads macht es deutlich mehr Sinn.
Was den Takt angeht: ALLE neuen Intel Nodes der letzten 10 Jahre hatten massive Probleme mit dem Takt bei Launch: 14nm mit Broadwell, 10nm mit Ice Lake, Intel 4 mit Meteor Lake. Es hätte mich echt verwundert wenn es diesmal anders gelaufen wäre.
Ich denke, dass igors Benchmarks damals nicht so falsch waren: 20% mehr IPC, dafür weniger Takt, stärkere E Cores, dafür kein SMT. In Summer ähnliche Performance aber hoffentlich deutlich niedrigerer Stromverbrauch.
Generell sieht es für mich so aus als würde Intel pro Generation immer nur ein paar Themen angehen:
MTL: Neuer Node, neue Tile Architektur
ARL: Neuer Node, Fokus auf bessere E Cores
Später: Fokus auf die P Cores bzw. Rentable Units statt SMT
Lion Cove workt etwas wie eine Übergangslösung.
latiose88
2024-05-05, 15:31:31
ja das klingt echt gut.Wenn die E kerne so groß werden,das es am Ende HT ganz ersetzt.Und sogar darüber hinaus sogar den etwas geringeren Takt ausgleichen kann,warum auch nicht.
Denn bei so Kernen mit Threadripper mit 24 Kernen ,ging es auch ohne SMT und das ohne Leistungsverlust.Bei Intel hingegen kostete HT aber Leistung wenn man es abgeschaltet hatte.
Intel kann das auch so packen wie bei AMD,da bin ich mir sicher.Es ist nur der Wille der Zählt.
Was den Takt angeht: ALLE neuen Intel Nodes der letzten 10 Jahre hatten massive Probleme mit dem Takt bei Launch: 14nm mit Broadwell, 10nm mit Ice Lake, Intel 4 mit Meteor Lake.
Eher waren die Vorgänger Nodes so weit ausoptimiert/ausgequetscht, dass die Nahfolger anfangs nicht mithalten konnten. Was sie aus 14nm und jetzt dem 10nm rausgeholt haben ist schon bemerkenswert.
Aber ich dachte Arrow Lake ist TSMC N3 und nur der kleinere Die ist ein Testvehikel für Intel 20A? 18A wird richtig gut denke ich...hoffe jetzt einfach mal, der 14900KS hält bis dahin ;)
Lehdro
2024-05-05, 18:52:58
Einen Vorteil hat ein grosser L4$ oder System Level Cache schon: Andere Funktionsblöcke wie iGPU und NPU könnten ebenfalls darauf zurückgreifen. Die profitieren unter Umständen sogar mehr als die CPU.
Das kann man aber auch alles mit L3 haben, WENN man das darauf hin designed. Frühere Intel CPUs hatten das sogar. (https://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/intel-graphics-gen9-whitepaper-8.jpeg)
robbitop
2024-05-05, 18:58:48
Wobei bei denen der L3 auch ein LLC war. Da hing die IGP einfach am gleichen Ringbus wie auch die Cores und der L3.
Zossel
2024-05-05, 19:39:35
Wobei bei denen der L3 auch ein LLC war. Da hing die IGP einfach am gleichen Ringbus wie auch die Cores und der L3.
3D-Cache von AMD bietet IMHO 2TB/s.
robbitop
2024-05-05, 20:28:09
Was hat das mit der Anbindung der IGP an den L3 zu tun?
basix
2024-05-05, 21:05:50
Das kann man aber auch alles mit L3 haben, WENN man das darauf hin designed. Frühere Intel CPUs hatten das sogar. (https://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2015/intel-graphics-gen9-whitepaper-8.jpeg)
Klar, du kannst das mit jeder Cache Stufe machen, solange es typ. der LLC ist. Nur mach das mal mit einem CCD von AMD, damit wird das Sharing CPU <-> iGPU nicht funktionieren ;) Und das wird auch bei Zen 5 nicht funktionieren. Bei ARL sieht die Sache anders aus, da man eh ein Base oder SoC Tile hat, wo man den Cache unterbringen könnte. Bei Panther Lake ebenfalls. Bei Zen 6 ist es ungewiss, ob z.B. IFOP zu irgendwas wie Infinity Fanout Link wird.
iamthebear
2024-05-06, 00:57:07
Die Bandbreite sollte kein Problem sein. Das Ganze ersetzt ja gewöhnliche DRAM Zugriffe mit nur ca. 100GB/s theoretischer Bandbreite, in der Praxis deutlich weniger.
Das Problem dürfte eher die Latenz sein. Bei AMD hat der L3 nur ca. 10ns Latenz und das gilt auch für den VCache.
Bei einem L4 auf einem anderen Tile kann ich mir nicht vorstellen, dass dies unter 30-40ns möglich ist. Das ist schon die halbe Latenz des DRAM. Man löst zwar das Bandbreitenproblem, aber nicht unbedingt das Latenzproblem.
reaperrr
2024-05-06, 02:15:23
Die Bandbreite sollte kein Problem sein. Das Ganze ersetzt ja gewöhnliche DRAM Zugriffe mit nur ca. 100GB/s theoretischer Bandbreite, in der Praxis deutlich weniger.
Das Problem dürfte eher die Latenz sein. Bei AMD hat der L3 nur ca. 10ns Latenz und das gilt auch für den VCache.
Bei einem L4 auf einem anderen Tile kann ich mir nicht vorstellen, dass dies unter 30-40ns möglich ist. Das ist schon die halbe Latenz des DRAM. Man löst zwar das Bandbreitenproblem, aber nicht unbedingt das Latenzproblem.
So viel niedriger als beim RAM war die Latenz des L4 von Broadwell aber auch wieder nicht, und die Bandbreite war auch nur ca. doppelt so hoch im Vergleich zum damaligen RAM.
Hat trotzdem gereicht, um in manchen Spielen noch Jahre später einen 10900K zu schlagen und den 6700K manchmal in Grund und Boden zu rennen.
latiose88
2024-05-06, 08:08:32
Ja aber nur bei games wo sehr stark vom Cache profitiert hatte. Ansonsten ja nicht und bei außerhalb von games war der extra Cache nix gewesen was nur irgendwie ein Programm hat beschleunigen zu können.
y33H@
2024-05-06, 14:07:31
Digicortex ;D
Exxtreme
2024-05-06, 14:24:38
Es gibt durchaus Anwendungen, die stark vom Cache profitieren: Datenbank-Server, Java-Anwendungen, .NET-Anwendungen:
https://www.techpowerup.com/review/amd-ryzen-9-7950x3d/15.html
Zossel
2024-05-06, 14:29:18
So viel niedriger als beim RAM war die Latenz des L4 von Broadwell aber auch wieder nicht, und die Bandbreite war auch nur ca. doppelt so hoch im Vergleich zum damaligen RAM.
Hat trotzdem gereicht, um in manchen Spielen noch Jahre später einen 10900K zu schlagen und den 6700K manchmal in Grund und Boden zu rennen.
Trotzdem merkt man im Vergleich AMD zu Intel das AMD im Moment ziemlich systematisch bei der Entwicklung seiner Produkte vorgeht.
Frei von Gaps und Problemen ist das allerdings nirgendwo.
iamthebear
2024-05-06, 16:30:20
So viel niedriger als beim RAM war die Latenz des L4 von Broadwell aber auch wieder nicht, und die Bandbreite war auch nur ca. doppelt so hoch im Vergleich zum damaligen RAM.
Hat trotzdem gereicht, um in manchen Spielen noch Jahre später einen 10900K zu schlagen und den 6700K manchmal in Grund und Boden zu rennen.
Dass Broadwell einen 10900K schlägt möchte ich sehen. Da muss schon einiges schief gehen beindem Test.
Nightspider
2024-05-06, 18:11:52
Da ich hier nicht so aktiv war eine Frage:
Bekommen die Arrow Lake CPU Kerne schon PowerVia backside power delivery und RibbonFETs ?
Irgendwo hatte ich mal gelesen das manche CPUs damit kommen und manche nicht.
mocad_tom
2024-05-06, 18:16:41
Das Arrow Lake Compute Tile mit 8P + 16E-Kerne wird mit TSMC N3E N3B gefertigt und hat kein PowerVia und kein RibbonFET.
Das Arrow Lake Compute Tile mit 6P + 8E-Kerne wird mit Intel 20A gefertigt und hat PowerVia und hat RibbonFET.
Nightspider
2024-05-06, 18:23:57
Krass, okay danke.
Platos
2024-05-06, 20:25:36
Das Arrow Lake Compute Tile mit 8P + 16E-Kerne wird mit TSMC N3E gefertigt und hat kein PowerVia und kein RibbonFET.
Das Arrow Lake Compute Tile mit 6P + 8E-Kerne wird mit Intel 20A gefertigt und hat PowerVia und hat RibbonFET.
Also ist die Ausbeute und/oder Energieeffizienz von 20A wesentlich schlechter als von TSMC, sonst würde man 20A ja überall nutzen. Oder aber die Kapazität reicht nicht.
w0mbat
2024-05-06, 21:36:24
Oder Intel hat einfach zu viel N3B gebucht als sie noch nicht wussten, wann 20A bereit ist.
Ich glaub auch nach wie vor nicht dran, dass 20A bereit ist. Sonst wär Arrow Lake U kein MTL-Remake in Intel3.
mocad_tom
2024-05-06, 23:21:57
(ich hab oben N3B ausgebessert)
Intel weiß sehr genau zu welchen Zeitpunkten sie wieviele EUV-Litho-Maschinen von ASML geliefert bekommen.
Samsung, TSMC & Intel sind alle 3 mit Aktienpaketen an ASML beteiligt.
Ich glaube sogar gehört zu haben (kann aber auch bloß eine Spekulation eines VLOGers / Twitterers gewesen sein) dass sich Intel TSMC-Kapazität "herbeigetauscht" hat, indem sie eine ASML-Bestellung, die eigentlich für Intel gedacht war, zu TSMC weitergeleitet/zwischenverkauft haben.
Was wäre gewesen, wenn da Litho-Maschinen bei Intel dastehen würden und sie hätten die Yields noch gar nicht.
Und Intel geht mit einem DeRisking-Ansatz da ran.
6 Nodes innerhalb kürzester Zeit.
Man muss auch den Intel 4 Prozess mit PowerVia dazuzählen, da war zwar kein kommerzielles Produkt drauf, es hat aber auch Menschressourcen, Litho-Maschinen und Reinraumzeit verschlungen.
Da wird halt auch gerade das durchfinanzieren tricky.
Negativer Cashflow, man setzt Mobileye wieder an die Börse, hat da aber bloß 10% rausgegeben. Dann wird man Altera wieder an die Börse setzen(wahrscheinlich auch bloß 10%).
Zeekr ist gerade ganz spannend - wurde ja beim Intel-AI-Event als Partner für Intel-AI-Cloud-Infrastruktur genannt. Gleichzeitig macht Zeekr mit Mobileye Level 4 in China, aber USA grätscht da gerade schon rein(zurecht, Mobileye soll endlich mit Porsche Level 4 in Europa ausrollen).
Diese-Know-How-Lücke zu TSMC durchzufinanzieren, noch während man Wafer von TSMC dazukaufen muss. Gelsinger und Zinsner machen gerade Höllenstunts, während die Mitbewerber aus vollen Rohren raushauen können.
Klar wird das alles Scheißknapp, aber wenn Gelsinger(und Zinsner) das hinbekommt, dann wird das was für die Lehrbücher.
Wenn sie eine Bruchlandung hinlegen, dann wird das auch was für die Lehrbücher(keine Frage).
Aber derzeit scheint sie wirklich der Laptop-Konsum durchzuschleppen und scheinbar wird wieder mehr On-Prem-Server-Hardware gekauft, und da ist Intel gut aufgestellt.
Nur mal so, wenn AMD 3.5Mrd für MI300X Instinct bekommt, dann heißt das fast, das für EPYC nicht mehr so viel Wachstum über ist, oder haben die Client so runtergestuft?
Und Intel hat derzeit die größten Advanced Packaging Kapazitäten.
40 Mio Foveros Chips in einem Jahr fertigen kann sonst keiner.
Nein zahlenmäßig soweit ist auch nicht TSMC(freilich haben die mit direct die bonding ein feineres Packaging Produkt, aber mit niedrigeren Stückzahlen und beim Zusammenlegen bei M2 Ultra kommt man nicht auf Stückzahlen).
Saugbär
2024-05-06, 23:29:02
PowerVia und RibbonFET hat Intel bisher nur auf E-Kernen getestet.
6P + 8E-Kerne sind wohl vom Stromverbrauch nicht so kritisch.
8P + 16E-Kerne bekommt noch die klassische Stromversorgung, als Testobjekt wohl noch ungeeignet
iamthebear
2024-05-07, 05:29:58
Intel steht hier massiv unter Druck:
.) Läuft ARL mit N3 deutlich besser (bezogen auf Takt und Density) so ist das ein Todesurteil für das Foundrygeschäft und selbst die Kapazitäten nutzen wird auch schwierig
.) Läuft 20A deutlich besser als N3 ist man der Depp, da man damit nicht den High End Markt bedient. Die Foundrykunden rennen Intel zwar die Türe ein aber man hat sowiuesoi keine Kapazität dafür
.) Läuft N3 deutlich besser, wird abwer von Intel auf 20A herunter gedrosselt: Dann bekommt man Probleme mit Zen5 und es entsteht der Eindruck als wäre man nun auch designmäßig in der Krise
.) Wird 20A gar nicht gelaunched erweckt man den Eindruckt, dass man den Zeitplan nicht halten kann und darüber gelogen hat => Schlecht bei Aktionären
Die einzige Situation, die nicht massiv nach hinten los geht ist wenn sich herais stellt, dass die 2 Nodes ziemlich ähnlich performen.
Zossel
2024-05-07, 06:46:22
Intel steht hier massiv unter Druck:
.) Läuft ARL mit N3 deutlich besser (bezogen auf Takt und Density) so ist das ein Todesurteil für das Foundrygeschäft und selbst die Kapazitäten nutzen wird auch schwierig
Ach, nur mit dem besten Prozess der Welt kann man als Fab Kohle scheffeln?
Dann hätte TSMC ja längst pleite sein müssen.
mocad_tom
2024-05-07, 10:50:02
Der Intel 18A Prozess ist deutlich besser als alles was TSMC in der N3 Generation bauen kann.
ABER
Der (Intel 18A-)Wafer kostet bei Intel mehr.
TSMC N3E ist eine etwas schwächere Form von TSMC N3B.
N3E ist halt teurer / N3B wird billiger und nur minimal schlechter(Preis-Leistung wird besser).
Die Zeit die der Wafer im Belichter verbringt, die wird bei Intel zu lange.
Damit wird der Wafer teurer(und andere Prozessschritte).
Rein die elektrischen Fähigkeiten des Intel Prozess sind hervorragend.
Und wenn Intel Falcon Shores baut, dann kann man diesen teuren Prozess auch in ein Produkt ummünzen.
Für Smartphone-SoC, hat Intel ja selbst schon zugegeben, ist der Prozess zu teuer.
Ich finde da Samsung echt interessant - man schimpft immer über ihren Prozess, aber die bauen die Exynos-Chips in den Samsung-Smartphones damit.
robbitop
2024-05-07, 12:11:13
Das hat man schon öfter von Intels Prozessen gehört. Aber seit 10 nm (Intel 7) laufen sie (unabhängig von der Node Bezeichnung) TSMC hinterher. Zu behaupten 18A wäre besser als N3 ist in dem Zusammenhang sehr mutig und wäre erstmal zu beweisen. Das wäre seit vielen Jahren ein Novum.
mocad_tom
2024-05-07, 12:26:17
semiwiki hat Ende Februar das so zusammennotiert
https://semiwiki.com/semiconductor-manufacturers/342094-iss-2024-logic-2034-technology-economics-and-sustainability/
Mit Density hat es Intel nicht mehr ganz so.
w0mbat
2024-05-07, 13:33:52
Das hat man schon öfter von Intels Prozessen gehört. Aber seit 10 nm (Intel 7) laufen sie (unabhängig von der Node Bezeichnung) TSMC hinterher. Zu behaupten 18A wäre besser als N3 ist in dem Zusammenhang sehr mutig und wäre erstmal zu beweisen. Das wäre seit vielen Jahren ein Novum.
Stimm ich dir voll zu, aber da Intel nach LNL (alles N3B) bei PTL auf 18A (CPU tile) + N3E (GPU tile) wechselt, sollte 18A bessere Werte als N3B liefern, zumal es für Intel wohl echt teuer bzw. nicht günstiger ist, 18A zu nutzen.
robbitop
2024-05-07, 13:36:07
Naja aber sie haben Fabriken die sie auslasten müssen. Das muss nicht unbedingt sein, dass 18A besser ist. Es bleibt erstmal abzuwarten, wie sich 18A schlägt. Und was TSMC bis dahin hat. Wenn TSMC dann schon bei 2 nm ist, bringt es 18A nichts, besser als 3 nm zu sein. Ich bin da noch sehr skeptisch.
mocad_tom
2024-05-07, 13:54:37
TSMC N2 ohne PowerVia bringt sie noch nicht in Führung.
Arrow Lake mit Intel 20A wird das ganz große 'Tod-oder-Gladiolen-Endspiel'.
Und ganz ehrlich du kannst nicht zum Department of Defense sagen macht mal Tape-In ihr kriegt dann eure Militär-Chips schon irgendwann in 5 Jahren.
USA hat das ganz clever gemacht:
- Intel musste erste Sachen liefern
- TSMC hat ein bisschen was geliefert
- Intel musste mehr abliefern
- TSMC hat nachgelegt
- Intel hat nachgelegt
- TSMC hat nachgelegt
Jetzt gibt es dann in USA ab 2025 Intel 18A und ab 2028 TSMC N2.
Und Intel muss schon bis 14A vorplanen.
Und TSMC hat ihren Prozess zu A16 umbenannt, der erste Prozess mit PowerVia.
TSMC hatte einen viel entspannteren Plan für ihre Prozesstechnologien.
davidzo
2024-05-07, 14:02:34
Stimm ich dir voll zu, aber da Intel nach LNL (alles N3B) bei PTL auf 18A (CPU tile) + N3E (GPU tile) wechselt, sollte 18A bessere Werte als N3B liefern, zumal es für Intel wohl echt teuer bzw. nicht günstiger ist, 18A zu nutzen.
Teurer aber nur weil sie die hohen Entwicklungskosten und die neuen EUV Maschinen damit abschreiben müssen. Traditionell hat Intel Foundry zwar hohe Entwicklungsausgaben aber meist eher niedrige Serienprozesskosten und in dem Bereich sicher auch ein paar Kniffe drauf die selbst TSMC noch nicht kennt. Intel war einmal der größte Halbleiterhersteller der Welt und das überwiegend mit einer Hand voll Designs und Masken. Es gibt kaum einen anderen Hersteller der so viele Masken von einem und demselben Produkt hat und soviele Fertigungslinien die den gleichen DIE herstellen wie bei Intel. Dadurch haben sie Zugang zu economy of scale Effekten die sich wahrscheinlich nichtmal Apple oder Qualcomm leisten können. Bei den gesalzenen Preisen die TSMC aufgrund des AI-Booms verlangen kann sollte sich die eigene Foundry eigentlich gerade wieder lohnen. Nur muss man eben erst den technologischen Anschluss wieder finden und so eine Aufholjagd ist natürlich immens teuer.
robbitop
2024-05-07, 14:10:34
Man wird auch erstmal sehen ob PowerVia der große Heilsbringer wird. TSMC muss man erstmal schlagen. Die executen wie ein Uhrwerk und sind auch in Prozessen die keine großen neuen Features bringen sehr gut.
Samsung macht mit dem GAA ja auch viel Wind aber die müssen sich auch erstmal mit ihrem 3 nm Prozess ggü N3 (ohne GAA) beweisen.
Man wird auch erstmal sehen ob PowerVia der große Heilsbringer wird. TSMC muss man erstmal schlagen. Die executen wie ein Uhrwerk und sind auch in Prozessen die keine großen neuen Features bringen sehr gut.
Samsung macht mit dem GAA ja auch viel Wind aber die müssen sich auch erstmal mit ihrem 3 nm Prozess ggü N3 (ohne GAA) beweisen.
Danke, so sehe ich das auch. Das ist ja alles schön und gut, aber was dabei rauskommt ist wichtig - und fast noch wichtiger ist, wieviel das kostet und da seh ich das allergrößte Problem für IFS.
Und 18A Mitte 25 ist pures Wunschdenken. Das sehen etliche noch nicht ein, aber man wird sehen, das das so ist.
Zossel
2024-05-07, 16:39:22
Danke, so sehe ich das auch. Das ist ja alles schön und gut, aber was dabei rauskommt ist wichtig - und fast noch wichtiger ist, wieviel das kostet und da seh ich das allergrößte Problem für IFS.
Und 18A Mitte 25 ist pures Wunschdenken. Das sehen etliche noch nicht ein, aber man wird sehen, das das so ist.
Wichtig wird sein das Intel planbare Nodes in den vereinbarten Stückzahlen für die Drittkunden liefert.
Als Kunde einer Fab steckt man ja auch recht viel Kohle in das Tape für den Tape-In.
Wichtig wird sein das Intel planbare Nodes in den vereinbarten Stückzahlen für die Drittkunden liefert.
Als Kunde einer Fab steckt man ja auch recht viel Kohle in das Tape für den Tape-In.
Der erste Schritt die Foundry-Services zu verkaufen wäre ein ehrliches Vorgehen und ehrliche Zeitpläne und ehrliche Performanceangaben mit ehrlichen Kosten.
So setzen die das vor die Wand meiner Ansicht nach. Immer Produkte ankündigen, die dann doch deutlich später kommen und dann anders als gedacht ist einfach ne extrem schlechte Werbung. Man siehe sich diese Generation an, die große Werbung wäre ARL in 20A gewesen, die gibts aber nicht. Die Generation sieht ja wie folgt aus:
- 200HX -> ARL-S in N3B
- 200H -> RPL-H-Refresh
- 200U -> ARL-U ín Intel3 mit Redwood Cove und Gracemont als Server-Varianten
So macht man keine Foundrykunden. Klar, diesmal ist der Druck riesig, weil man davon ausgehen muss, dass AMD mit Strix+Kraken diesmal pünktlich sein wird, man kann also nicht sowas wie bei MTL abziehen. Aber das wirkt sich eben auch auf die IFS aus.
y33H@
2024-05-07, 21:52:19
ARL-S 681 kommt doch mit 20A, verstehe dein Problem nicht.
ARL-S 681 kommt doch mit 20A, verstehe dein Problem nicht.
Träum weiter. Selbst wenns so wäre wär der sehr spät dran. Ich glaube eher, dass man hier das U Die recycled.
mocad_tom
2024-05-07, 23:31:47
du kannst das foundry business nicht verkaufen, wenn das business gerade in scherben liegt.
sie hatten aber so viel r&d in den schubladen liegen, dass sie das stück für stück zusammensetzen mussten.
tsmc ist immer konservativ gefahren, nur bei euv waren sie progressiv.
intel geht jetzt die themen powervia und gaa selbst progressiv an.
klar, wenn sie die yields nicht hochziehen können wird alles sch***e, wenn es aber klappt, haben sie beide themen durch und tsmc muss erstmal zusehen, wie sie die themen packen.
gleiches wird es jetzt dann bei high-na euv.
intel wieder progressiv.
Klares Missverständnis. Ich meinte nicht die Foundry verkaufen, sondern Prozesse an Kunden verkaufen.
y33H@
2024-05-08, 12:13:42
Träum weiter. Selbst wenns so wäre wär der sehr spät dran. Ich glaube eher, dass man hier das U Die recycled.Du hast eh deine eigenen Vorstellungen, die nicht immer :wink: so eintreffen.
robbitop
2024-05-08, 12:18:54
Träum weiter. Selbst wenns so wäre wär der sehr spät dran. Ich glaube eher, dass man hier das U Die recycled.
Du weißt schon, dass y33h@ bei Intel arbeitet? ;)
fondness
2024-05-08, 12:32:58
Mich interessiert zur ARL eher, wie weit Intel damit noch heruntergehen will: Nicht mehr Kerne, kein HyperThreading, max Clock wohl nur 5.5 GHz. Wieviel IPC-Gewinn braucht es allein, um dies aufzufangen gegenüber einem 14900K? Und welchen astronomischen IPC-Gewinn muß ARL bieten, um dann gleichzeitig noch mit Zen5 mithalten zu können?
Ich sehe das ehrlich gesagt eher umgekehrt: Intel streicht HT, reduziert den Takt und erhöht auch die Kerne nicht. Intel wird sicher keinen Nachfolger bringen der langsamer ist als der Vorgänger, da konnte man das Ding auch gleich canceln. Zudem deutet das fehlende HT auf eine fundamental andere Architektur hin. Ist ARL womöglich der "Royal Core" von Jim Keller?
Nein ist es nicht, das konnte man schon am Lunar Lake Die shot erkennen. Die Skymont Kerne wurden aber stärker aufgebohrt. Auch in der Größe deutlich gewachsen relativ zu den big cores. 1 Lion Cove entspricht eher so 1,8 Skymont mit L2. Das Verhältnis bei Gracemont lag eher so bei 3,7 pro big core.
Du weißt schon, dass y33h@ bei Intel arbeitet? ;)
Wusst ich nicht, aber das muss ja auch nichts heißen ;).
mocad_tom
2024-05-08, 16:03:37
Am Ende liegt es am Prozess, was die CPU in Cinebench an Punkte schafft.
Und hast du TSMC N4 vs TSMC N3B und Arrow Lake taktet auch noch niedriger, dann wird in Cinebench auch Arrow Lake mehr packen.
Es sei denn AMD geht den Raptor-Lake-Weg.
Skymont ist definitiv ein Kind von Jim Keller, weil bei einem Interview kurz nach seiner Freistellung hat er gemeint:
'er ist brutal stolz auf das E-Core-Team, das hat unglaubliches geleistet'
(so oder so ähnlich hat er das formuliert)
Und von Goldmont auf Goldmont Plus auf Tremont auf Gracemont ist zwar schon was passiert, aber jetzt nix weltbewegendes.
Von Gracemont auf Skymont ist dann aber jetzt schon was passiert.
ashantus
2024-05-08, 17:01:19
Es hieß in der Gerüchteküche bisher, daß Arrow-Lake Ende des Jahres kommt, also Nov / Dez.
Nun gibt es ja die neuste Aussage von Intel, daß Arrow-Lake doch bereits im dritten Quartal kommen könnte.
Dies führt mich zu der Annahme, daß mit Ende des Jahres eben der hauseigene 20A Prozess gemeint war. Drittes Quartal wird nun bedeuten, daß es sich um die TSMC gefertigten Arrow-Lakes handeln wird.
Weil der TSMC Prozess auf die 8P+16E CPU's bezogen ist, wird es zum Marktstart den 15700 /15900 geben.
robbitop
2024-05-08, 17:48:36
Nein ist es nicht, das konnte man schon am Lunar Lake Die shot erkennen. Die Skymont Kerne wurden aber stärker aufgebohrt. Auch in der Größe deutlich gewachsen relativ zu den big cores. 1 Lion Cove entspricht eher so 1,8 Skymont mit L2. Das Verhältnis bei Gracemont lag eher so bei 3,7 pro big core.
Das ist ja schon in etwa das Verhältnis zwischen den Zen und den Zen C cores.
fondness
2024-05-08, 18:46:00
Das ist ja schon in etwa das Verhältnis zwischen den Zen und den Zen C cores.
Verhältnis ja, nur ist Zen wesentlich kleiner. Ist Intels little core dann überhaupt noch kleiner als Zen ohne c?
w0mbat
2024-05-08, 19:13:24
Es gibt eine LNL die-shot?
mocad_tom
2024-05-09, 00:46:14
Die shot nicht, aber bei der letzten Veranstaltung haben sie dieses Bild gezeigt und jetzt hat jemand im Anandtechforum begonnen die Blöcke mit Aufgaben zu versehen.
https://forums.anandtech.com/threads/intel-meteor-arrow-lunar-panther-lakes-discussion-threads.2606448/page-294#post-41195834
https://forums.anandtech.com/threads/intel-meteor-arrow-lunar-panther-lakes-discussion-threads.2606448/page-297#post-41200493
Und OneRaichu hat das vor einiger Zeit mal gepostet:
https://twitter.com/Titanustruth/status/1787858517677769038
Ab der Computex weiß man mehr.
Ich meine eher das: https://twitter.com/aschilling/status/1778296969196105731
Und von Intel selber: https://www.directupload.eu/file/d/8549/6zkjdof6_png.htm
Allerdings hatte ich Quatsch erzählt, das Verhältnis lag bei 1,8 Lion Cove= Skymont Cluster mit 4 Kernen.
Lunar Lake:
P core: 4.55mm²
E core cluster: 8,1mm²
E core (without L2): 1.52mm²
MTL:
P: 5,33mm²
E cluster: 5,9mm²
E core only: 1,04mm²
ADL:
P: 7,12mm²
E cluster: 8,3mm²
E core only: 1,59mm²
https://twitter.com/gindi4711/status/1778860445853491346
fondness
2024-05-09, 09:46:05
Ich meine eher das: https://twitter.com/aschilling/status/1778296969196105731
Und von Intel selber: https://www.directupload.eu/file/d/8549/6zkjdof6_png.htm
Allerdings hatte ich Quatsch erzählt, das Verhältnis lag bei 1,8 Lion Cove= Skymont Cluster mit 4 Kernen.
Lunar Lake:
P core: 4.55mm²
E core cluster: 8,1mm²
E core (without L2): 1.52mm²
MTL:
P: 5,33mm²
E cluster: 5,9mm²
E core only: 1,04mm²
ADL:
P: 7,12mm²
E cluster: 8,3mm²
E core only: 1,59mm²
https://twitter.com/gindi4711/status/1778860445853491346
Also gab's die große Änderung doch beim P und nicht beim e core? Das stützt aber schon royal core Theorie, nicht? Alleine schon dass HT fehlt deutet für mich auf einen weitgehend neuen core hin.
Also gab's die große Änderung doch beim P und nicht beim e core? Das stützt aber schon royal core Theorie, nicht? Alleine schon dass HT fehlt deutet für mich auf einen weitgehend neuen core hin.
Hä wieso? Ein Skymont Kern ist um 50% gewachsen, während ein Lion Cove eher so 15-20% kleiner geworden ist - ausgehend von Meteor Lake. Der Aufbau sieht auch nach einer weiteren Evolution aus. Bei Skymont kann man den dritten Decode cluster gut erkennen.
mocad_tom
2024-05-09, 13:13:44
Fläche eines P-Core x Verhältnis = Fläche eines E-Core Cluster
ADL Verhältnis:
1:1.16
MTL Verhältnis:
1:1.10 (kommt daher, weil im P-Core der L2 Cache gewachsen ist)
LionCove Verhältnis:
1:1.78
Artikel vom Mai 2020
https://fortune.com/longform/microchip-designer-jim-keller-intel-fortune-500-apple-tesla-amd/
Keller won’t talk much about the massive chip redesign he’s overseeing—chip designers seldom do—and Intel’s new chip probably won’t be ready for another year or two. Still, both Intel and Keller have scattered some clues about how the chips might work. The new chips will cleanly separate major functions, to make it easier for the company to improve one section at a time—an approach that evokes the chiplet model Keller used at AMD. Keller also hints that Intel’s low-power Atom line of chips may figure more prominently in his future designs for PCs and servers. Artificial intelligence capabilities are clearly on the agenda: Keller has been haunting A.I. symposia and reading prodigiously, learning everything he can about where the field of A.I. applications is likely to go for the next five or 10 years.
Die im Fortune-Artikel angekündigten Vergrößerungen bei den E-Cores kommen im Lunar Lake.
Von Airmont zu Goldmont zu Tremont zu Crestmont ist man immer vorsichtig schrittweise vorwärts gegangen. Das progressivste war der Umstieg von 2er-Cluster auf 4er-Cluster
https://images.anandtech.com/doci/9219/AirmontModuleSize.png
Lakefield-Atom-4er-Cluster
https://images.anandtech.com/doci/15877/LKF%20TOP.jpg
Beim Sprung von Sierra Forest auf Clearwater Forest bleibt man bei 288 Kernen.
KarlKastor
2024-06-01, 04:50:56
https://chipsandcheese.com/2024/05/30/thoughts-on-skymont-slides/
Wurde das schon irgendwo gepostet?
Wäre schön eine massive Verbesserung und würde Skymont im Bereich von Golden Cove bringen. Würde erklären warum der Cluster so stark gewachsen ist. Aber Performance pro mm2 oder pro W wäre massiv besser.
Dein Link (https://chipsandcheese.com/2024/05/30/thoughts-on-skymont-slides/) geht nicht. Wenn man die 38% Int/68% FP genau nimmt und der Vergleich mit Crestmont gemacht wurde, liegt die Integer IPC höher als bei Golden Cove, FP wäre ähnlich.
Auf jeden Fall sieht es so aus, als wenn Skymont noch mehr Verbesserungen als die letzten größeren Atom Umbauten Gracemont oder Tremont mitbringt. Und bis auf Airmont und Crestmont gab es immer richtige große IPC Sprünge seit Silvermont über Goldmont, Goldmont Plus, Tremont, Gracemont und jetzt Skymont.
Wenn sie bei Darkmont oder wahrscheinlicher bei Artic Wolf weiter so stark zulegen, muss sich Intel überlegen, wie es mit den Cove weitergeht, weil die üblichen 15-20% werden nicht mehr reichen. Gut möglich, dass Lion Cove nur noch 10-20% pro Takt vorne liegt, was bei dem großen Flächenunterschied für Cove nicht gut aussieht. Intels Atom Team in Austin macht wirklich gute Arbeit, IDC in Israel muss sich was überlegen.
Vielleicht bringen die Mont irgendwann mehr IPC mit, sind aber wegen der geringeren Taktfrequenz trotzdem noch langsamer.
fondness
2024-06-01, 13:43:42
Ich werde das Gefühl nicht los, dass Intel erkannt hat, dass ihre P-Cores eine Sackgasse sind und man jetzt nach und nach versucht die E-Cores soweit zu verbessern, dass man damit auch die P-Cores ersetzen kann.
dildo4u
2024-06-01, 14:17:01
Sie brauchen die dicken Cores so lange sie keine Antwort auf X3D haben.
Wenn man den Leaks glaubt kann Intel beim Takt zurückfahren, da AMD konservativ beim Zen 5 Takt ist.
iamthebear
2024-06-03, 03:22:20
Ich denke nicht, dass der Desktop High End Gamingmarkt für Intel viel Relevanz hat.
Das Problem ist der viel größere Notebookmarkt wo man nicht das TDP Budget hast und somit von AMD hoffnungslos überrannt wird.
w0mbat
2024-06-03, 04:07:26
Dafür gibt es ja Lunar Lake.
dildo4u
2024-06-03, 06:09:46
Lunar Lake hat nur 4P Cores das scheint eine reine Antwort auf ARM Modelle von Apple/Qualcomm.
w0mbat
2024-06-03, 08:16:40
Intel's Van Gogh
BlacKi
2024-06-03, 13:32:53
Ich werde das Gefühl nicht los, dass Intel erkannt hat, dass ihre P-Cores eine Sackgasse sind und man jetzt nach und nach versucht die E-Cores soweit zu verbessern, dass man damit auch die P-Cores ersetzen kann.die aussage macht so keinen sinn. die ecores sind bereits die erkenntniss seitens intel, das pcores keinen sinn machen. das hat intel schon vor 2020 geschnallt. die p cores sind ja nichts neues, sondern die e cores sind neu. und die e cores funktionieren mittlerweile.
und da intel was gaming angeht nur halbes interesse zeigt, werden caches nur minimal vergrößert.
intel könnte amd im gaming segment jederzeit wegputzen wenn sie einfach einen stack cache verpflanzen. aber intel will garkein rennen starten. das kostet bloß margen. ich glaub auch, das der 700€ cpu markt auch nicht groß genug wäre um den aufwand zu betreiben. oberstes ziel sind die margen zu wahren.
"Einfach" ist das glaube ich mal nicht ;). Aber Intel könnte sicherlich was machen, wenn sie wollen, allerdings weiss ich nicht, ob diese Cache-Architektur, die die verwenden überhaupt einfach zu stacken geht, dass das überhaupt Sinn ergibt. Dafür sind die L3$ pro Kern auch sehr schnell.
amdfanuwe
2024-06-03, 13:47:42
wenn sie einfach einen stack cache verpflanzen.
Die haben noch nicht die technische Möglichkeit dafür.
iamthebear
2024-06-04, 00:45:31
die aussage macht so keinen sinn. die ecores sind bereits die erkenntniss seitens intel, das pcores keinen sinn machen. das hat intel schon vor 2020 geschnallt. die p cores sind ja nichts neues, sondern die e cores sind neu. und die e cores funktionieren mittlerweile.
Das Problem von Intel ist, dass sie aktuell viel mehr Verlustleistung produzieren und deutlich größere Kerne haben ohne dass am Ende nennenswert mehr Performance raus schaut was wohl auch großteils an der Fertigung liegen dürfte.
Die Alternative wäre gewesen Kerne mit ähnlichem Verbrauch und Größe von Zen4 zu haben, die aber nur die IPC von Skylake haben. Damit kann sich Intel gleich abschreiben.
Was die E Cores angeht: Solange diese was Performance/Die size angeht sich nicht massiv von den P Cores abheben sehe ich da nicht viel Nutzen darin.
Das ursprüngliche Ziel war ja sinnvoll:
1/2 Performance bei 1/4 der Fläche also 2x Performance/Fläche
In der Praxis waren es dann 1/2.5 Performance bei 1/3 der Fläche also 1.2x Performance/Fläche beinidealer Skalierung was so keinen Sinn mehr macht.
intel könnte amd im gaming segment jederzeit wegputzen wenn sie einfach einen stack cache verpflanzen. aber intel will garkein rennen starten. das kostet bloß margen. ich glaub auch, das der 700€ cpu markt auch nicht groß genug wäre um den aufwand zu betreiben. oberstes ziel sind die margen zu wahren.
Der Markt ist relativ klein und Intels Architektur profitiert nicht so stark von zusätzlichem L3 wie es AMD tut. Für 10% Performance in Spielen wird sich Intel das nicht antun. Die 10% holt man bereits durch APO indem man die richtigen Threads auf die E Cores auslagert und richtig verteilt so dass sie den L2 nutzen können.
Die haben noch nicht die technische Möglichkeit dafür.
Wie bitte? Intel ist was das Packaging angeht AMD technologisch meilenweit voraus. Man hat es nur bisher bei CPUs vor MTL noch nicht in der Massenfertigung genutzt.
amdfanuwe
2024-06-04, 02:27:39
Wie bitte? Intel ist was das Packaging angeht AMD technologisch meilenweit voraus. Man hat es nur bisher bei CPUs vor MTL noch nicht in der Massenfertigung genutzt.
Lol. Mach dich mal schlau.
Das entsprechende Intel Verfahren zu AMDs Hybrid Bonding heißt: Foveros Direct und soll dieses Jahr in Intel 3-T kommen. Jahre nach AMDs 3D Stacking.
https://www.anandtech.com/show/21271/intel-foundry-future-14a-foveros-direct-beyond
Daredevil
2024-06-04, 12:04:25
Wenn die E Cores wirklich so stark nen Abriss machen, hat mich Intel überzeugt, dass meine nächste Plattform wieder blau wird. Jetzt muss Intel sehr gerne auch das abliefern, was sie mit ihrer E-Core Magic gezeigt haben und dann auch wirklich 2024 kommen, am besten noch bevor Apple mich wieder umstimmen könnte für ein HEDT System über den Winter. :ulove:
MiamiNice
2024-06-04, 12:37:41
Was sollte man auch sonst kaufen? :wink:
Hakim
2024-06-04, 13:09:23
Das was einfach besser abliefert? Alles andere sollte einem zu denken geben :)
davidzo
2024-06-04, 14:01:49
Wenn die E Cores wirklich so stark nen Abriss machen, hat mich Intel überzeugt, dass meine nächste Plattform wieder blau wird. Jetzt muss Intel sehr gerne auch das abliefern, was sie mit ihrer E-Core Magic gezeigt haben und dann auch wirklich 2024 kommen, am besten noch bevor Apple mich wieder umstimmen könnte für ein HEDT System über den Winter. :ulove:
Die schnellen E-Cores braucht man aber auch weil ja HT auf den Big Cores wegfällt. Intel spricht selbst von 30% Verlust durch HT.
Bisher sind die E-Cores z.B. in CB R23 nur 0.39x eines P-Cores mit HT. Btw, hier sind es real sogar 36% durch HT:
1hP@5.0GHz = 2.53x performance of 1E@4.0GHz
1P@5.0GHz = 1.85x performance of 1E@4.0GHz
https://www.reddit.com/r/intel/comments/yv3uan/performance_pcores_vs_ecores/
Wenn ich da also 38% IPC Verbesserung anlege (CB ist eher Integerlastig), dann entspricht ein E-Core immer noch nur 0,54 P-Cores mit HT und 0,74 ohne.
Die 16 Skymont E-Cores leisten also 0,54*16 = 8,64 Golden Cove P-Cores mit HT (bei angenommener 20% Taktdifferenz für GLC).
Raptorlake leistet also:
8x 2,53 = 20,24
16x E = 16,0
= 36,24
Die neuen P-Cores verringern die MT Leistung, trotz 14% 1T IPC increase:
8x 1,85 * 1,14 = 16,872
16x 1,38 = 22,08
= 38,952
Das wären also lediglich 8% Performance Improvement in Integerlastigen MT Workloads. In FP wird es wohl mehr sein. Interessanterweise stimmt das genau mit den vor langer Zeit durch Igor geleakten Performance Projections überein.
Zudem kann man mit einer leichten Taktregression gegenüber RTL rechnen (5,7 statt 6Ghz). Der breitere P-Core scheint prozessagnistisch auch mehr Power zu kosten, da trotz TSMC N3B kaum Power gewinne zu sehen sind. In der Intel Grafik zur performance bei Power ist der P-Core daher am oberen Ende nur 10% schneller ST:
https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2024/06/image-10.jpg?w=1376&ssl=1
Um den 9950X zu erreichen wird es knapp. Der soll MT ja +46% schneller als der 7950X sein, bzw. in Cinebench 21% schneller als der 14900K und biszu 56% schneller in Blender. An Blender sieht man auch dass FP workloads für ARL ein zweischneidiges Schwert sind. Sobald 512bit breite Vektoren genutzt werden kommen gewinnt Zen5 per default.
Am ehesten wird Intel Zen5 noch im Singlethreaded workloads erreichen. Wenn AMD 16% Improvement und Intel nur 14% minus Taktraten-rückgang erreicht wird das aber knapper als noch bei Raptorlake, der 1T deutlich vor Zen4 lag.
In MT workloads geht die Krone wahrscheinlich wieder an AMD, nachdem dort RTL führend war vor Zen4.
Und Gaming geht sowieso wieder an die AMD X3D CPUs, die sind einfach übermächtig und Intel muss bei ARL zusätzlich mit der DRAM Latency des Chiplet-konzepts kämpfen.
fondness
2024-06-04, 14:12:39
Um den 9950X zu erreichen wird es knapp. Der soll MT ja +46% schneller als der 7950X sein, bzw. in Cinebench 21% schneller als der 14900K und biszu 56% schneller in Blender. An Blender sieht man auch dass FP workloads für ARL ein zweischneidiges Schwert sind. Sobald 512bit breite Vektoren genutzt werden kommen gewinnt Zen5 per default.
Am ehesten wird Intel Zen5 noch im Singlethreaded workloads erreichen. Wenn AMD 16% Improvement und Intel nur 14% minus Taktraten-rückgang erreicht wird das aber knapper als noch bei Raptorlake, der 1T deutlich vor Zen4 lag.
In MT workloads geht die Krone wahrscheinlich wieder an AMD, nachdem dort RTL führend war vor Zen4.
Und Gaming geht sowieso wieder an die AMD X3D CPUs, die sind einfach übermächtig und Intel muss bei ARL zusätzlich mit der DRAM Latency des Chiplet-konzepts kämpfen.
Ja, AMD macht am Desktop definitiv einen größeren Sprung, da Intel Takt verliert und HT.
robbitop
2024-06-04, 14:13:52
edit: Naja im Desktop bleibt HT.
Für mich sehen die neuen E-Cores eigentlich sehr nach dem Konzept aus was AMD mit Zen fährt. Irgendwas zwischen den riesen P cores und den kleinen E Cores.
Ich als Gamer würde einfach die CPU kaufen die am schnellsten in Spielen wird.
Wahrscheinlich wird es grob so werden. Zen 5 < Arrowlake < Zen 5X3D.
fondness
2024-06-04, 14:14:57
Naja im Desktop bleibt HT.
Nope?!
robbitop
2024-06-04, 14:15:15
Ach nur Server? Bei einem mobile Prozessor macht Intels Argumentationskette IMO irgendwie noch Sinn. Bei einer K-SKU mit dreistelliger W Anzahl klingt das aber irgendwie Hahnebüchen.
fondness
2024-06-04, 14:15:37
Ja nur Server laut Intel.
/Edit: Es macht IMO auch mobile keinen Sinn. HT steigert die Effizienz.
Hakim
2024-06-04, 14:25:50
Ich verstehe es auch nicht ganz. Man könnte ja fast denken das man so gut aufgestellt ist, das man darauf verzichten kann. Und es später bei Bedarf beim refresh wieder bringen. Kann ich mir aber auch nicht vorstellen
fondness
2024-06-04, 14:28:11
Ich verstehe es auch nicht ganz. Man könnte ja fast denken das man so gut aufgestellt ist, das man darauf verzichten kann. Und es später bei Bedarf beim refresh wieder bringen. Kann ich mir aber auch nicht vorstellen
IMO haben sie bei den vielen Umbauarbeiten einen Bug in HT rein bekommen den sie erst nächsten Jahr bei den Server-Chips fixen können. Alles andere macht keinen Sinn.
Daredevil
2024-06-04, 14:30:34
Ach nur Server? Bei einem mobile Prozessor macht Intels Argumentationskette IMO irgendwie noch Sinn. Bei einer K-SKU mit dreistelliger W Anzahl klingt das aber irgendwie Hahnebüchen.
In der Keynote war imho nur Server und mobile erwähnt. Zu Arrow Lake wurde eigentlich nicht viel gesagt, vielleicht will Intel sich das ja bewusst offen lassen?!
Zitat von CB:
https://www.computerbase.de/2024-06/intel-lunar-lake-computex-2024/#abschnitt_der_neue_pcore_lion_cove_bringt_14__ipc_auch_ohne_hyperthreading
Hyper-Threading nur noch im Server
Eine der größten Anpassungen hat das Thema „Hyper-Threading Technology“ (HTT) erfahren. Es wurde bei den Lion-Cove-Kernen entgegen bisherigen Mutmaßungen zwar nicht komplett entfernt, wird jedoch für die mobilen und Client-Produkte nicht mehr aktiv sein. Im Server hingegen, wo die Kerne später auch genutzt werden, ist Hyper-Threading weiterhin mit dabei.
Zu dem Thema HTT holte Intel deshalb im Rahmen des Vorab-Events auch noch mal etwas weiter aus. HTT war nie eine Technologie, mit der man alles erschlagen konnte, man gewinnt aber in einem gewissen Umfeld viel Leistung zu relativ geringen Kosten. Das ist auch heute noch so, allerdings hat sich der Markt geändert und die hybride Architektur Einzug gehalten. Im Low-Power-Bereich können viele der Aufgaben nun eben die E-Cores übernehmen, die viel schneller geworden sind und trotzdem wenig Energie verbrauchen. Für HTT müssen hingehen immer die zwar noch leistungsstärkeren, jedoch auch deutlich energiehungrigeren P-Cores aktiv sein – die Rechnung geht im mobilen Umfeld nicht auf.
Also HTT per In-Bios-Kauf? ;D
Gipsel
2024-06-04, 14:34:54
Für mich sehen die neuen E-Cores eigentlich sehr nach dem Konzept aus was AMD mit Zen fährt. Irgendwas zwischen den riesen P cores und den kleinen E Cores.Die Lioncove-Cores sehen vom Scheduler- und Pipeline-Layout auch ähnlicher zu AMDs Zen-Kernen aus (getrennte INT- und FP/SIMD-Scheduler, 4x 256bit FP/SIMD-Pipelines), während AMD beim Zen5 Frontend eventuell Anleihen bei intels E-Cores genommen hat.
w0mbat
2024-06-04, 14:37:48
HT ist in LNC on LNL komplett entfernt, nicht vorhanden in Hardware. CB liegt hier falsch.
Hakim
2024-06-04, 14:37:56
Die Aussage überzeugt mich halt nicht ganz im Desktop Bereich. Wie viel soll den ein p-core im Leerlauf ziehen das man auf ~30% Leistung verzichtet. Vor allem, Intel die aktuell noch für 1-3% mehr Leistung soviel Watt verbraten
davidzo
2024-06-04, 15:00:34
Die Aussage überzeugt mich halt nicht ganz im Desktop Bereich. Wie viel soll den ein p-core im Leerlauf ziehen das man auf ~30% Leistung verzichtet. Vor allem, Intel die aktuell noch für 1-3% mehr Leistung soviel Watt verbraten
Anscheinend kosten die Core-Verbesserungen für die 1T Leistung viel Energie.
Der schnellere first level cache, die extra ALUs, der extra FP port, der größere Opcache, der größere ROB, ...
Der verbrauch scheint ordentlich durch die Decke gegangen zu sein. In den intel Slides ist eine Power/Performance Kurve mit Redwood Cove und Lion Cove. Am rechten Ende, also das für die 1T Turbo Leistung steht lediglich 10% Performance uplift bei gleicher Power.
Wenn man den MT verlust von HT einrechnet ist die PPA der P-Cores noch schlechter geworden. Es geht also rein um die Singlethread Leistung bei den P-Cores. In dem Zusammenhang wundere ich mich wieso LNL nicht 2+8 oder 2+12 Cores hat und ARL 4+24. Wäre von der MT Leistung besser und sparsamer, bei gleichem Flächenverbrauch.
MiamiNice
2024-06-04, 15:36:51
Wäre von der MT Leistung besser und sparsamer, bei gleichem Flächenverbrauch.
Im Desktop ST > MT. Daher vermute ich, dass man MT Leistung zugunsten der ST Leistung opfert. Schmeckt mir persönlich richtig gut diese Richtung.
mboeller
2024-06-04, 16:50:12
kann es mit den ganzen Sicherheitsproblemen zusammenhängen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585993
Intel war davon ja massiv betroffen. Wäre aber seltsam, dass es gerade bei den Servern vorhanden ist und bei "Consumer" CPUs nicht mehr
davidzo
2024-06-04, 16:53:40
kann es mit den ganzen Sicherheitsproblemen zusammenhängen?
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=585993
Intel war davon ja massiv betroffen. Wäre aber seltsam, dass es gerade bei den Servern vorhanden ist und bei "Consumer" CPUs nicht mehr
Naja, für Hyperscaler, also große Datacenter für mietbare virtual server hat man ja eine eigene CPU mit sierra forrest die auch kein SMT hat.
SMT wird also nur bei HPC oder in SMB Servern verwendet die nur einen Nutzer haben, keine Guest VMs. Da ist das Risiko wohl vertretbar. Rowhammer ist nicht nur wahnsinnig aufwändig, du brauchst auch Zugang zum System, z.B. als GuestVM.
HT ist in LNC on LNL komplett entfernt, nicht vorhanden in Hardware. CB liegt hier falsch.
Die reden in ihren Foilen ja auch von Flächeneinsparungen dadurch.
Es gibt wohl tatsächlich unterschiedliche Varianten.
Consumer: non-HTT und nur 2,5MB L2$
Server: mit HTT und 3MB L2$
Vielleicht ist das dann wie bei Raptor Lake, dass die Server-Varianten dann unter neuem Namen (Lion Cove+) im ARL-Refresh dann genutzt werden.
w0mbat
2024-06-04, 17:40:52
AVX-512 wurde die Consumer auch gestrichen.
Zossel
2024-06-04, 19:04:18
Also HTT per In-Bios-Kauf? ;D
Diesen feuchten Traum träumt Intel doch schon seit Jahren.
ChaosTM
2024-06-04, 19:07:19
Prozessor as a Service .. kommt noch
dildo4u
2024-06-08, 18:33:14
Kein NPU Upgrade bis 2026. :eek:
https://wccftech.com/intel-amd-laptop-cpu-roadmap-leak-arrow-lake-hx-2025-refresh-2026-panther-lake-fire-range-16-cores-x3d-2025/
mboeller
2024-06-08, 18:44:04
Kein NPU Upgrade bis 2026. :eek:
https://wccftech.com/intel-amd-laptop-cpu-roadmap-leak-arrow-lake-hx-2025-refresh-2026-panther-lake-fire-range-16-cores-x3d-2025/
und wenn du die Roadmap mit LNL vergleichst ist das wahrscheinlich nur die Vorstellung. Release ist noch ein wenig später.
y33H@
2024-06-08, 23:42:44
Kein NPU Upgrade bis 2026 :eek:Nicht alles glauben, was im Internet steht ...
iamthebear
2024-06-09, 01:05:00
HT ist in LNC on LNL komplett entfernt, nicht vorhanden in Hardware. CB liegt hier falsch.
Ja so hatte ich das auch verstanden. Intel meinte SMT kostet 10% mehr Fläche und 15% mehr Verbrauch. Da die E Cores jedoch so schnell sind macht es keinen Sinn SMT zu nutzen solange nicht jeder P und E Core bereits 1 Thread abarbeitet. Mit einer 8+16 Konfig bringt es also erst etwas wenn die Software auch mehr als 24 Threads nutzt.
Für Spiele macht es also rekativ wenig Sinn. Da ist es besser mehr E Core Cluster zu haben damit jeder E Core Thread die vollen 4MB nutzen kann.
Zossel
2024-06-09, 06:32:49
Intel meinte SMT kostet 10% mehr Fläche und 15% mehr Verbrauch.
Kriegen das Andere besser hin?
Kein NPU Upgrade bis 2026. :eek:
https://wccftech.com/intel-amd-laptop-cpu-roadmap-leak-arrow-lake-hx-2025-refresh-2026-panther-lake-fire-range-16-cores-x3d-2025/
Das ist ne Roadmap eines Herstellers. Interessant ist der frühe ARL-H-Refresh Mitte 25, ich wette, das ist die 20A-Variante.
iamthebear
2024-06-14, 21:25:00
Kriegen das Andere besser hin?
Ich glaube nicht. Kein einziger ARM Hersteller nutzt SMT egal ob in Smartphones, Laptops oder High End Server Chips.
Das ist ne Roadmap eines Herstellers. Interessant ist der frühe ARL-H-Refresh Mitte 25, ich wette, das ist die 20A-Variante.
Was mir etwas Sorgen macht: Auf der Computex wurde jede Menge über N3B Lunar Lake gesprochen und auch von 18A Panther Lake. Aber von 20A Arrow Lake deutlich weniger.
Ich frage mich ob wir da überhaupt nochnviel sehen oder ob Intel im Mobile Bereich gleich von N3B ARL auf Panther Lake geht.
Ein 20A Refresh wäre nur sinnvoll wenn 20A höhere Taktraten schafft als N3B.
KarlKastor
2024-06-15, 19:04:24
Oder effizienter ist. Gerade für die -H Version.
iamthebear
2024-06-15, 20:48:28
Selbst wenn 20A deutlich effizienter wäre: Intel würde sich schwer tun eine neue CPU als Refresh zu verkaufen wenn diese weniger ST Performance hat als der Vorgänger.
Gipsel
2024-06-16, 19:20:39
Ich glaube nicht. Kein einziger ARM Hersteller nutzt SMT egal ob in Smartphones, Laptops oder High End Server Chips.Das ist aber nicht gottgegeben. Mit dem Cavium ThunderX2 gab es durchaus ARM-Kerne mit SMT (https://en.wikichip.org/wiki/cavium/microarchitectures/vulcan#Core) (4fach) für den Servermarkt (32Kerne pro Chip in 16nm im Jahre 2018). Test von Anandtech (https://www.anandtech.com/show/12694/assessing-cavium-thunderx2-arm-server-reality) gibt es auch.
iamthebear
2024-06-16, 23:31:35
Ausnahmen bestätigen die Regel ;D
Und wenn ich mir die Benchmarks so ansehe: Sehr sinnvoll war es offensichtlich nicht.
Gipsel
2024-06-17, 00:07:19
Ausnahmen bestätigen die Regel ;D
Und wenn ich mir die Benchmarks so ansehe: Sehr sinnvoll war es offensichtlich nicht.x86er-CPUs sind auch heute noch schneller als ARM in dem Bereich. Das hat mit SMT rein gar nichts zu tun (auch nicht mit der ISA). :rolleyes:
Vernünftig implementiertes SMT bringt in MT-Szenarien quasi immer höhere absolute Performance, höhere Performance/Watt und höhere Performance/Fläche. Und das ist unabhängig von der ISA. Einzige Constraints sind Entwicklungsressourcen und eventuell strategische Entscheidungen bezüglich Sicherheit (eventuell höhere Anfälligkeit gegenüber Seitenkanalangriffen).
ChaosTM
2024-06-17, 00:11:45
möglicherweise "schneller" (by brute force), aber wenn es um Watts/Rechenleistung geht, ist x86 nicht mal mehr vorhanden..
KarlKastor
2024-06-17, 00:20:48
@iamthebear
Naja, die mobile Modelle takten eher nicht am Limit. Bei Raptor Lake sind es bei -H und -U 5.4 GHz und bei Meteor Lake nur 5.1 GHz.
Zudem war die Aussage sie müssten höher takten und das sehe ich nicht. Gleiche ST Performance bei besserer MT Performance ist auch lohnend.
Gipsel
2024-06-17, 00:28:12
möglicherweise "schneller" (by brute force), aber wenn es um Watts/Rechenleistung geht, ist x86 nicht mal mehr vorhanden..Das Statement würde ich noch einmal überdenken. "Beschleuniger" für bestimmte Zwecke (GPU, AI usw.) mal außen vor, aber bei CPUs ist man recht konkurrenzfähig in so ziemlich allen Bereichen, in denen man antritt.
Nochmal: Das hat wenig mit der ISA selbst zu tun (sondern mit den Ressourcen, die man da investiert und wie gut das Design selbst für den jeweiligen Zweck ausgelegt ist).
ChaosTM
2024-06-17, 01:23:48
Egal, wie man es dreht..
Apple hat es vorgemacht. X64 ist eigentlich tot, aber man* will es nicht wahr haben:
* wir sollten uns endlich auf die Zukunft konzentrieren und nicht 40 Jahre alte Sachen immer noch unterstützen
Gipsel
2024-06-17, 02:24:11
Egal, wie man es dreht..
Apple hat es vorgemacht. X64 ist eigentlich tot, aber man* will es nicht wahr haben:
* wir sollten uns endlich auf die Zukunft konzentrieren und nicht 40 Jahre alte Sachen immer noch unterstützenWie heißt es so schön? Totgesagte leben länger ;). X86 wird schon seit mindestens 30 Jahren der Tod vorhergesagt oder herbeigewünscht. Und was ist passiert?
Und zum Sternchensatz am Ende: Die ISA ist dafür nicht sehr relevant. Man kann sich auch mit x86 auf die Zukunft konzentrieren. Die Unterstützung alter Sachen kostet in der Gesamtschau nicht viel, hat aber auch Vorteile.
ChaosTM
2024-06-17, 03:00:51
Egal wie du das siehst oder haben willst, x64 wird sterben und das ist unausweichlich.
Je schneller, desto besser für uns alle..
Leonidas
2024-06-17, 06:22:24
Intel meinte SMT kostet 10% mehr Fläche und 15% mehr Verbrauch.
Früher hatte es mal +5% Fläche gekostet, der Verbrauch wurde nicht erwähnt. So verschieben sich die Begründungen - je nachdem, ob man ein Feature promoten oder absägen will.
Egal wie du das siehst oder haben willst, x64 wird sterben und das ist unausweichlich.
Je schneller, desto besser für uns alle..
Vollkommener Unsinn aus meiner Sicht. Grade den Spielemarkt wird ARM nicht erobern. Und nur weuk Apple ARM macht, heißt das gar nichts. Ausgerechnet Apple ist von PowerPC zu X86 zu ARM gewechselt. Apple hat keinerlei Schnittmengen mit den anderen Softwaremärkten, ist also auch für den Rest des Marktes komplett irrelevant. Und man hat das schon oft erlebt, dass "neue" Technologien mit der Brechstange etabliert werden sollten, Qualcomm wird von M$ unterstützt - und wird scheitern, weil der Markt das eh nicht annehmen wird, man kennt das ja. Irgendwann kann man sich nicht mehr vor der echten Konkurrenz verstecken und wird in Benchmarks ausgefahren auch auf x86-Software und das wars dann. MMn bleiben die Qualcomm Notebooks ein Nischenprodukt.
Ich denke eher, dass ab einem gewissen Zeitpunkt der Befehlssatz irrelevant wird, weil alles RISC-V ist und sowohl X86 als auch ARM ohne Verlust emulieren kann.
robbitop
2024-06-17, 09:05:06
Naja der Wechsel zu ARM könnte langfristig schon geschehen (muss aber nicht). Die Laptophersteller erwarten 50% Marktanteil von ARM Chips in Windows in den nächsten Jahren.
Angenommen, die Dinge überschwemmen den Laptopmarkt und verkaufen sich langfristig gut. Dann werden neue Spiele für beides kompiliert. ARM und x86. Dem compiler ist es im Prinzip egal. Und irgendwann in vielen Jahren liegt alles in beidem vor. Und dann ist es egal ob ARM oder x86 CPU. Und dann hat man auf ein Mal einen größeren Wettbewerb bei CPUs. Auch für Desktop. Nicht nur AMD und Intel - dann kann jeder ARM Lizenzgeber mitmachen.
Ich finde es schade, dass MS nicht lieber RISC-V gewählt hat für den Neustart jetzt. Verpasste Chance. So müsste niemand Lizenzgebühren an ARM zahlen und das Instructionset ist nicht von einem Unternehmen abhängig. Eigentlich war das etwas kurzsichtig.
Was die erwarten und was passiert sind unterschiedliche Dinge. Ich sage dir, das ist ein erzeugter Hype. Die Gen verkaufen die ein paar davon, aber das wird sehr sicher nicht nachhaltig sein, zumal die Performance in unabhängigen Tests unterirdisch wird.
Voodoo6000
2024-06-17, 09:08:06
Egal wie du das siehst oder haben willst, x64 wird sterben und das ist unausweichlich.
Bald kommen die ARM-Prozessoren von Qualcomm. Außerdem wird Intel mit Arrow Lake und Lunar Lake Prozessoren endlich mal wieder Prozessoren, die nicht auf veraltetes Fertigungsverfahren setzen, veröffentlichen. Dann werden wir sehen, ob der ARM-Hype gerechtfertigt ist oder nicht.
robbitop
2024-06-17, 09:24:26
Was die erwarten und was passiert sind unterschiedliche Dinge. Ich sage dir, das ist ein erzeugter Hype. Die Gen verkaufen die ein paar davon, aber das wird sehr sicher nicht nachhaltig sein, zumal die Performance in unabhängigen Tests unterirdisch wird.
Wie kannst du dir da sicher sein, dass die CPU unterirdisch performen wird?
Was ich in einem Podcast gehört hab, ist dass die Ergebnisse bis dato zu den beworbenen Ergebnissen passen.
Weil ARM... ganz einfach. Ist alles emuliert. Es ist eben nett, wenn man da Rosinen reinhaut, aber sobald da ne ganze Bandbreite an Anwendungen getestet wird, prophezeie ich, dass das unterirdisch wird.
Mit der Grafik wird das noch schlimmer.
robbitop
2024-06-17, 12:16:48
Das war für die M-Cores unter MacOS kein Hinternis. Da gab es trotz anfänglicher Emulation sehr gute Ergebnisse. Und das Nuvia Team ist das M Team.
Und nicht jeder ist ein Gamer - die Dinger sind erstmal für Thin und Light Laptops. Wenn sie darüber es schaffen dort viele Geräte zu verkaufen, kann es schon sein dass sukzessive mehr Anwendungen und Spiele einfach "gleich mit" auf ARM kompiliert werden. Und das macht den Weg frei für SoCs mit deutlich stärkerer HW. Nächstes Jahr kommt ein SoC mit Blackwell GPU-IP mit ARM.
Nichts muss - aber alles kann.
Apple ist komplett außen vor, nicht vergleichbar. Lass Apple weg bei sowas, wir reden hier von PC. Ich halte das für einen riesen Fehler, überhaupt Apple bei solchen Sachen irgendwie in Vergleich zu ziehen, da ist alles geschlossen und proprietär.
Warten wir mal unabhängige Tests ab, ich bis extrem gespannt.
dildo4u
2024-06-17, 12:25:51
Die Einstellung bringt keinen weiter mehr Konkurrenz ist dringend nötig es reicht schon das Nvidia keine Konkurrenz mher hat und jetzt bis zum Ende der Zeit 8 GB Modelle bringt.
Einstellung ist irrelevant. Intel bringt mit ARL und LNL seine Mobilfähigkeit in Ordnung und dann ist Business as usual.
robbitop
2024-06-17, 12:57:40
Apple ist komplett außen vor, nicht vergleichbar. Lass Apple weg bei sowas, wir reden hier von PC. Ich halte das für einen riesen Fehler, überhaupt Apple bei solchen Sachen irgendwie in Vergleich zu ziehen, da ist alles geschlossen und proprietär.
Warten wir mal unabhängige Tests ab, ich bis extrem gespannt.
Aus technischer Sicht sehe ich keinen Grund das wegzulassen. Es ging ja nicht darum Apple als Argument zu sehen, dass sie es durchdrücken konnten. Sondern als Argument dass die Emulation relativ moderat ist in Bezug auf die Kosten und dass ein effizienter und starker ARM core möglich ist.
Warum soll der Emulator bei MS schlechter sein als bei ARM und warum soll das gleiche CPU Team jetzt schlechtere Cores bauen?
Es wurde sogar bereits gesagt (irgendwo hatte ich das gelesen) dass PRISM sich sehr gut mit Rosetta2 messen kann, wenn nicht sogar noch besser ist.
BlacKi
2024-06-17, 13:04:47
Ich finde es schade, dass MS nicht lieber RISC-V gewählt hat für den Neustart jetzt. Verpasste Chance. So müsste niemand Lizenzgebühren an ARM zahlen und das Instructionset ist nicht von einem Unternehmen abhängig. Eigentlich war das etwas kurzsichtig.
es fehlen aber die lizenzen um erfolgreich zu werden. die aufgaben, die x86 zu x86 gemacht haben können garnicht anwendungen auf arm oder riscv ausführen. um das hinzubekommen, müsste man riscv zu etwas machen was es nie sein sollte.
so auf die art: wasch mich, aber mach mich nicht nass.
ein bisschen setzen die e cores ja dort an. e cores gehen da in die richtung, da geringere instructionsets für höhere effizienz.
risc hat das potential die effizientesten und schnellsten cpus für spezifische anwendungen oder games zur verfügung zu stellen, aber die kompatibilität der instruction sets limitiert ihren erfolg.
vl macht das in zukunft AI, dann gehen die konsolen weg von normalen cpus und könnten so nochmal massiv an effizienz gewinnen.
arm kann x86 aber nicht ersetzen, denn x86 ist so geworden, weil die anforderungen das erforderten.
robbitop
2024-06-17, 13:13:08
Wieso Kompatibilität? Emulator für den Anfang und dann mittelfristig schauen, dass alle Compiler auch RISC-V kompilieren können. Wenn es genug installierte Basis gibt, braucht es dann keine Emulation mehr.
Und wenn man ohnehin wechselt - warum nicht Risc-V?
BlacKi
2024-06-17, 13:21:45
weil die linzenzierten instruction sets fehlen.
robbitop
2024-06-17, 13:24:01
Ich verstehe nicht was du meinst. Erkläre das bitte.
Das RISC-V Instructionset ist komplett offen und für jeden auch veränderbar. Da braucht es keine Lizenzen.
BlacKi
2024-06-17, 13:40:14
wenn du software hast, die mit avx512 sehr gut performt, dann wechselst du nicht mal eben auf risc5. es kostet dich zeit geld und effizienz.
sowas gibts nicht ohne linzenz, und damit nicht auf risc5. du kannst gerne avx gegen andere instruction sets für dieses beispiel tauschen.
risc5 müsste um aufzuschließen, die 20-30 jahre aufschließen und wäre dann kein risc mehr.
was arm so erfolgreich macht, ist der schmalen grat zwischen einfach und complex zu laufen. arm hat nochmals unterteilungen für spezifische aufgabenbereiche.
ARM has developed multiple processing families, such as the Cortex-A for high-performance applications, the Cortex-R for real-time applications, and the Cortex-M for energy efficiency applications
risc ist extrem rudimentär und nicht so effizient wie arm. es fehlen die technologien, die linzenziert sind. es kann nur dort scheinen, wo arm keine optimierungen für hat.
risc5 produkte wären ohne die entwicklungen die arm erfahren hat nicht competitive. und die entwicklungen bei arm gehen auf die lizenzen zurück. die lizenzen sorgen dafür, das du von der arbeit anderer profitieren kannst bessere produkte zu bauen, auf kosten der eigenen anpassbarkeit.
robbitop
2024-06-17, 13:45:04
Da gibt es Leute die das anders sehen (dass die Vector Instructions bei RISC-V sehr gut sind): https://itnext.io/advantages-of-risc-v-vector-processing-over-x86-simd-c1b72f3a3e82
Und warum soll man AVX nicht auch auf RISC-V SIMD emulieren können?
BlacKi
2024-06-17, 14:01:16
es geht, aber ist langsamer. du nutzt aber avx um sachen schneller abarbeiten zu können, nciht langsamer.
RISC-V wird mMn noch ein paar Updates erhalten und das wird so mächtig werden, dass du später CPUs bauen kannst, die x86 und ARM quasi-nativ emulieren können. Daher sehe ich das auch so, dass RISC-V aufgrund der Offenheit und der massiven Unterstützung aus China DER Standard wird.
robbitop
2024-06-17, 14:41:07
es geht, aber ist langsamer. du nutzt aber avx um sachen schneller abarbeiten zu können, nciht langsamer.
Hast du irgendwelche Belege warum die SIMD Instructions von RISC-V langsamer sein sollen?
Jim Keller hat mit Tenstorrent explizit RISC-V ausgesucht (auch für CPU IP) und legt da sehr breite CPU Cores aus: https://tenstorrent.com/ip/risc-v-ai-ip/
In einem Interview mit Ian Cutress hat er gesagt, dass ISA eigentlich nicht viel Unterschied macht und RISC-V auch für hochleistungs CPUs eine gute Wahl sind. Wenn es da bei SIMD größere Mankos seitens der ISA geben sollte, wäre diese Wahl und diese Aussage - sagen wir merkwürdig. Keller ist bei der Firma CEO und erscheint mir primär technische Entscheidungen zu treffen, wenn man sich seine Karriere anschaut.
amdfanuwe
2024-06-17, 15:34:06
Jim Keller hat mit Tenstorrent explizit RISC-V ausgesucht
Klar, X86 Lizenz bekommt er nicht, ARM Lizenz kostet.
Für RISC-V gibt es schon fertige IP und Compiler, hat man wenigstens einen Start.
Um mal wieder zum Thema zurückzufinden:
Klar wird ARL mobil erst mal nicht der große Wurf, weil das ja erst mal mehr oder weniger ein MTL-Remake in Intel3 werden soll mit Serverkernen. Aber ich denke, wir werden dann beim ARL-Refresh sehen, wie gut die nächsten Intel-Generationen mobil sein werden, denn mMn hat man sich bei ARL genau darauf konzentriert. Sowohl Skymont als auch Lion Cove-klein (kein SMT, kein AVX512, nur 2,5MB L2$) scheinen vor allem für diese Märkte konzipiert zu sein, weniger für Desktop. Ich finde das so als Mobilkonzept ziemlich gut. Dazu einigermaßen früh GAA-Fertigung, was sicherlich auch mobil entgegenkommen dürfte. Ich denke mobil sollte man Intel nicht so schnell abschreiben, auch wenn bis dahin mehr oder weniger Durststrecke herrscht, aber dafür können sich die Mobilhersteller ja so lange auf Strix und Kraken einschießen. Ein 50:50 Marktverhältnis für Intel und AMD im Mobilmarkt wäre optimal.
Super interessant wirds dann mit Panther Lake U, welcher mMn den Anfang machen dürfte.
robbitop
2024-06-17, 16:59:36
Klar, X86 Lizenz bekommt er nicht, ARM Lizenz kostet.
Für RISC-V gibt es schon fertige IP und Compiler, hat man wenigstens einen Start.
Ja aber so teuer sind die ARM Lizenzen für kleine Firmen jetzt auch nicht. Wenn es ein showstopper oder großer Nachteil gewesen wäre, hätte Jim Keller die Entscheidung IMO so nicht getroffen. Er ist in erster Linie Ingenieur und Genie und erst in zweiter Linie (wenn überhaupt) ein Erbsenzähler. X-D
Um mal wieder zum Thema zurückzufinden:
Klar wird ARL mobil erst mal nicht der große Wurf, weil das ja erst mal mehr oder weniger ein MTL-Remake in Intel3 werden soll mit Serverkernen. Aber ich denke, wir werden dann beim ARL-Refresh sehen, wie gut die nächsten Intel-Generationen mobil sein werden, denn mMn hat man sich bei ARL genau darauf konzentriert. Sowohl Skymont als auch Lion Cove-klein (kein SMT, kein AVX512, nur 2,5MB L2$) scheinen vor allem für diese Märkte konzipiert zu sein, weniger für Desktop. Ich finde das so als Mobilkonzept ziemlich gut. Dazu einigermaßen früh GAA-Fertigung, was sicherlich auch mobil entgegenkommen dürfte. Ich denke mobil sollte man Intel nicht so schnell abschreiben, auch wenn bis dahin mehr oder weniger Durststrecke herrscht, aber dafür können sich die Mobilhersteller ja so lange auf Strix und Kraken einschießen. Ein 50:50 Marktverhältnis für Intel und AMD im Mobilmarkt wäre optimal.
Super interessant wirds dann mit Panther Lake U, welcher mMn den Anfang machen dürfte.
Meine Erwartung ist, dass ARL in Spielen etwas schneller wird als Zen 5. Raptorlake ist ja in Spieleindizes schon >10% vor Zen 4. Da gibt es ggf ein wenig Taktregression aber dafür nochmal +16% IPC. Das sollte gegen Zen 5 schon reichen. Aber Zen 5X3D wird dann wieder vorn liegen - insbesondere, wenn er diesmal weniger Taktnachteil mitbringt.
ARL wird mMn komplett irrelevant für Spieler, wie jetzt schon Raptor Lake. X3D wird alles dominieren, bis Intel eine brauchbare Antwort darauf hat, was eben nicht so einfach ist, aber mit der Post-ARL/PTL-Generation sicherlich auch den Markt erreichen wird. Solange es einen x800X3D für 350-450$ gibts hat Íntel da keine Chance.
BlacKi
2024-06-17, 18:19:19
er hat brauchbar kursiv geschrieben, also lass ich das mal so stehen XD
aber ich sehe es auch nicht kommen, das ich den 7800x3d in den nächsten jahren ersetzen werde. da müsste sich sehr viel bewegen, was ich derzeit nicht sehe. weder spieleseitig noch intel seitig.
die umfrage auf der hauptseite ist erstaunlich eindeutig.
OgrEGT
2024-06-17, 18:26:56
Ja aber so teuer sind die ARM Lizenzen für kleine Firmen jetzt auch nicht. Wenn es ein showstopper oder großer Nachteil gewesen wäre, hätte Jim Keller die Entscheidung IMO so nicht getroffen. Er ist in erster Linie Ingenieur und Genie und erst in zweiter Linie (wenn überhaupt) ein Erbsenzähler. X-D
Meine Erwartung ist, dass ARL in Spielen etwas schneller wird als Zen 5. Raptorlake ist ja in Spieleindizes schon >10% vor Zen 4. Da gibt es ggf ein wenig Taktregression aber dafür nochmal +16% IPC. Das sollte gegen Zen 5 schon reichen. Aber Zen 5X3D wird dann wieder vorn liegen - insbesondere, wenn er diesmal weniger Taktnachteil mitbringt.
Ich finde dass jegliche Vergleiche mit aktuellen Intel 13/14 K Highend CPUs aufgrund der zweifelhaften und instabilen OC Betriebspunkte irrelevant sind... zudem sind diese was die Leistungsaufnahme betrifft absolut nicht konkurrenzfähig... Bei ARL sollten für diese erst einmal ordentliche und stabile Betriebsparameter vorgegeben werden und dann sehen wir mal wo diese bei Leistung, Leistungsaufnahme und Perf/W liegen...
BlacKi
2024-06-17, 21:14:26
doch, konkurenzfähig sind die schon, auch der verbrauch ist jetzt nicht massiv höher. allerdings bei den anwendungen.
DeadMeat
2024-06-17, 21:26:26
doch, konkurenzfähig sind die schon, auch der verbrauch ist jetzt nicht massiv höher. allerdings bei den anwendungen.
Anspruchsvolle Spiele bringen den 14900 schon auf 140+w, da ist der 7800x3d nichtmal bei 70. Das kann man schon als massiv bezeichnen.
BlacKi
Hör auf dir die Dinger schön zu saufen. Das ist gar nicht konkurrenzfähig bei Spielen. Mal lässig doppelter Verbrauch und dann noch deutlich höhere Preise. Ein 7800X3D kostet nur so viel wie ein 13700k.
Einzig sinnvoll wäre ein 14900k für User, die sowohl Spiele als auch starkes Multithreading brauchen - allerdings finde ich da den 7950X3D ne noch bessere Lösung, da fehlt zwar etwas Multithreadingleistung, dafür schluckt das Ding nur 120W. Es kommt nicht von Ungefähr, dass Intel im Retail nur noch bei 20% Marktanteil ist...
Fusion_Power
2024-06-17, 22:20:47
RISC-V wird mMn noch ein paar Updates erhalten und das wird so mächtig werden, dass du später CPUs bauen kannst, die x86 und ARM quasi-nativ emulieren können. Daher sehe ich das auch so, dass RISC-V aufgrund der Offenheit und der massiven Unterstützung aus China DER Standard wird.
Hab mich nun nicht wirklich tief in dieses "RISC-V" eingelesen. Aber so wie der Stand der Dinge aktuell wohl ist, liegen wir alle wohl schon längst unter der Erde, bis irgend wann in ferner Zukunft eventuell mal die Programme und erst recht Games auf RISC-V so laufen werden wie sie es aktuell auf x86 Systemen tun. Außer es passiert ein Wunder und irgend wer investiert und pusht RISC-V jenseits von gut und böse.
BlacKi
2024-06-17, 22:29:30
ich hab von den anwendungen gesprochen. nicht jeder nutzt seine cpu nur zum spielen. ich glaub intel hat auch nicht den fokus rein auf gaming.
nicht umsonst kosten die amd non x3d produkte kaum noch geld. sie sind answendungstechnisch zwar besser als die x3d modelle, aber langsamer und müssen preislich selbst mit den 2x8 kernen mit einem 13700k konkurieren, wärend sie effizienztechnisch nur minimal besser sind.
auch arrowlake wird nicht den fokus auf gaming haben, wird aber anwendungstechnisch wohl mit der 9000er serie den boden aufwischen, ohne performance technisch im gaming stehen zu bleiben.
Platos
2024-06-17, 22:41:07
Es kommt nicht von Ungefähr, dass Intel im Retail nur noch bei 20% Marktanteil ist...
;D
Faktenerfindung pur
iamthebear
2024-06-18, 00:20:02
Vernünftig implementiertes SMT bringt in MT-Szenarien quasi immer höhere absolute Performance, höhere Performance/Watt und höhere Performance/Fläche. Und das ist unabhängig von der ISA. Einzige Constraints sind Entwicklungsressourcen und eventuell strategische Entscheidungen bezüglich Sicherheit (eventuell höhere Anfälligkeit gegenüber Seitenkanalangriffen).
Aber man braucht Software die doppelt so viele Threads nutzt um 20-30% Performance zu erreichen.
In Cinebench sind 11 Kerne ohne SMT langsamer als 10 Kerne mit SMT auch gleicher Fläche.
Wer word wohl bei einem Spiel gewinnen das nur 11 Threads nutzt?
Zudem war die Aussage sie müssten höher takten und das sehe ich nicht. Gleiche ST Performance bei besserer MT Performance ist auch lohnend.
Das Problem ist: Die MT Performance steht in keinem Datenblatt. Da hat man nur ST Boost und Basistakt und die Reviews werden je nacb Gerät und Kühlung sowieso immer anders ausfallen.
Aber ja wenn die ST Performance gleich ist lässt sich das auch noch irgendwie vermarkten.
Aber was wenn die ST Performance 200MHz niedriger ist?
Früher hatte es mal +5% Fläche gekostet, der Verbrauch wurde nicht erwähnt. So verschieben sich die Begründungen - je nachdem, ob man ein Feature promoten oder absägen will.
Die Frage ist was ist "damals". Seit dem ersten Pentium 4 vor 22 Jahren hat sich ja so einiges verändert. Die 55 Mio. Transistoren eines Northwood von damals passen heute in weniger als 1mm².
Ich denke da wird sich vom Größenverhältnis her einiges verschoben haben.
Naja der Wechsel zu ARM könnte langfristig schon geschehen (muss aber nicht). Die Laptophersteller erwarten 50% Marktanteil von ARM Chips in Windows in den nächsten Jahren.
Angenommen, die Dinge überschwemmen den Laptopmarkt und verkaufen sich langfristig gut. Dann werden neue Spiele für beides kompiliert. ARM und x86. Dem compiler ist es im Prinzip egal. Und irgendwann in vielen Jahren liegt alles in beidem vor. Und dann ist es egal ob ARM oder x86 CPU. Und dann hat man auf ein Mal einen größeren Wettbewerb bei CPUs. Auch für Desktop. Nicht nur AMD und Intel - dann kann jeder ARM Lizenzgeber mitmachen.
Das Problem in der Windows Welt ist, dass viele Libraries nur in Binärform (dll) verteilt werden. Willst du eine .exe als x64 kompilieren so müssen ALLE Bibliotheken als 64 Bit Version vorhanden sein. Das hat sich nach 20 Jahren immer noch nicht vollständig gelöst und das obwohl seit 10 Jahren praktisch niemand mehr 32 Bit Betriebssysteme nutzt. Microsoft hat es z.B. nach über 20 Jahren immer noch nicht geschafft einen 64 Bit Excel ODBC Treiber mit Windows auszuliefern.
Ich bin schon gespannt wie toll der Support von alten Druckern/Scannern aussehen wird.
Ich finde es schade, dass MS nicht lieber RISC-V gewählt hat für den Neustart jetzt. Verpasste Chance. So müsste niemand Lizenzgebühren an ARM zahlen und das Instructionset ist nicht von einem Unternehmen abhängig. Eigentlich war das etwas kurzsichtig.
Der Vorteil von Risc V ist: Es kann das Instruction Set beliebig erweitert/geändert werden
Der Nachteil daran: Es wird auch jeder Hersteller beliebig daran erweitern/ändern und am Schluss werden wir zig miteinander inkompatible Versionen haben und funktionierende Binaries zu erstellen wird ein Horror werden.
Jim Keller bei Tenstorrent wird das nicht groß stören da sowieso nur eine Hand voll selbst geschrieber Software für einen klaren Einsatzzweck zum Einsatz kommt. Für den normalen Consumer oder Businessalltag wird das anders aussehen.
OgrEGT
2024-06-18, 05:40:56
ich hab von den anwendungen gesprochen. nicht jeder nutzt seine cpu nur zum spielen. ich glaub intel hat auch nicht den fokus rein auf gaming.
nicht umsonst kosten die amd non x3d produkte kaum noch geld. sie sind answendungstechnisch zwar besser als die x3d modelle, aber langsamer und müssen preislich selbst mit den 2x8 kernen mit einem 13700k konkurieren, wärend sie effizienztechnisch nur minimal besser sind.
auch arrowlake wird nicht den fokus auf gaming haben, wird aber anwendungstechnisch wohl mit der 9000er serie den boden aufwischen, ohne performance technisch im gaming stehen zu bleiben.
Davor ging es darum dass gesagt wurde ARL wäre schneller im Gaming basierend auf Vergleichen mit RPL...
Gerade bei Anwendungen aber sollte es doch um Stabilität und Zuverlässigkeit gehen... eben deshalb macht doch da der Klamauk mit instabilen OC Einstellungen keinen Sinn... es sei denn es geht rein um Benchmarks... und gerade bei Anwendungen ist die Leistungsaufnahme insb mit OC maximal hoch...
https://www.computerbase.de/2024-03/intel-core-i9-14900ks-test/3/
also auch und gerade bei Anwendungen sollte Intel erst einmal stabile Betriebsparameter veröffentlichen bevor ein sinnvoller Vergleich möglich ist...
Zossel
2024-06-18, 07:31:50
Gerade bei Anwendungen aber sollte es doch um Stabilität und Zuverlässigkeit gehen... eben deshalb macht doch da der Klamauk mit instabilen OC Einstellungen keinen Sinn... es sei denn es geht rein um Benchmarks... und gerade bei Anwendungen ist die Leistungsaufnahme insb mit OC maximal hoch...
Intel macht seit Jahrzehnten den richtigen Klamauk bei Anwendungen weil die sich wegen ECC total einpissen.
mocad_tom
2024-06-18, 08:46:13
Intel macht seit Jahrzehnten den richtigen Klamauk bei Anwendungen weil die sich wegen ECC total einpissen.
Verstehe ich nicht - ich arbeite aber auch auf einer Intel Workstation mit ECC.
;D
Faktenerfindung pur
Für Leute, die unter nem Stein gelebt haben die letzten Monate kann ich nix :freak:...
Ist nicht ganz aktuell, aber die 80% sind tiefgestapelt...
https://www.pcgameshardware.de/CPU-CPU-154106/News/Verkaufszahlen-bei-Mindfactory-1446018/
Ich redete natürlich von den Mindfactory Retail-Zahlen.
Bei OEMs siehts freilich anders aus.
mocad_tom
2024-06-18, 12:29:46
Sorry - aber wieviele von den 260 Mio. Windows PCs/Windows Laptops jährlich werden von Mindfactory aus an den Kunden geliefert?
Man müsste noch nicht mal diese Webseite verlassen und man würde ordentliche Zahlen erhalten:
https://www.3dcenter.org/news/die-marktanteile-fuer-x86-prozessoren-im-ersten-quartal-2024
(im übrigen ist der Überblick !!Peak Internet!! ich kenne keine andere Quelle, auch im amerikanischen Raum nicht, wo das aufgeräumter dargestellt wird)
HALLO? Das ist ein BEISPIEL. Es ging doch nur darum zu zeigen, warum die Intel-CPUs bei Spielen nicht konkurrenzfähig sind. Meine Güte...
MiamiNice
2024-06-18, 12:52:43
Ich mag Saitre :popcorn:
Gipsel
2024-06-18, 12:56:08
Aber man braucht Software die doppelt so viele Threads nutzt um 20-30% Performance zu erreichen.
In Cinebench sind 11 Kerne ohne SMT langsamer als 10 Kerne mit SMT auch gleicher Fläche.
Wer word wohl bei einem Spiel gewinnen das nur 11 Threads nutzt?Und wenn SMT nur 5% kostet (wie intel früher behauptet hat)? Dann bist Du bei 20 vs 21 Kernen. Wie klein soll die Nische sein, in der man die Threadanzahl genau so zuschneidet, daß es paßt? Die Realität sieht typischerweise anders aus.
Aber zu Deinem Beispiel (mit großem 10% SMT Flächenoverhead, also 10 vs 11 Kerne, ideale Aufteilung und Scheduling):
Bei 11 Threads gewinnt der 11 Kerner mit 7-8%, bei 12 Threads mit 4-6%, mit 13 Threads 1-4%, mit 14 Threads ist es um 0 (+2 bis -2%) und bei allem mehr verliert der 11-Kerner (im Grenzwert [ab 20 Threads] ist der 10Kerner mit SMT zwischen 9% und 18% schneller als der 11Kerner ohne SMT). Deine Nische liegt also zwischen 11 und 13 Threads. Das war's. Ziemlich klein (dafür baut Dir keiner eine CPU).
SMT ist glaube ich durchaus nicht so for free als das gerne kolportiert wurde. Intel gibt ja wie gesagt dadurch auch Nachteile an. Allerdings könnte es sein, dass, wenn es für ARL-Refresh 8+16 ein neues Die geben sollte, auch hier wieder die Servervariante zum Einsatz kommen kann und dann hätte das Teil wieder SMT...
Bin echt mal sehr gespannt, wieviel W ARL im Desktop wirklich bringen kann. Bei dem N3B-Chiplet, das ja recht klein ausfallen dürfte, dürfte das schon thermisch schwierig werden, sowas wie bei RPL abzuziehen. Ich bezweifle, dass man hier wieder auf 250W landet, das wird mMn gar nicht gehen.
Gipsel
2024-06-18, 13:00:26
SMT ist glaube ich durchaus problematischer als gerne kolportiert wurde. Intel gibt ja wie gesagt dadurch auch Nachteile an.Intels Marketing muß sich irgendwelche Gründe aus den Fingern saugen, weil es bei Client-Arrowlake nicht funktioniert (im Server soll es doch gehen, was die ganze Argumentation irgendwie über den Haufen wirft.). :rolleyes:
robbitop
2024-06-18, 13:07:05
Für mich klangen die ganzen Argumente, dass SMT auf einmal nachteilig sein soll auch fishy. Wie du sagst: ggf. hat es einfach nicht funktioniert aber die Lion Cove cores mussten auf den Markt, damit man nicht von Zen 5 / X3D massakriert wird.
w0mbat
2024-06-18, 13:25:55
SMT funktioniert in LNC ganz normal, für LNL (und wahrscheinlich auch ARL) wurde es einfach entfernt, also hardware seitig. Woher kommt dieses "es funktioniert nicht" Gerücht?
Gipsel
2024-06-18, 13:35:01
SMT funktioniert in LNC ganz normal, für LNL (und wahrscheinlich auch ARL) wurde es einfach entfernt, also hardware seitig. Woher kommt dieses "es funktioniert nicht" Gerücht?Warum sollte man das z.B. bei LunarLake tun? 4P+4E mit insgesamt 8 Threads sind schon verdammt wenig. Den Boost in MT durch SMT hätte man doch locker mitnehmen können. In Szenarien mit wenigen Threads kostet SMT doch nichts, insbesondere, wenn intels thread director ordentlich funktioniert.
Und Stromsparen ist kein valider Grund, weil man gewinnt auch Performance/Watt.
mocad_tom
2024-06-18, 13:40:34
Wenn ich da mit der CyberSecurity-Brille drübergehe, dann ist SMT stand heute mit deutlich mehr Aufwand verbunden als noch 2016.
Und die Marketing-Aussagen / Engineering-Team-Aussagen stammen ja von davor.
Diamond Rapids wäre der besagte Core, der da wieder was SMT ähnliches bringen soll.
Da hört man aber aktuell wenig davon / von Clearwater Forest hört man einiges / von Diamond Rapids sogut wie gar nichts.
Es ist ja auch so, dass zwei SMT-Threads auf dem gleichen Core, die Teilen sich den L1I und L1D.
Und genau da sind wir halt bei F***ing Spectre:
https://en.wikipedia.org/wiki/Transient_execution_CPU_vulnerability
Ich weiß schon ich beschreibe da jetzt dann gleich den Bulldozer-Ansatz - aber Bulldozer ist so nicht mit Spectre angreifbar (Bulldozer hat nämlich zwei getrennte L1D-Caches).
Dieses Rentable Units-Dings ist:
Bulldozer
Der L0D-Cache ist quasi genau das - den wird es in Diamond Rapids doppelt geben.
Deshalb kann ich mir auch nicht vorstellen, dass man bei Lunar Lake oder Arrow Lake dann auch irgendwie SMT einschalten kann.
Gipsel
2024-06-18, 13:48:21
Wenn ich da mit der CyberSecurity-Brille drübergehe, dann ist SMT stand heute mit deutlich mehr Aufwand verbunden als noch 2016.Was eventuell ein Grund wäre, daß aus Serverprodukten zu entfernen und in Clientprodukten zu belassen. Intel macht es aber genau andersrum?
Es ist ja auch so, dass zwei SMT-Threads auf dem gleichen Core, die Teilen sich den L1I und L1D.
Und genau da sind wir halt bei F***ing Spectre:
https://en.wikipedia.org/wiki/Transient_execution_CPU_vulnerabilitySpectre nutzt OoOE bzw. Spekulation aus, nicht SMT. Das funktioniert auch auf CPU-Architekturen ohne SMT (ARM, MIPS, PowerPC, alle waren/sind sie anfällig).
Warum sollte man das z.B. bei LunarLake tun? 4P+4E mit insgesamt 8 Threads sind schon verdammt wenig. Den Boost in MT durch SMT hätte man doch locker mitnehmen können. In Szenarien mit wenigen Threads kostet SMT doch nichts, insbesondere, wenn intels thread director ordentlich funktioniert.
Und Stromsparen ist kein valider Grund, weil man gewinnt auch Performance/Watt.
Kerngröße. Bei LNL ist ein Lion Cove ja nur 4,5mm² oder sowas. Man hat den Kern einfach gekürzt um SMT, AVX512 und L2$, damit er nicht soviel Fläche belegt bei dem teuren N3B. Die Frage ist eben, gibts den vollen Lion Cove dann bei 20A?
Gipsel
2024-06-18, 14:15:51
Kerngröße. Bei LNL ist ein Lion Cove ja nur 4,5mm² oder sowas. Man hat den Kern einfach gekürzt um SMT, AVX512 und L2$, damit er nicht soviel Fläche belegt bei dem teuren N3B. Die Frage ist eben, gibts den vollen Lion Cove dann bei 20A?Sogar falls SMT 10% Fläche kosten sollte, wären das bei 4x 4.5mm² gerade mal 1,8mm² in der Summe. Da muß N3B schon verdammt teuer sein, damit die Rechnung aufgeht.
mocad_tom
2024-06-18, 14:29:02
Bist du zwei getrennte Prozesse auf einem Prozessor hintereinander, dann tut man sich mittlerweile schon sehr hart da was vernünftiges "rauszu-stoppuhr-stoppen".
Bist du aber zwei getrennte Prozesse auf einem Prozessor mit SMT.
SMT ist ja dazu da Bubbles in der Pipeline zu füllen.
Also hat man zwei Prozesse zeitlich nah beieinander auf der darunterliegenden geteilten Ressource Cache-Pipeline.
Zwei Threads unter einem Prozess mit gleichem Adressraum geht dann schon wieder eher (aber wann spawnt ein guter Thread schonmal einen bösen Nachbarthread).
Bei Chrome geht man ja mittlerweile her und macht pro Tab einen Prozess(z.B.) und damit verbunden ein riesiger Speicherverzehr.
Sogar falls SMT 10% Fläche kosten sollte, wären das bei 4x 4.5mm² gerade mal 1,8mm² in der Summe. Da muß N3B schon verdammt teuer sein, damit die Rechnung aufgeht.
Es ist ja nicht nur SMT, sondern SMT, FPU und L2$.
Wenn eine Lion Cove-Sparvariante jetzt 4,5mm² groß ist und ein voller Lion Cove 6,5mm², dann sind das bei 8 Kernen 16mm². Das sind bei einem 80mm²-Chiplet mehr als 20%. In der großen Masse der Produktion macht das ne Menge aus, dafür, dass es die Leistung kaum beeinflußt.
Gipsel
2024-06-18, 15:30:58
Es ist ja nicht nur SMT, sondern SMT, FPU und L2$.Man hätte FPU und L2 einkürzen und SMT drinlassen können, oder? SMT rauszureißen ist doch im Vergleich z.B. zur L2-Reduktion viel mehr eine Operation am offenen Herzen.
Es birngt ja nur bei maximal MT was. Wenn man diese ultrastarken Skymont verbaut, wozu dann noch SMT?
Es ist ja auch irrelevant, Intel hat das nunmal getan. Sie haben eine Variante so stark gekürztw warum musst du Intel fragen. Aber ich finds auch nicht sinnlos, vielleicht ist es eben auch nicht so schwer, SMT rauszukürzen.
Gipsel
2024-06-18, 15:53:13
Es birngt ja nur bei maximal MT was. Wenn man diese ultrastarken Skymont verbaut, wozu dann noch SMT?Weil man nur 4 der "ultrastarken" Skymonts hat und auch nur 4 P-Cores (ohne SMT)?
Es ist ja auch irrelevant, Intel hat das nunmal getan.Warten wir ab, wie sich LunarLake schlägt. Wenn wir am Ende sagen: "Ist ja ganz nett, aber ein wenige mehr MT-Leistung wäre schon drin gewesen", hat intel sich meiner Meinung nach falsch entschieden.
vielleicht ist es eben auch nicht so schwer, SMT rauszukürzen.Um SMT zu implementieren (oder wirklich rauszuschmeißen, also nicht nur zu deaktivieren), mußt Du den "allerheiligsten" Bereich einer modernen OoOE-CPU anfassen. Es mag nicht viel Die-Fläche kosten/sparen, aber die Funktionalität in dem Bereich ist absolut kritisch. L2-Größe zu ändern ist dagegen gar nichts.
Wieso hängst du dich eigentlich so am Ultra-Ultra-LNL auf? Da spielt doch SMT erst recht keine Rolle...
Gipsel
2024-06-18, 16:32:59
Wieso hängst du dich eigentlich so am Ultra-Ultra-LNL auf? Da spielt doch SMT erst recht keine Rolle...Ich habe anfangs von ArrowLake gesprochen und dem Unterschied zwischen Client- und Server-CPUs.
LunarLake wurde von w0mbat ins Spiel gebracht und Du kamst dann mit der Kerngröße bei LunarLake. Ich habe nur darauf reagiert und geantwortet. ;)
MiamiNice
2024-06-19, 02:00:14
Ich vermute das SMT aus 3 Gründen im Desktop fehlt:
1. Taktdegression durch den Prozess. SMT würde noch zusätzlich Takt kosten. ST > MT im Desktop und MT hat man durch die kleinen Kerne mehr als genug.
2. Stromverbrauch pro Kern. Intel will ggf. kein SMT in Kernen die maximalen Takt ermöglichen sollen zwecks ST Power. SMT erhöht den Stromverbrauch pro Core, bzw. bleibt weniger für den Takt.
3. Mit SMT und hohem Takt auf den P Kernen ist man vielleicht in der Energiebilanz schlechter, als die kleinen Aufgaben auf die E Kerne zu legen.
Im Server ist ein hoher Takt und ST Perf. egal, daher dort mit SMT.
BlacKi
2024-06-19, 02:33:24
mit steigender smt auslastung sinkt auch der takt, wenn vom verbrauch eingebremst. der thread director könnte im notfall auch die auslastung umlenken, falls man den takt nicht reduzieren will.
also ein direkter hinweis warum smt off ist gibts keinen echten logischen, ausser das smt vl sogar single thread performance beeinträchtigt. vl war smt off nie ganz off und hat immer stp gekostet?
ob sich ein hinweis darin findet, warum die e cores kein smt haben und nie hatten??
Platos
2024-06-19, 03:37:31
Naja, es kommen doch sowieso Rentable Units bald oder? Und angeblich soll ArrowLake ja so ne IPC Steigerung bringen. Und die kleinen Kerne sind ja so effizienz jetzt (und somit auch erhöhte Flächeneffizienz), so dass sich HT gar nicht lohnt zu implementieren. Vor allem eben, wenn man bald mit Rentable Units daherkommt...
reaperrr
2024-06-19, 04:56:25
SMT funktioniert in LNC ganz normal, für LNL (und wahrscheinlich auch ARL) wurde es einfach entfernt, also hardware seitig. Woher kommt dieses "es funktioniert nicht" Gerücht?
Von MLID (schon vor fast einem Jahr) (https://www.notebookcheck.net/Intel-Arrow-Lake-CPUs-touted-as-first-products-influenced-by-Royal-Core-project-could-ditch-Hyper-Threading-altogether.736036.0.html), der immerhin zuletzt u.a. mit der Zen5-IPC recht behalten hat.
Angeblich soll es bei den Consumer-LCs in den ersten Steppings nicht funktionieren und der Fix hätte den Launch wohl deutlich verzögert, deshalb verzichtet man bei ARL-H und LNL einfach drauf (auch weil Skymont relativ stark ist) und fixt es mit etwas weniger Zeitdruck wohl nur für die Server-Variante des Kerns.
Dass MLID oder seine Quellen einfach nur eine bewusste Entscheidung falsch interpretiert haben, ist natürlich nicht ausgeschlossen.
Aber dass es tatsächlich defekt ist, Intel jetzt aber nicht hingeht und öffentlich zugibt "Jo, ist halt kaputt, fixen würde LNL und ARL aber um ein halbes Jahr verzögern, also deaktivieren wir's einfach", sondern das ganze als bewusste Maßnahme verkauft, ist jetzt auch nicht sooo abwegig.
aufkrawall
2024-06-19, 05:46:44
Halte es nicht ausgeschlossen als reine PR-Maßnahme zum Pushen der E-Cores in der Wahrnehmung.
basix
2024-06-19, 07:56:20
E-Cores werden mit Skymont aber auch deutlich, deutlich schneller ;)
Bei Arrow Lake hilft das noch nichts, bei späteren CPUs und LNL schon.
y33H@
2024-06-19, 10:31:04
Wieso hilft SKT bei ARL nicht? Die MT-Performance wird dadurch ja deutlich verbessert ...
MiamiNice
2024-06-19, 10:45:25
also ein direkter hinweis warum smt off ist gibts keinen echten logischen, ausser das smt vl sogar single thread performance beeinträchtigt. vl war smt off nie ganz off und hat immer stp gekostet?
Wenn man auf Intel CPUs SMT deaktiviert, kommt man idR. zwischen 100 und 300 Mhz mit dem Takt nach oben. Wenn man SMT generell nicht braucht, weil viele E Kerne vorhanden und man eine Taktdegression hat, aufgrund des fremden/neuen Prozesses, halte ich den Punkt schon für irgendwie logisch.
Intel will sicher nicht nur mehr MT Perf. anbieten, sondern auch ST. MT kommt aus den neuen E-Cores, ST ist ein Problem da weniger Takt (aber hoffentlich deutlich mehr IPC). Es soll aber mehr ST werden als bei RPL und sicher will man sich auch mit Zen5 anlegen. Also muss man ST liefern, das geht nur wenn die P Cores massig takten können.
An dieser Stelle stört dann SMT.
Ich persönlich denke sogar, dass sich ARL im Gaming mit Zen5 incl. 3D Cache anlegen können soll/wird. Die CAMM2 Module dürften den Intel CPUs sehr gut schmecken, besser als den AMDs.
basix
2024-06-19, 11:02:56
Wieso hilft SKT bei ARL nicht? Die MT-Performance wird dadurch ja deutlich verbessert ...
Weil Arrowlake afaik nicht Skymont sondern dessen Vorgänger verwendet? Oder habe ich das falsch im Kopf?
MiamiNice
2024-06-19, 11:10:09
Core Ultra 200 respektive Arrow Lake nutzt die neuen Performance- (Lion Cove) und Efficiency-Kerne (Skymont) sowie Xe2-Grafik, die zur Computex mit dem mobilen SoC Lunar Lake alias Core Ultra 200V Premiere gefeiert haben.
Deshalb braucht ARL nicht noch mehr MT Performance durch SMT und die Coves können höher takten.
basix
2024-06-19, 11:19:13
Ich persönlich denke sogar, dass sich ARL im Gaming mit Zen5 incl. 3D Cache anlegen können soll/wird.
Das wird spannend, ja. Aber ich denke, X3D wird die Führung übernehmen. +15...20% durch die Architektur und laut Gerüchten keinen Taktnachteil mehr. Macht unter dem Strich wohl solide ~25% auf den 7800X3D. Wenn Arrow Lake nicht nochmals den Takt erhöht oder irgendwie sonst eine deutlich bessere Skalierung in Spielen realisiert, dann sollte X3D "gewinnen". Aber anyways, die Differenz wird nicht weltbewegend sein. Das Ass im Ärmel des X3D ist der niedrige Stromverbrauch und der mittlerweile relativ günstige Preis.
MiamiNice
2024-06-19, 12:21:40
Lion Cove macht auch 15%, laut Gerüchten (auf MTL, nicht RPL). Bekommt allerdings noch schnelleren und Latenz ärmeren Ram an die Seite gestellt (CAMM2). Die Ram Latenz war bei Intel schon immer die Stellschraube für deutlich bessere Gaming Performance. AMD wird aufgrund der größen Caches wahrscheinlich nicht so sehr vom CAMM2 Standard profitieren. Auch profitiert nicht jedes Spiel vom 3DCache, die Leistung der X3D Cpus ist daher schon immer ein wenig selektiv. CAMM2 dürfte bei Intel jedwedes Spiel deutlich beschleunigen.
Ich denke auch es wird spannend und das Intel jedes Mhz brauchen wird für die X3D CPUs. Deswegen imo kein SMT.
https://youtu.be/7RcEPqn5ejM?t=122
https://youtu.be/7d0QGWRUkm4?t=80
Intel führt eine Reihe von Gründen an.
robbitop
2024-06-19, 12:48:58
Die sind bekannt. Ich empfand die jedenfalls als inkonkludent zu dem was man bisher von allen IHVs zu SMT kennt. Warum soll sich das Paradigma auf einmal ändern? Es hat sich keine Randbedingung genau jetzt so geändert. Viele Cores gab es vorher auch schon. E-Cores auch.
OgrEGT
2024-06-19, 12:58:53
(...)
Ich denke auch es wird spannend und das Intel jedes Mhz brauchen wird für die X3D CPUs. Deswegen imo kein SMT.
Oweh das hört sich nach auf Kante genäht an... jedes MHz und vor allem W... :uexplode:
Das ist ja auch jetzt bei RPL das Problem...
Gipsel
2024-06-19, 13:14:55
Minimal thematisch sortiert:
1. Taktdegression durch den Prozess. SMT würde noch zusätzlich Takt kosten. Der Takt muß nur runtergehen, wenn auch auch 2 Threads gleichzeitig laufen (und dadurch die Auslastung steigt).
mit steigender smt auslastung sinkt auch der takt, wenn vom verbrauch eingebremst.Ja, das sollte der Fall sein, wenn man im TDP-Limit hängt. Aber dadurch wird es auch effizienter (bei höherem Durchsatz).
Wenn man auf Intel CPUs SMT deaktiviert, kommt man idR. zwischen 100 und 300 Mhz mit dem Takt nach oben.Das erreicht man prinzipiell auch dynamisch. Wenn die Auslastung gering ist, boostet die CPU höher. Ist die Auslastung höher (z.B. wegen 2 Threads), taktet sie minimal niedriger.
ST > MT im Desktop und MT hat man durch die kleinen Kerne mehr als genug.Man hat nie "mehr als genug", wenn man gegen die Konkurrenz Benchmarks zu verlieren hat. ;)
2. Stromverbrauch pro Kern. Intel will ggf. kein SMT in Kernen die maximalen Takt ermöglichen sollen zwecks ST Power. SMT erhöht den Stromverbrauch pro Core, bzw. bleibt weniger für den Takt.Bei wirklichem ST-Bottleneck scheduled man einfach keinen zweiten Thread auf den beiden Kernen, die den Peak-Takt mitmachen (kann der Thread Director das nicht?), bei MT-Last nutzt man alle Threads. => Das Beste aus beiden Welten.
3. Mit SMT und hohem Takt auf den P Kernen ist man vielleicht in der Energiebilanz schlechter, als die kleinen Aufgaben auf die E Kerne zu legen.Man ist mit SMT besser bei MT-Last als ohne SMT, was die Energieeffizienz angeht. Kleine Lasten kann man doch immer noch auf E-Cores legen.
==================
also ein direkter hinweis warum smt off ist gibts keinen echten logischen, ausser das smt vl sogar single thread performance beeinträchtigt. vl war smt off nie ganz off und hat immer stp gekostet?Das wäre ein Designfail.
Aber Du hast recht: Es gibt keinen wirklichen logischen Grund, warum das so sein sollte.
ob sich ein hinweis darin findet, warum die e cores kein smt haben und nie hatten??Die Antwort lautet schlicht Designaufwand (Kosten/Nutzen für den gedachten Anwendungsfall).
BlacKi
2024-06-19, 13:21:43
Wenn man auf Intel CPUs SMT deaktiviert, kommt man idR. zwischen 100 und 300 Mhz mit dem Takt nach oben. Wenn man SMT generell nicht braucht, weil viele E Kerne vorhanden und man eine Taktdegression hat, aufgrund des fremden/neuen Prozesses, halte ich den Punkt schon für irgendwie logisch.
Intel will sicher nicht nur mehr MT Perf. anbieten, sondern auch ST. MT kommt aus den neuen E-Cores, ST ist ein Problem da weniger Takt (aber hoffentlich deutlich mehr IPC). Es soll aber mehr ST werden als bei RPL und sicher will man sich auch mit Zen5 anlegen. Also muss man ST liefern, das geht nur wenn die P Cores massig takten können.
An dieser Stelle stört dann SMT.
Ich persönlich denke sogar, dass sich ARL im Gaming mit Zen5 incl. 3D Cache anlegen können soll/wird. Die CAMM2 Module dürften den Intel CPUs sehr gut schmecken, besser als den AMDs.
ich konnte damals auch feststellen, dass das deaktivieren von smt 100mhz an takt bringt bei gleicher voltage. das liegt allerdings an den höheren temperaturen und durch höhere last, da man die cpu mit smt besser auslasten kann.
befeuerst du mit smt on nur einen thread, dann verlierst du auch keine stabilität. nur durch die höhere auslastung verlierst du takt.
das ist dasselbe wie beim ram oc. je höher der core clock, desto instabiler wird dein ram oc. wenn du ram oc bei 4ghz core clock optimierst und dann 6ghz core clock mit demselben ram oc fährst, gibts keine garantie, das dein ram oc noch stabil ist.
dasselbe mit smt. und in gewisser weise macht das schon tvb, es unlocked freie taktreserven wenn die umstände es hergeben.
dasselbe könnte der thread direktor lösen, ohne smt komplett zu deaktivieren.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.