Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)
Seiten :
1
2
3
4
5
6
7
8
[
9]
10
11
12
13
14
15
16
17
18
[...]
und cinebench ist was?
Genau und da holste runde 1000 MT-Punkte mehr raus ohne Powerlimit. Der 5950x ist schon durch sein Powerlimit beschränkt bei solchen Extremfällen. Geekbench ist sicherlich ähnlich. ADL lebt von seinen Golden Cove-Kernen, die kleinen sind halt nur Beiwerk, die die MT-Leistung in genau solchen Fällen auf Konkurrenzfähigkeit ziehen. Für Desktop sind die ansonsten mMn einfach irrelevant. ADL ist schon besser als Zen3, das ist absehbar, was davon in der Praxis ankommt sehen wir ja bald. Bei Spielen wird man es gegen die VCache-Varianten ziemlich schwer haben. Schön an der Sache ist, dass AMD auch zum Handeln gezwungen wird und die Preise sinken müssen.
BlacKi
2021-08-29, 14:27:48
ich glaube, das intel bei den spielen mehr zulegen kann als amd. denn bei intel kommen viele dinge zusammen. neuer ram, neue architektur, massiv mehr cache, und mit memory oc abseits von stock ist amd dann deutlich im hintertreffen. amd bekommt nur mehr cache, auch wenns viel ist, aber viel cache, bei schon viel vorhandenem cache. amd benches zum 3d v cache sehen zwar gut aus, aber sie sind ist nur ein kleiner auszug aus allen spielen.
robbitop
2021-08-29, 15:04:03
Das CB Ergebnis allein sagt erstmal nicht viel. Zen 1 war in Cinebench relativ zu Intel deutlich besser als in Spielen, wo damals vor allem die Latenz gebremst hat. Nach und nach hat man das durch besseres Prefetching, latenztuning am IF und imc und deutlich mehr L3 aber gelöst.
Will sagen der Abstand in CB20 kann sich so in Spielen materialisieren muss es aber nicht.
Ich kann mir gut vorstellen, dass in Spielen der Zen 3 mit vcache taktnormiert etwas anders aussieht relativ zu ADL. Ggf ist ADL dann nur leicht in front oder aber im Extremfall leicht hinten.
In Spielen bringt/kostet latency halt sehr viel. Je höher die cachehitrate desto besser die mittlere latency.
Klar wird ADL auch in Spielen sicherlich besser sein als Zen3, der schleppt ja auch immer noch Bixby mit sich herum, aber der Cache löst ja all diese Probleme. DDR5 ist furzegal, wenn man 96MB Cache haben kann.
Der_Korken
2021-08-29, 17:41:50
ich glaube, das intel bei den spielen mehr zulegen kann als amd. denn bei intel kommen viele dinge zusammen. neuer ram, neue architektur, massiv mehr cache, und mit memory oc abseits von stock ist amd dann deutlich im hintertreffen.
Bis auf den letzten Punkt sehe ich das auch so. Die Gewinne durch den 3D-Cache schafft Alder Lake imho ebenfalls durch die Vergrößerung an L3 und L2-Cache. Bei 96MB vs 32MB muss man erstmal sehen wie stark Spiele im Mittel davon noch profitieren. Bei 30MB vs 16MB ist durch Vermeer vs Cezanne bereits klar, dass das sehr viel bringt. Und Falls die Verdreifachung von AMD besser als die Verdopplung von Intel sein sollte: Der mehr als verdoppelte L2 drückt die mittlere Latenz sicherlich auch noch.
Darüber hinaus hat Intel aber zusätzlich noch (gegenüber RKL) die 8 kleinen Kerne und die verbesserte IPC der großen Kerne. Letzteres wird natürlich nicht 19% bringen, aber schlechter wird die Performance sicherlich auch nicht. Und was die kleinen Kerne betrifft: Sie werden zwar nicht gebraucht in dem Sinne, dass 8C/16T nicht reichen, aber möglicherweise können auch einige Berechnungen in Spielen auf die kleinen Kerne ausgelagert werden, um die Effizienz zu erhöhen. Hat man nur wenige Haupt-Threads, die viel ST-Leistung brauchen und zusätzlich nen Haufen an parallelen Nebenrechnungen, könnte man z.B. nur 4 große aber alle 8 kleinen Kerne laufen lassen, wodurch für die großen Kerne mehr vom PPT-Kuchen übrig bleibt und sie höher boosten können. Keine Ahnung, ob das funktioniert, aber weniger als +0% werden die kleinen Kerne nicht bringen.
DDR5 dagegen ist imho ein Nichtfaktor. Ist der zum Alder Lake Launch überhaupt für einen vernünftigen Preis lieferbar? Ansonsten wird der höhere Takt von DDR5 für Spiele imho maßlos überschätzt. Wenn die Timings Müll sind, kann man sich von der höheren Bandbreite auch nichts kaufen.
OgrEGT
2021-08-29, 17:52:29
ich hab doch zitiert. vollast bedeutet für mich ohne limits. was ist denn das für eine unart, das 3dc im nicht voll funktionierendem mobilen modus zu nutzen? und mir dann die schuld zu geben, das ich nicht für die mobilen rücksicht nehme XD
Du hast nur den yt link gepostet...
wieso sagst du sowas?
5950x mit 239w peak
https://youtu.be/LU-LLCg7Fk8?t=60
vs
12900k pl2 228w
https://videocardz.com/newz/intel-core-i9-12900ks-qs-allegedly-outperforms-ryzen-9-5950x-in-cinebench-r20-test
intel schlägt den gerüchten nach den großen amd in performance und verbrauch.
ich hoffe ja, das intel die cpu nur nicht zu teuer macht.
ich hätte mir das Ding anschauen müssen... ist ja aber eh nur Murks im Kontext da der Ryzen OCed war... das hat mit 3dc mobile nix zu tun... du hast einen link mit 239W in den Raum geworfen und damit die 228W von ADL relativiert... wie gesagt Murks und verschwendete Zeit...
Edit
"Peak" bedeutet hier Maximalwert... wie und unter welchen Bedingungen dieser zustande kam ist daraus nicht ersichtlich...
"Vollast" selbst sagt ebensowenig etwas darüber aus wie und unter welchen Bedingungen diese gemessen wurde... 147W das ist die Vollast Leistungsaufnahme unter Stock Bedingungen... die 239W ist die Vollast unter OC...
OgrEGT
2021-08-29, 18:16:24
Wie aussagekräftig sind eigentlich Geekbench Werte?
Bzw. wenn schon Leaks warum dann nicht Cinebench?
MiamiNice
2021-08-29, 18:52:39
Cinebench taugt null um Spieleperformance zu vermessen. Der Arbeit ist recht "linear", Cinebench profitiert daher nicht von einem schneller Speichersubsystem. Nicht umsonst hat AMD mit Benches wie diesem die Massen geblendet beim Ryzen Release.
BTW: Die 11er Intel CPUs sind derzeit schneller als AMD in Games - wenn man es richtig anstellt. Auf non OC Tests mit standard Speicher sollte man als Spieler nichts geben.
robbitop
2021-08-29, 18:59:47
Also ein voll übertakteter 5950X mit bestmöglichem Speicher und Subtimingtuning wird von einem 11900K mit gleichem im Mittelwert aller Spiele geschlagen? Hast du dafür Belege?
Freestaler
2021-08-29, 19:01:17
Weiss einer ob der neue Sheduler in Win11 offen ist? Neben Big/little wäre ja neu auch möglich Cores mit vollgas und solche mit halbgas laufen zu lassen (auch wenn keine big/little) sind. So das die "Kritischen" prozess vollgas laufen und der Rest langsamer? Oder ist der Sheduler noch nicht so weit? Wenn nicht wie wird dann der load zwisch bigundlittle sinnvoll verteilt?
Ot:
Lol @MiamiNice bleibst Dir und Intel treu.
BlacKi
2021-08-29, 19:02:43
DDR5 dagegen ist imho ein Nichtfaktor. Ist der zum Alder Lake Launch überhaupt für einen vernünftigen Preis lieferbar? Ansonsten wird der höhere Takt von DDR5 für Spiele imho maßlos überschätzt. Wenn die Timings Müll sind, kann man sich von der höheren Bandbreite auch nichts kaufen.
du wirst direkt zum release memory oc betreiben können. durch den höheren takt ergeben sich bessere gesammttimings. ich rechne mit oc bei 10000mt und mehr, das haben die hersteller schon angekündigt. wenn man die timings bei diesem hohen takt nicht massiv kürzen muss, dann kommt auch ordentlich leistung rum.
da es kaum cpus geben wird, werden auch kaum ddr5 riegel gebraucht. ich glaube das die verfügbarkeit gegeben sein wird.
"Vollast" selbst sagt ebensowenig etwas darüber aus wie und unter welchen Bedingungen diese gemessen wurde... 147W das ist die Vollast Leistungsaufnahme unter Stock Bedingungen... die 239W ist die Vollast unter OC...
deine interpreatation. vollast bedeutet bei mir, das die cpu zeigt was sie kann ohne tdp limits. ist es denn oc, wenn man die cpu frei takten lässt? weder voltage noch clockspeed wird angefasst.
ich glaub auch nicht da die alderlake cpu wirklich genau 228 watt im cinebench gefressen hat, vermutlich 228w oder eben weniger. cinebench ist weit weniger anspruchsvoll als der aida stresstest und der zeigte ja 255w.
BlacKi
2021-08-29, 19:05:22
sry für doppelpost
Badesalz
2021-08-29, 19:32:36
Wie aussagekräftig sind eigentlich Geekbench Werte?Geekbench ist verbrannte Erde. Wer das postet führt vieles im Schilde, aber keine objektiven bzw. RL Vergleiche zwischen AMD und Intel vor.
smalM
2021-08-29, 20:31:44
@OrgEGT
Die GB5 Integer- und FP-Werte korrelieren recht gut mit SPEC2006.
Hat man ähnliche Anforderungen an eine CPU, dann ist man damit gut bedient. Über die Leistungsfähigkeit einer CPU bei Spielen will und kann GB5 keine Auskunft geben.
Die Gesamt-Scores berücksichtigen leider Cryptoscores und das verfälscht sie teilweise sehr.
Das Schimpfen auf GB5 ist bei manchen Leute sehr beliebt, um sich als zu den Wissenden gehörig auszuweisen.…. ;)
Lehdro
2021-08-29, 21:06:22
Wer Geekbench in 2021 immer noch benutzt um unterschiedliche Architekturen zu vergleichen, hat die Kontrolle über sein Leben verloren, frei nach Karl Lagerfeld.
Genauso wie Spec2006 nichts über Gamingperformance aussagt, oder CB20.
Ich habe da mal einen Vorschlag: Man benutzt Games um die Gamingperformance einzuschätzen, klingt absurd, könnte sich aber in Zukunft durchaus durchsetzen.
Platos
2021-08-29, 22:11:24
Geht aber nicht bei solchen Vorableaks.
Linmoum
2021-08-29, 22:21:07
Dann sollte man halt spätestens aus der jüngeren RKL-Vergangenheit gelernt haben. Ich hab sowieso keine Ahnung, warum so viele noch auf Leakbench anspringen und daraus irgendwas ableiten (wollen). Das Ding taugt nicht mal als "interner" Vergleich mit sich selbst.
Lehdro
2021-08-29, 22:21:12
Geht aber nicht bei solchen Vorableaks.
Dann bleibt es halt basislose Spekulation ins Blaue hinein, wenn man das trotzdem anhand von CB, GB und Co. machen will.
Anwendungsperformance hingegen lässt sich recht gut aus den genannten erahnen, bleiben wir also lieber dabei. Wobei da ein paar Leaks zu genauen Powerwerten hilfreich wären, gerade bei den kleineren Varianten.
OgrEGT
2021-08-29, 23:27:55
Danke für eure Einschätzungwn... Somit sind die GB Leaks allenfalls als Anhaltspunkt für die Anwendungsperformance zu sehen und legen nahe dass der 8+8 ADL auf Augenhöhe mit Zen3@Stock liegt.
Fraglich bleibt dass der GB ein Cherry Pick sein könnte und nicht klar ist mit welcher Leistungsaufnahme und welchen Tsktraten der ADL Score zustande kam...Es bleibt spannend...
iamthebear
2021-08-30, 02:07:26
DDR5 dagegen ist imho ein Nichtfaktor. Ist der zum Alder Lake Launch überhaupt für einen vernünftigen Preis lieferbar? Ansonsten wird der höhere Takt von DDR5 für Spiele imho maßlos überschätzt. Wenn die Timings Müll sind, kann man sich von der höheren Bandbreite auch nichts kaufen.
Grundsätzlich hast du Recht, dass die Memory Performance bei DDR4 mittlerweile in erster Linie von den absoluten Timings abhängt, da in der Regel nicht sequentiell auf den RAM zugegriffen wird.
DDR5 bringt jedoch unabhängig von der Bandbreite einen weiteren Vorteil: Es hat 2 unabhängige Speicherkanäle pro Riegel d.h. es können mit einem Dual Channel Interface 4 statt 2 Zugriffe parallel stattfinden, was bei höherer Threadanzahl ein immenser Vorteil sein sollte.
Laut MLID soll der Unterschied DDR4 vs. DDR5 bei 5-15% liegen wobei 8ch davon ausgehe, dass Spiele eher am oberen Ende zu finden sein werden.
Was den größeren L2 Cache angeht, so bin ich hier etwas skeptisch. Es könnte sein, dass dieser zwar größer ist, jedoch gleichzeitig die Latenz etwas gestiegen ist.
Badesalz
2021-08-30, 06:34:55
Danke für eure Einschätzungwn... Somit sind die GB Leaks allenfalls als Anhaltspunkt für die Anwendungsperformance zu sehenNein. Das ist pure PR und taugt für überhaupt nichts.
DDR5 bringt jedoch unabhängig von der Bandbreite einen weiteren Vorteil: Es hat 2 unabhängige Speicherkanäle pro Riegel d.h. es können mit einem Dual Channel Interface 4 statt 2 Zugriffe parallel stattfinden, was bei höherer Threadanzahl ein immenser Vorteil sein sollte.Immenser? Hat das denn früher noch nie wer im Netz versucht, Xeon/Supermicro-Gaming mit 6 oder 8 DIMMs drin? ;)
CrazyIvan
2021-08-30, 07:14:15
@Gipsel
Na das ist doch mal ein Wort. Deine These zum Fehlen von SMT ist für mich ebenso schlüssig.
Diese "Leistungseffizienz" bzw. PES-Score wichtet die Performance quadratisch. Das Ding ist in meinen Augen ziemlich willkürlich und solche Prozentzahlen sind nicht sehr aussagekräftig.
Da hast Du vollkommen recht. Liegt nun einmal daran, dass die Zeit sowohl in Performance als auch Gesamtverbrauch eingeht. Wenn Du einen konstruktiven Vorschlag hast, wie man es sinnvoller machen könnte dann immer her damit.
Mir ging es nur darum, Performance und Energieeffizienz gleich zu wichten und eine Kennzahl zu haben, die sich bei Verdopplung einer der beiden Einflussgrößen ebenfalls verdoppelt.
MiamiNice
2021-08-30, 08:23:48
Also ein voll übertakteter 5950X mit bestmöglichem Speicher und Subtimingtuning wird von einem 11900K mit gleichem im Mittelwert aller Spiele geschlagen? Hast du dafür Belege?
Ja, auf meinem 2.ten PC und dem Spiel Sword of Legends. Das ist eine Uralt 1 Core Engine und mein OC 11600er mit OC Speicher macht dort im Massen PVP mehr FPS als Ryzen 5 (zumindest die gesammelten Ryzens meiner Mates haben 0 Chance). Ich denke das wird in jedem massiv CPU limitiertem Game nicht anders sein (Anno, Escape from Tarkov, Star Citizen, usw.). Ich vergleiche CPUs generell gerne in Anno - da ist die GPU i.d.R. völlig raus und die CPU wird absolut abgefragt.
Auf die schnelle (Anno 1800):
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/
Wenn es wirklich um 1 Core Power geht und Spiele das auch massiv abfragen Intel > AMD. Selbe gilt für die meisten VR Games.
Der Mittel über alle Spiele interessiert mich persönlich nicht. Mich interessiert was ich spiele und das sind keine AAA Grafikblender.
In der Tabelle da unten sprechen wir auch noch nicht über OC - das ist langweiliger PCGH non Nerd standard.
https://abload.de/img/asdvjko7.png
robbitop
2021-08-30, 08:58:15
Also stützt du deine Aussage auf 2x Titel, die diese untermauern und nicht auf einen breiten Index. Ich finde, dann darf man keine so generelle Aussage treffen. Dazu kommt, dass der 5950X (welcher das Flaggschifgf ist und nicht der 5800X) in den Benchmarks fehlt.
Für uns als Enduser ist es völlig intransparent ob das nicht Sonderfälle sind weil da potenziell Dinge limitieren, die in vielen anderen Titeln nicht limitieren. Entsprechend sollte immer ein breiter Index genutzt werden, sofern man generelle Aussagen tätigen will. :)
y33H@
2021-08-30, 09:08:02
Siehe Valorant ^^
The_Invisible
2021-08-30, 09:56:57
Anno1800 mit 60fps durchgehend im LateGame wäre wirklich mal nett, da bräuchte man aber schon doppelte CPU Leistung, wirds so schnell nicht geben denk ich mal. Cities Skylines ist auch nicht zu verachten. Grafikkarte dreht Däumchen.
Ich bin da ja noch immer eher pessimistisch wegen dem Thread-Scheduling, hört sich ja alles gut an aber das alles 100% OOTB funktioniert? Naja, lasse mich gerne überraschen
OgrEGT
2021-08-30, 10:20:43
Ich bin da ja noch immer eher pessimistisch wegen dem Thread-Scheduling, hört sich ja alles gut an aber das alles 100% OOTB funktioniert? Naja, lasse mich gerne überraschen
Das frage ich mich auch... wenn der TD on Hardware läuft dann wird er mit einem von Intel eingestellten Kompromiss anhand von festgelegten Kennzahlen ermitteln wie ein Thread verteilt wird. Das wird einigen Anwendungen besser oder schlechter liegen mMn besonders in Grenzfällen...
Badesalz
2021-08-30, 11:03:43
Also stützt du deine Aussage auf 2x Titel, die diese untermauern und nicht auf einen breiten Index. Ich finde, dann darf man keine so generelle Aussage treffen.
[…]
Für uns als Enduser ist es völlig intransparent ob das nicht Sonderfälle sind weil da potenziell Dinge limitieren, die in vielen anderen Titeln nicht limitieren.Auch wenn schweren Herzens, da es MiamNice ist :wink: kann ich die Schlussfolgerung nicht unterschreiben. Das ist kein Vergleich von Engines. Wenn da also etwas limitiert, dann limitiert es wohl nicht auf allen Architekturen gleich...
Einen ganzen Index braucht es auch nicht, wenn man sich anschauen will wie es auf welcher Architektur läuft, wenn "Dinge" limitieren.
Es ging grad nicht um die Note für allgemeine Eignung als GamerCPUs.
robbitop
2021-08-30, 11:38:58
Auch wenn schweren Herzens, da es MiamNice ist :wink: kann ich die Schlussfolgerung nicht unterschreiben. Das ist kein Vergleich von Engines. Wenn da also etwas limitiert, dann limitiert es wohl nicht auf allen Architekturen gleich...
Einen ganzen Index braucht es auch nicht, wenn man sich anschauen will wie es auf welcher Architektur läuft, wenn "Dinge" limitieren.
Es ging grad nicht um die Note für allgemeine Eignung als GamerCPUs.
Nun es war eine generelle Aussage, dass die 11 Serie in Spielen schneller ist als Zen 3:
BTW: Die 11er Intel CPUs sind derzeit schneller als AMD in Games - wenn man es richtig anstellt. Auf non OC Tests mit standard Speicher sollte man als Spieler nichts geben.
Und wenn man sich mal vor dem eigentlichen Index die Einzelergebnisse von sagen wir mal 20-30 Spielen anschaut, gibt es da schon doch einige Ausreißer nach oben und nach unten. Unabhängig davon ob es CPU oder GPU Tests sind. Und die vollständigen Gründe sind den Enduser nicht transparent. Entsprechend sind das zwei potenzielle Boardercases die nicht grundsätzlich repräsentativ für das ganze Genre sein müssen.
Badesalz
2021-08-30, 11:51:53
Ah ok. Mea culpa :usad: War wohl doch ein typischer MiamiNice.
MiamiNice
2021-08-30, 11:53:42
Dann formulieren wir es mal anders:
Da wo es auf CPU Leistung in Games ankommt - ist Intel schneller.
Bei allen anderen Games ist mal der eine, mal der andere vorne.
Der 5950x ist btw. in dem Bench enthalten - nur tiefer weil er mehr Kerne mit Saft versorgen muss und daher wohl per Core nicht so hoch kommt. Klingt logisch - wird wohl so sein.
Piefkee
2021-08-30, 11:56:09
BTW: Die 11er Intel CPUs sind derzeit schneller als AMD in Games - wenn man es richtig anstellt. Auf non OC Tests mit standard Speicher sollte man als Spieler nichts geben.
Aha logisch man macht alle Game Tests für eine 0,0001% Zielgruppe. Geile Traumwelt in der du lebst...
MiamiNice
2021-08-30, 11:59:50
Aha logisch man macht alle Game Tests für eine 0,0001% Zielgruppe. Geile Traumwelt in der du lebst...
Macht natürlich mehr Sinn CPUs anhand GPU limitierter Games zu beurteilen. :up:
Piefkee
2021-08-30, 12:03:14
Dann formulieren wir es mal anders:
Da wo es auf CPU Leistung in Games ankommt - ist Intel schneller.
Valorant ?
CS:GO?
BF ?
Doom?
Eigentlich wird die CPU-Leistung immer irrelevanter bei Spielen. Eigentlich wäre vor allem wichtig eine Betrachtung bei Strategiespielen im Lategame, da diese weiterhin krass CPU-Limitiert sind. Leider sind die meisten davon so beschissen optimiert, dass das mehr Lotto ist als dass man da die richtige CPU findet. Kommt da ein Performance-Patch, ist plötzlich ne andere CPU vorne, selbst innerhalb der Games ist man vor Veränderungen nicht unbedingt gefeit.
Für Spiele hat Intel eigentlich recht, 8 Kerne werden wohl reichen, für eine sehr lange Zeit. Massiv-MT mit little-Cores zu erschlagen wird schon funktionieren, aber es wird auch Fälle geben, bei denen viele große Kerne dennoch besser sind.
Wie stark die Entwicklung der Engines bei der CPU-Leistung ist, sieht man an der AC-Serie ganz gut. Origins und Odyssey waren stellenweise noch recht stark CPU-Limitiert, mit dem Wechel auf DX12 bei Valhalla dann nicht mehr.
dildo4u
2021-08-30, 12:07:54
Macht natürlich mehr Sinn CPUs anhand GPU limitierter Games zu beurteilen. :up:
Ich schätze mal das zählt nich und warum?
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/2/#diagramm-total-war-troy-1280-720-bildpunkte
MiamiNice
2021-08-30, 12:11:30
Valorant ?
CS:GO?
BF ?
Doom?
Ach so, Du meinst Games die eh mit 100erten von FPS laufen …
Das ist natürlich sehr relevant und unglaublich wichtig für das Gaming Gefühl. Wer kennt es nicht bei 240 Fps auf den Counter zu schauen und zu fluchen weil es keine 260 Fps wie mit einem AMD Prozzi sind.
Ich schätze mal das zählt nich und warum?
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/2/#diagramm-total-war-troy-1280-720-bildpunkte
Kann ich nichts zu sagen. Habe ich leider nie gespielt.
Valorant reagiert ja auf die 32MB L3, das ist ja total irre.
BlacKi
2021-08-30, 12:24:31
Also ein voll übertakteter 5950X gibts das denn? es kann sein das man mit spannungsreduzierung noch ein paar mhz rausholt, aber mehr als 50mhz werden das nicht sein. rocketlake wohl ebenso wenig. wird auch bei alderlake so sein, das man keinen festen allcoreboost auf 5,3 oder darüber mehr einstellen kann. wenn doch, wäre ich überrascht.
basix
2021-08-30, 12:26:47
Valorant reagiert ja auf die 32MB L3, das ist ja total irre.
Deswegen wird es spannend, was bei 96MB L3$ passiert. Gibt sicher das eine oder andere Spiel, welche ähnlich reagieren werden. Wird spannend, ob wir dann noch Game Tests mit EPYCs und 4/8-hi X3D-Cache zu sehen bekommen. Wäre extrem spannend, da man bei den Serverboards die Anzahl aktiver Stacks variieren kann ;)
w0mbat
2021-08-30, 12:31:03
AMD könnte in 99 von 100 Spielen klar schneller sein, dann gäbe es für Miami eben nur noch ein „echtes“ Spiel für CPU benchmarks.
Ignoriert ihn doch bitte einfach. Er kommt nicht damit klar, dass AMD mit Zen3 die deutlich schnelleren Spiele CPUs hat.
Don’t feed the troll.
MiamiNice
2021-08-30, 12:52:24
AMD könnte in 99 von 100 Spielen klar schneller sein, dann gäbe es für Miami eben nur noch ein „echtes“ Spiel für CPU benchmarks.
Ignoriert ihn doch bitte einfach. Er kommt nicht damit klar, dass AMD mit Zen3 die deutlich schnelleren Spiele CPUs hat.
Don’t feed the troll.
Vielleicht hast Du ein paar Benches verpasst?
Aktuelle Situation ist:
AMD und Intel nehmen sich in Sachen Gaming nicht viel. Mal ist der eine 5% schneller, mal der andere. Im Anwendungsbereich kann AMD durch mehr Kerne glänzen.
Intel braucht mehr Strom ist aber leicht günstiger in der Anschaffung.
Intel ist in massiv CPU limitierten Games auch mal 10% schneller.
Alles ootb. Einfach mal paar Benches schauen, gibt es ja wie Sand am Meer.
Daredevil
2021-08-30, 12:53:14
Miami hat doch recht.
CPU Leistung ist da entscheidend, wo sie zu gering ist bzw. wo die CPU der Flaschenhals ist.
Ob eine CPU nun 400 oder 800fps macht ist in der Theorie natürlich interessant, am Ende ist aber in der Praxis wichtig ob eine CPU 40 oder 50fps macht.
Wenn beide Hersteller genug FPS liefern, was in über 90% der Fälle der Fall ist, ist die Wahl am Ende egal.
Und spätestens bei einer Grafikkarte über 1000€ im System und einer CPU die nicht genug Leistung liefern, sollte die Wahl zwischen einer 300€ und 400€ CPU nicht relevant sein.
robbitop
2021-08-30, 12:56:21
Dann formulieren wir es mal anders:
Da wo es auf CPU Leistung in Games ankommt - ist Intel schneller.
Bei allen anderen Games ist mal der eine, mal der andere vorne.
Der 5950x ist btw. in dem Bench enthalten - nur tiefer weil er mehr Kerne mit Saft versorgen muss und daher wohl per Core nicht so hoch kommt. Klingt logisch - wird wohl so sein.
Im CPU limitierten Bereich kommt es immer auf CPU Leistung an. ;) Das sind einfach nur zwei von dir selektierte Boardercases. Die sind aber nicht zwingend repräsentativ. Das muss auch nicht sein - wenn einem diese zwei Spiele wichtig sind, dann ist da offenbar Rocketlake schneller als Zen 3. Das ist aber nicht allgemeingültig.
Der 5950x taktet in der Regel höher, weil die Cores besser selektiert sind.
dildo4u
2021-08-30, 12:59:09
Nich alle haben das selbe Ziel was Gameing angeht, es werden nicht umsonst 360Hz Display verkauft.
Games wie Fortnite und das neue Battlefield laufen nicht super schnell skalieren aber auch nich so grottig wie Strategie Games.
Es gibt nicht nur zwei klassen Games wie es hier dargestellt wird.
Platos
2021-08-30, 13:06:31
Nich alle haben das selbe Ziel was Gameing angeht, es werden nicht umsonst 360Hz Display verkauft.
Games wie Fortnite und das neue Battlefield laufen nicht super schnell skalieren aber auch nich so grottig wie Strategie Games.
Es gibt nicht nur zwei klassen Games wie es hier dargestellt wird.
Naja, jetzt mal unabhängig davon, was Miami sagt...
Es werden auch 1000Euro teure Handys verkauft, die die wenigsten wirklich brauchen. Oder Shirts auf denen Durchfall steht oder "ich bin hässlich". 99.9% der Käufer von solchen Monitoren können damit vermutlich genau gar nichts anfangen. Vermutlich spielen sie auch noch nur durchschnittlich. Mehr wie 120/144Hz bringt den wenigsten Spielern wirklich was. Das sind dann wirklich Profis, die dadurch besser werden.
Also kurz gesagt: Eine Nachfrage von einem Produkt sagt noch laaaange nichts über deren Sinnhaftigkeit aus.
maximus_hertus
2021-08-30, 13:10:36
Kann ich nichts zu sagen. Habe ich leider nie gespielt.
Aha, also was jetzt?
=> Da wo es auf CPU Leistung in Games ankommt - ist Intel schneller.
Was ist jetzt richtig? Ist Intel IMMER schneller, wenn es auf CPU Leistung ankommt? Oder kannst du dazu nichts sagen?
MiamiNice
2021-08-30, 13:22:46
Ich kann in dem Fall dazu nichts sagen weil ich das Game nicht kenne und daher den Flaschenhals natürlich nicht einschätzen kann.
dildo4u
2021-08-30, 13:42:59
Die Serie nutzt sogar Intel als Technologie Partner nur hat AMD Intel zu besseren High-End CPUs geschlagen.
https://software.intel.com/content/www/us/en/develop/articles/inside-the-intel-creative-assembly-collaboration.html
aufkrawall
2021-08-30, 13:46:35
Das Spiel nutzt das Mehr an Kernen. Gibt aber auch alten Gammel mit wenig Threads, der auf Zen 3 sehr gut vs. RKL läuft; etwa Borderlands 2 (+DXVK).
Miami meint halt mal wieder, dass seine Cherry Picks der Nabel der Welt wären. Einfach labern lassen...
wenn man sich den Link genauer ansieht-->
https://www.pcgameshardware.de/Core-i9-11900K-CPU-277110/Tests/11700K-11600K-Test-Rocket-Lake-1369258/3/
Ist unten noch der Index über 20 Spiele gemittelt. In dem der 11900K tatsächlich besser abschneidet als der 5950X und zwar genau 0,1%
Ich meine mich aber zu erinnern dass PCGH die einzige größere Seite war die den 11900K vorn sieht.
aufkrawall
2021-08-30, 17:58:46
Der 5950X wird mindestens mit SMT on mitunter durch den dummen Windows-Kernel oder dumme Spiele ausgebremst.
Freestaler
2021-08-30, 18:42:36
Was mich zurück zum Thema bringt, weiss einer mehr zum Sheduler von ADL? Linux oder Windows. Ist da bekannt wie das nun besser gelöst werden kann als bis dato? Welcher Heilige Gral qurde da entdeckt?
Badesalz
2021-08-30, 20:58:37
Für Spiele hat Intel eigentlich recht, 8 Kerne werden wohl reichen, für eine sehr lange Zeit.Weil das eben und nicht erst seit gestern 16 Threads bedeutet. Eigentlich die sind damit auch gemeint und 16 Stück reicht wirklich.
Es fehlen jetzt schon meist Ideen für 12. Früher war das noch deutlicher, wenn man das mal normiert hat -> 8 Threads lief schon recht gut, 12 Threads glättete die Frametimes und half bisschen bei den 1%low.
Massiv-MT mit little-Cores zu erschlagen wird schon funktionieren, aber es wird auch Fälle geben, bei denen viele große Kerne dennoch besser sind.Ggf. kann man später auch das OS auf die kleinen umziehen und die großen sind dann alleine für die Anwendung =)
@all
Was schätzt ihr wie groß ist der Anteil an Spielen die wie AC damals an der CPU hängt, weil es drawcall Massaker veranstaltet oder sonstigen Schwachsinn treibt? :freak:
aufkrawall
2021-08-30, 21:11:05
@all
Was schätzt ihr wie groß ist der Anteil an Spielen die wie AC damals an der CPU hängt, weil es drawcall Massaker veranstaltet oder sonstigen Schwachsinn treibt? :freak:
Wie Days Gone oder Mafia DE zeigen, ist der D3D11-Gammel leider nicht so ganz tot zu kriegen. Wobei der in besagten Fällen eher von Nvidia D3D11 profitiert als von Dickschiff-CPUs.
robbitop
2021-08-30, 21:12:47
Vielleicht haben wir durch viele Little Cores irgendwann mal genug CPU Leistung um bei der Physik der Spiele mal richtig aufzudrehen. 16 Little Cores bei Raptorlake. In die Richtung in die damals Ageia mit dem PhysX Beschleuniger wollte. Aber eben mit General Purpose Bruteforce 15 Jahre später. :D
Zerstörbare Umgebung. Viel mehr Partikel, die nicht nur Effektphysik sind. Vereinfachte CFD für Wasser.
Da sollte alles gut parallelisierbar sein.
Badesalz
2021-08-30, 21:24:33
@robbitop
Was braucht man dafür überhaupt? Muss das FP sein?
@aufkrawall
Meinst du Müll (nicht unbedingt das mit den draw calls, waren aj auch nicht nur die gemeint) passiert nicht mehr mit DX12/Vulcan? ;)
aufkrawall
2021-08-30, 21:38:38
@aufkrawall
Meinst du Müll (nicht unbedingt das mit den draw calls, waren aj auch nicht nur die gemeint) passiert nicht mehr mit DX12/Vulcan? ;)
Bislang fällt mir da eigentlich nur etwa wie Anno ein, das durch absolut mieses MT auffällt. Mit der für Spiele gammeligen Zen 1/+ Arch + Multi-CCX sollte man natürlich trotzdem nicht mehr viel erwarten, da ist trotz guten MTs ja schon in WD Legion komplett die Luft raus.
robbitop
2021-08-30, 21:47:21
@robbitop
Was braucht man dafür überhaupt? Muss das FP sein?
Das meiste müsste mit Differentialgleichungen funktionieren. Also Vektorrechnung. FP wäre aufgrund der Genauigkeit ganz gut wenn es keine Artefakte in der Lage und Bewegung von Objekten geben soll.
iamthebear
2021-08-30, 23:22:18
1.) Ich kann mir schon vorstellen, dass Spiele die wirklich nur einen Kern nutzen auf Intel besser laufen, da hier der größere Cache von Zen 3 weniger bringt und umgekehrt das Power Limit bei Intel weniger zum Problem wird.
Die Frage ist nur: Wie groß ist wirklich der Anteil der Spieler, die solche Spiele spielen. Wenn nicht Multicore optimiert wird, so ist das meistens kein AAA Titel und bei alten Spielen ist die CPU sowieso schnell genug.
2.) Das Argument "die Spiele sind sowieso nicht GPU limitiert" zählt nicht. Das mag vielleicht jetzt so sein aber eine schnellere CPU kann länger genutzt werden als eine die jetzt gerade noch ausreicht. Ich erinnere mich hier an meinen treuen 2600K, der fast 8 Jahre durchgehalten hat und wenn ich noch mal 8GB RAM dazu gesteckt hätte wäre er wohl noch 2 Jahre gut gelaufen. Hätte ich mir damals einen Dual Core ohne SMT geholt so wäre der schon 5 Jahre früher raus geflogen.
3.) Wenn man Valorant aus der Wertung nimmt (ob 700fps oder 1000fps ist nun wirklich schon egal), so ist beim cb Rating der 11900K mit vollem Boost auch 1% vor dem 5950X. Mit Standard TDP ist er 3% hinten. Ich denke das reicht um beide CPUs als gleich schnell einzustufen.
Gegenüber dem 5800X ist der 11900K mit Standard TDP dann schon 4% schneller. Somit lässt sich das Argument "Zen 3 ist schneller in Games" meiner Meinung nach nicht halten.
aufkrawall
2021-08-30, 23:29:21
Hat nichts mit vielen und wenig Threads zu tun. Cyberpunk, Legion und RDR2 erzeugen ordentlich Last auf zig Threads und favorisieren trotzdem eher RKL.
iamthebear
2021-08-31, 01:38:05
Also in RDR2 ist laut CB Rating der 5900X um 8% schneller.
Bei Cyberpunk sind es laut Hardwareluxx ca. selbe avg Frameraten aber AMD hat bessere Min Frameraten.
Zu Watch Dogs Legion habe ich auf die Schnelle nur was von igor gefunden und da ist der 5950 auch ca. 7-8% schneller.
aufkrawall
2021-08-31, 02:05:05
Natürlich sind die mit 12C und 16C schneller als RKL mit maximal 8C, wenn die Spiele, wie erwähnt, gut mit MT skalieren. :freak:
Das war natürlich kernnormiert (und RAM-normiert) gemeint.
Cubitus
2021-08-31, 08:50:39
Bei The Ascent ist schnelles Ram gut und bei RDR2 auch..
DDR5 ist da sicherlich zusätzlich vorteilhaft.
Man darf auch nicht vergessen das Intel "Tests" meistens mit langsameren Ram durchgeführt werden.
dildo4u
2021-08-31, 09:20:52
Dann wurde nicht richtig getestet Zen 3 und 11 Gen Intel High-End Modelle unterstützen ohne OC den selben Ram Spec.(DDR4 3200)
PCGH hält sich z.b an Spec.
https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/
robbitop
2021-08-31, 11:33:23
Ein großer L3 bringt eine hohe Hitrate was wiederum die mittlere Latenz verbessert. Das hilft uneingeschränkt natürlich auch Anwendungen/Spielen mit weniger Threads. Das hilft immer.
Badesalz
2021-08-31, 12:34:12
Ja... Hitrate vs. Latenz, bei misses aber steigert mehr L3 die Latenz. Anand hat das auch mal untersucht.
Am schönsten ist bzw. wäre es 3.25MB pro SMT2 Kern und 128MB L4. Thema erledigt, nächste Baustelle =) Der L4 sollte halt nur DDR5 gewachsen sein...
edit:
Auch schön
https://www.nextplatform.com/2020/01/16/cache-is-king/
Hmm
https://www.researchgate.net/publication/258235839_A_short_study_of_the_addition_of_an_L4_cache_memory_with_interleaved_c ache_hierarchy_to_multicore_architectures
5775C
https://forums.aida64.com/topic/2864-i7-5775c-l4-cache-performance/
robbitop
2021-08-31, 13:00:19
Naja unterm Strich wird die Steigerung der Hitrate schon die mittlere Latenz verbessern (ggü keinem L3), sonst würde das keiner verbauen. Selbst bei 4 MiB (siehe 2400G/3400G).
Je größer der L3 desto größer die Hitrate - also wird der Effekt immer positiver. :)
Hikaru
2021-09-01, 11:47:14
Naja unterm Strich wird die Steigerung der Hitrate schon die mittlere Latenz verbessern (ggü keinem L3), sonst würde das keiner verbauen. Selbst bei 4 MiB (siehe 2400G/3400G).
Je größer der L3 desto größer die Hitrate - also wird der Effekt immer positiver. :)
Über L4 habe ich auch schon nachgedacht (wie Badesalz) nur grösser (1GB+) und von der Geschwindigkeit/Latenz auf jeden Fall zwischen L3 und RAM. Welche Speicherart würde wenn überhaupt dafür in Frage kommen und wie angebunden? Als Chiplet (ist ja kein SRAM?) oder gar extern via speziellem DIMM Slot weil Bandbreite ausreichend wäre, entsprechender CPU Speichercontroller vorausgesetzt? Ich glaube da ist noch gut Luft für eine vierte Stufe und L3 freut sich auch bestimmt.
robbitop
2021-09-01, 11:54:03
DRAM, der räumlich sehr sehr nah an den Cores ist. Also beispielsweise gestackter DRAM/eDRAM. Und dazu eine schnelle Anbindung. Auf keinen Fall mit der Infinity Fabric, wie sie gerade ist. Dann liegt man vermutlich bei 60-80 ns Latenz. Dann lohnt das nicht mehr. Damit es lohnt sollte es deutlich unter 40 ns liegen. Wenn AMD so etwas vorhat, müssen sie an der Topologie größere Änderungen vornehmen.
Wobei die 256 MiB pro CCD bei Epyc mit VCache als gestackter SRAM doch schonmal nicht von schlechten Eltern sind.
Der_Korken
2021-09-01, 11:59:06
In Badesalz' Link wurde bereits geschrieben, dass man im Server-Bereich auf HBM oder eDRAM setzen könnte, weil hier nicht unbedingt so die Latenz das Problem ist, sondern der Durchsatz. Mit einem DRAM-basierten L4 wird die latenz kaum besser ausfallen als die des RAM, aber man könnte sehr viel höhere Bandbreiten realisieren und braucht dafür weniger von den großen, stromfressenden DDR5-Channels.
Eine vierte Cache-Stufe auf SRAM-Basis ist schwierig. Das würde sich vielleicht eher dann lohnen, wenn man die kleineren Cache-Stufen alle schrumpft (also verkleinert für eine bessere Latenz), den L3 nur noch zwischen max. 4 Kernen shared und als L4 dann einen gestackten "System Level Cache" verwendet. AMDs gestackte L3-Caches deuten imho aber an, dass wir einen L4 so schnell nicht sehen werden.
MiamiNice
2021-09-01, 12:12:22
Bislang fällt mir da eigentlich nur etwa wie Anno ein, das durch absolut mieses MT auffällt.
Du meinst also Anno wäre ein guter Benchmark für alte, schlecht optimierte und non AAA Games? Also so wie ein Großteil der Spiele da draußen abseits vom Mainstream? Und für z.b. VR Games - weil dort auch die Manpower und/oder Geld fürs optimieren fehlt?
:wink:
Hikaru
2021-09-01, 12:18:05
Ui, OK verstehe soweit glaube ich, danke. Würde GDDR taugen bzw. sich überhaupt einbinden lassen (irgendwo extern) als L5?
Da ist noch viel Streamliningpotential zwischen SSD und L1, milchbubenhaft gesagt. Was Epyc anbelangt. Klar, viel $ viel gut:D Wäre interessant: Ein Kern pro CCD aber dafür vollen $ und Boost ohne Ende weil ja alles schläft. Zocktauglich machen.
robbitop
2021-09-01, 12:18:23
Crysis 1 (non remastered). ^^ Aber ob Einzeltitel immer repräsentativ für ähnliche Titel sein müssen, ist fraglich. Bottlenecks können im Detail völlig anders aussehen.
Ui, OK verstehe soweit glaube ich, danke. Würde GDDR taugen bzw. sich überhaupt einbinden lassen (irgendwo) als L5?
GDDR ist besonders interessant für Bandbreite - aber nicht für Latenz.
Hikaru
2021-09-01, 12:45:02
Ojeh, also wir brauchen geringe Latenz, ausreichend Bandbreite, viel Speicher, so nah drann wie möglich. Da muss es doch eine Lösung geben.
Edit: Crisis1 lief bei mir damals ganz brav. Keine Ahnung das Geschrei und so:) Ja es war ein wenig fordernder, ja ok...
aufkrawall
2021-09-01, 12:58:29
Du meinst also Anno wäre ein guter Benchmark für alte, schlecht optimierte und non AAA Games? Also so wie ein Großteil der Spiele da draußen abseits vom Mainstream? Und für z.b. VR Games - weil dort auch die Manpower und/oder Geld fürs optimieren fehlt?
Nein, Anno ist nur ein "Wenig-Thread" Benchmark von vielen, die du offenbar nicht kennst.
Hikaru
2021-09-01, 13:04:10
verpostet, sorry
Lurtz
2021-09-01, 14:02:12
Meint ihr der Hardware-Scheduler von Alder Lake, der den OS-Scheduler instruiert wird, ist erst der Anfang und Intel wird noch mehr vom Scheduling in Hardware verlagern?
Laufen Alder Lake Gefahr, da eine Zwischenlösung einzukaufen, die nicht gut altern wird?
Platos
2021-09-01, 14:49:39
Kann doch niemand wissen...
aufkrawall
2021-09-01, 15:14:44
Imho: Wenn little.BIG ohne Anpassungen für die Spiele selbst mit ADL nicht gut funktionieren sollte, wird das auch in Zukunft mit weiteren Scheduler-Änderungen kaum der Fall sein. Außer natürlich, der Thread Director entpuppt sich als völliger Beta-Müll, was ich aber nicht glaube.
Undertaker
2021-09-01, 18:19:58
Warum sollte dem so sein? Mit schwarz/weiß-Einschätzungen liegt man in den seltensten Fällen richtig. Gut denkbar, dass die Performance zum Start prinzipiell ordentlich ist, kommende Generationen des Thread Directors oder Updates von Windows 11 aber noch einige Prozente herausholen. Muss man einfach abwarten.
Freestaler
2021-09-01, 19:48:07
Oder es kommt eine Schnittstelle dazu in ferner Zukunft? Der Dev gibt verschiedene Prozess Prio mit je nach anforderunt evtl sogar ob kritisch oder nicht (kein Dinge das zu ADL noch sehen werden).
iamthebear
2021-09-01, 22:26:58
Ein großer L3 bringt eine hohe Hitrate was wiederum die mittlere Latenz verbessert. Das hilft uneingeschränkt natürlich auch Anwendungen/Spielen mit weniger Threads. Das hilft immer.
Ich denke da gibt es doch deutliche Unterschiede:
.) Mit nur 1 Thread aktiv wird der L3 Cache wenig ausmachen, da der Einfluss auf die Hitrate beim Sprung von z.B. 32MB auf 96MB nicht mehr so groß sein wird.
.) Mit Applikationen wie Spielen die alle Kerne mit 1 Thread auslasten wird der Einfluss auf die Hitrate deutlich stärker sein.
.) Mit Applikationen die alle Kerne mit 2 Threads auslasten können und SMT aktiv wird, dann wirkt sich die Hitrate weniger auf die Gesamtperformance aus (siehe 4 Core Tests von HWU). Wenn 1Thread auf den RAM wartet, dann hat währenddessen der andere Thread die vollen Ressourcen des Kerns zur Verfügung.
Über L4 habe ich auch schon nachgedacht (wie Badesalz) nur grösser (1GB+) und von der Geschwindigkeit/Latenz auf jeden Fall zwischen L3 und RAM. Welche Speicherart würde wenn überhaupt dafür in Frage kommen und wie angebunden? Als Chiplet (ist ja kein SRAM?) oder gar extern via speziellem DIMM Slot weil Bandbreite ausreichend wäre, entsprechender CPU Speichercontroller vorausgesetzt? Ich glaube da ist noch gut Luft für eine vierte Stufe und L3 freut sich auch bestimmt.
Also SRAM scheidet hier meiner Meinung nach aus. Das ist ja bereits der L3 Cache. Klar man kann jetzt wie AMD Unmengen an Cache einfügen allerdings braucht das auch massiv Chipfläche und bei TSMC 5nm und 3nm skaliert SRAM deutlich schlechter als Logikteile weshalb das meiner Meinung nach eher mäßig sinnvoll ist vor allem im Mainstream/Midrangemarkt. Wenn du die Wahl hast zwischen einem Zen 3 4 Kerner mit 48MB Cache und einem 8 Kerner mit 32MB Cache welche CPU würdest du nehmen? Beide brauchen gleich viel Chipfläche.
Zur Idee den L3 Cache nicht mehr über alle Kerne zu sharen:
Wenn ich mir die Cache Größen von Alder Lake ansehe:
32KB L1 Cache
1.25MB L2 Cache bzw. 2MB bei Server CPUs
2.5MB L3 Cache/Kern
Hier ist doch die einzige Existenzberechtigung des L3 Cache darin, dass dieser eben von allen Kernen erreichbar ist und ein Thread, der von einem Kern auf den anderen verschoben wird eben nicht alle seine Daten neu aus dem RAM oder L4 Cache laden muss.
Was mir auch gerade durch den Kopf ging:
Wenn auf einen Cache geschrieben wird, der nicht über alle Kerne geshared wird, so muss der Kern alle anderen Kerne, die auch eine lokale Kopie dieses Blocks haben benachrichtigen, dass sie ihre Kopie verwerfen müssen. Ansonsten arbeiten diese Kerne mit ungültigen Daten. Ist der L3 Cache über alle Kerne geshared, so kann die CPU sich das eigentlich sparen.
Meiner Meinung nach war der Ansatz bei Broadwell gar nicht so schlecht und ich frage mich warum Intel dies aufgegeben hat. Ich denke dass ein Comet Lake mit eDRAM sinnvoller gewesen wäre als Rocket Lake.
Anandtech hat den 5775C letztes Jahr durch einen aktuellen Benchmarkparkour geschickt und besonders bei Spielen war die Leistung echt überzeugend. Der mit 4 Kernen und 3.3GHz meistens weniger als 10% langsamer als der 10600K, in einigen Spielen sogar schneller.
https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it
Das 10nm Debakel ist eine Sache aber ich denke, dass Intel auch architekturtechnisch mit Skylake komplett falsch abgebogen ist.
Ui, OK verstehe soweit glaube ich, danke. Würde GDDR taugen bzw. sich überhaupt einbinden lassen (irgendwo extern) als L5?
Die Unterschiede zwischen DDR, GDDR und HBM sind dadurch bedingt wie der RAM verbaut wird.
Bei DDR wird eine gesockelte CPU verwendet und der RAM ist auch steckbar und relativ weit entfernt d.h. in Summe schlechte Signalqualität.
GDDR schafft hier deutlich bessere Übertragungsfrequenzen, da RAM und GPU verlötet sind und der RAM direkt neben der GPU sitzt.
Bei HBM wird der RAM gestapelt und bekommt ihn so in einem Package unter, wo er noch näher sitzt und man ihn problemlos breiter anbinden kann.
Im Fall von direkt auf dem Chiplet integrierten RAM geht das Ganze ja noch direkter. Da wären theoretisch noch höhere Geschwindigkeiten möglich nur müsste jemand einmal etwas passendes entwickeln.
Meint ihr der Hardware-Scheduler von Alder Lake, der den OS-Scheduler instruiert wird, ist erst der Anfang und Intel wird noch mehr vom Scheduling in Hardware verlagern?
Laufen Alder Lake Gefahr, da eine Zwischenlösung einzukaufen, die nicht gut altern wird?
So wie ich das verstanden habe liefert der Hardware Scheduler nur Diagnosedaten an den Windows Scheduler, damit dieser eine bessere Entscheidung treffen kann.
Denkbar wäre es natürlich, dass die gesamten Scheduleraufgaben an die CPU übertragen werden, die dann intern Ressourcen beliebig verteilt. Im Prinzip macht das SMT ja bereits jetzt schon so.
Hier müssten jedoch viel mehr Informationen vom Betriebssystem an die CPU übertragen werden bzw. ist es sicher schwierig die Kompatibilität zu bestehenden Spezialanwendungen beizubehalten z.B. welche, die auf harte Echtzeit angewiesen sind.
Abgesehen davon: Ist das dann ein Dauerzustand, dass jedes OS jedes einzelne CPU Modell unterstützen muss weil ohne aktuelles Microcode Update vermutlich nichts mehr stabil läuft? Ich muss sagen dass mir diese Verdongelung aus Betriebssystem und CPU etwas in die falsche Richtung geht.
Naitsabes
2021-09-01, 22:33:15
Rein vom Bauchgefühl scheint Win11 auf einem SPX bereits sehr gut mit big.LITTLE zurecht zu kommen.
Hintergrundprozesse laufen meist auf den A55 Kernen. Vordergrundanwendungen laufen je nach Last auf den A76 Kernen.
Beim Synchronisieren nutzt Lightroom zum Beispiel schnell zu 100% die kleinen Kerne. Bei Bearbeitungen o.ä. werden die größeren Kerne genutzt.
Von daher kann ich die Sorgen vor dem angeblich so dämlichen Scheduler von Windows nicht ganz nachvollziehen.
Meine Beobachtungen stützen sich jedoch auch nur auf sporadische Kontrollen mit dem zugegeben ungenauen Taskmanager.
Edit
Falls jemand eine Idee hat den aktuellen Scheduler auf einem Pro X (8cx Gen2 bzw. SQ2) zu testen, dann bin ich gerne bereit das auszuprobieren
Thunder99
2021-09-02, 09:06:41
Bei Zen springt der zu bearbeitete Thread ja zwischen den Cores. Ist das bei Intel nicht nicht auch so?
Könnte wenn das so ist nicht den Scheduler beinträchtigen?
BlacKi
2021-09-02, 10:06:05
uvp nur 10€ teurer als rocketlake?
https://cdn.videocardz.com/1/2021/09/Intel-12th-Gen-Core-Pricing.jpg
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
dildo4u
2021-09-02, 10:09:18
Klar sonst wäre es nicht konurenzfähig DDR4 wird grad wieder billiger und es kommen whol erstmal nur DDR5 Z690 Boards.
https://www.computerbase.de/2021-09/speicherpreise-spot-preis-faellt-auf-tiefsten-stand-seit-7-monaten/
maximus_hertus
2021-09-02, 10:11:47
uvp nur 10€ teurer als rocketlake?
https://cdn.videocardz.com/1/2021/09/Intel-12th-Gen-Core-Pricing.jpg
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
Wie kommst du auf 10 Euro?
Das sind 150-200€ mehr :freak:.
Immerhin ist er nen Tacken billiger als der 5950x ;).
maximus_hertus
2021-09-02, 10:39:44
Bis zum Launch kann sich noch vieles ändern, von daher würde ich mich da nicht verrückt machen. Am Ende wird es für die K CPUs wohl ungefähr so aussehen:
12900K: ca. 700 Euro
12900KF: ca. 670 Euro
12700K: ca. 480 Euro
12700KF: ca. 450 Euro
12600K: ca. 320 Euro
12600KF: ca. 290 Euro
Der 12900K(F) duelliert sich mit dem 5950X, der 12700K(F) mit dem 5900X und der 12600K(F) ist in der Mitte zwischen 5800X und 5600X.
Man darf auch gespannt sein, ob DDR4 statt DDR5 Leistung kostet (also spürbare, nicht diese 1-2% Messungenauigkeit) bzw. ob die ersten kaufbaren Boards DDR5 only sind.
Bzw. das (von mir) erwartete AMD Lineup zu Weihnachten:
5950X3D: 800 Euro
5950X: 650 Euro
5900X3D: 550 Euro
5900X: 450 Euro
5800X: 350 Euro
5600X: 250 Euro
KarlKastor
2021-09-02, 10:45:31
Ich verstehe die 25M und 20M L3 nicht, ich dachte es wären 3MB Slices.
Bei den Preisen müsste man wissen was der Unterschied zwischen 1, 2 und 3 ist.
5800X3D wirds sehr sicher auch geben. War ja auch von CPUs mit 96MB L3$ die Rede IIRC.
dildo4u
2021-09-02, 10:50:00
Low End wird hoffentlich deutlich billiger 250 für ein 5600X ist immer noch ein Witz, da Intel dort Hybrid Modelle hat.
Ein Zen 3 Chiplet ist winzig gegenüber Alder Lake 6+4.
maximus_hertus
2021-09-02, 10:55:12
Bei den Preisen müsste man wissen was der Unterschied zwischen 1, 2 und 3 ist.
1, 2 und 3 sind einfach 3 verschiedene Händler.
5800X3D: das wäre schön, aber hat AMD bisher nicht immer nur von 5900 series bzgl. 3D gesprochen? Aber vielleicht "zwingt" Alder-Lake da AMD zu einem 5800X3D? Aber ob man so kurzfristig reagieren kann?
robbitop
2021-09-02, 11:05:15
Ich denke da gibt es doch deutliche Unterschiede:
.) Mit nur 1 Thread aktiv wird der L3 Cache wenig ausmachen, da der Einfluss auf die Hitrate beim Sprung von z.B. 32MB auf 96MB nicht mehr so groß sein wird.
.) Mit Applikationen wie Spielen die alle Kerne mit 1 Thread auslasten wird der Einfluss auf die Hitrate deutlich stärker sein.
.) Mit Applikationen die alle Kerne mit 2 Threads auslasten können und SMT aktiv wird, dann wirkt sich die Hitrate weniger auf die Gesamtperformance aus (siehe 4 Core Tests von HWU). Wenn 1Thread auf den RAM wartet, dann hat währenddessen der andere Thread die vollen Ressourcen des Kerns zur Verfügung.
Das hängt weniger an der Anzahl an Threads sondern an der Größe und Vorhersehbarkeit des Instruction Sets der Anwendung.
Der_Korken
2021-09-02, 11:11:15
Ich verstehe die 25M und 20M L3 nicht, ich dachte es wären 3MB Slices.
Ich auch. 25MB könnte man erreichen, wenn man alle 10 Slices aktiv lässt und dafür in jedem Slice 1/6 deaktiviert - so wie Intel das lange bei den i5-Modellen gemacht hat, z.B. beim 8600K mit 9MB (6 Slices, jeweils 1,5 von 2MB aktiv). Für 20MB müssten aber auch alle Slices aktiv sein, obwohl bei 6+4 Kernen nur 7 von 10 "Core-Blöcken" aktiv sind. Hätte 21MB für den 12600K und 27MB für den 12700K erwartet.
Thunder99
2021-09-02, 11:50:04
Spannender wird der Vergleich gegen 5900x, da 12900k ebenso 24T hat.
BlacKi
2021-09-02, 12:12:02
Wie kommst du auf 10 Euro?
ja, war quatsch. händler 3 hatte nur einen teuren 11900k.
die ersten listings des 11900k lagen allerdings auch über der uvp. wenn man die vorablistenpreise vergleicht sind es 40-60€ unterschied. https://twitter.com/harukaze5719/status/1350666760383459330/photo/1?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1350666760383459330%7Ctwg r%5E%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.pcgameshardware.de%2FRocket-Lake-S-Codename-277112%2FNews%2FPreislisten-Haendler-Core-i9-11900K-teilweise-billiger-als-Vorgaenger-1365247%2F
Gipsel
2021-09-02, 14:04:23
Ich denke da gibt es doch deutliche Unterschiede:
1.) Mit nur 1 Thread aktiv wird der L3 Cache wenig ausmachen, da der Einfluss auf die Hitrate beim Sprung von z.B. 32MB auf 96MB nicht mehr so groß sein wird.Oft ist der Blick auf die Miss-Rate besser. Und die sinkt natürlich weiterhin (und sogar recht wesentlich bei einer Verdreifachung des Caches). Der CPU-Kern muß (länger) warten, wenn ein Miss auftritt. Genau wie bei der Branch-Prediction die Mispredictions die Performance limitieren (der Unterschied zwischen 95% und 98% korrekt vorhergesagten Branches sieht nicht groß aus, ist es aber [5% => 2% mispredict rate]), ist dies bei Cachehits ganz äquivalent (ein Miss kostet nämlich dann ziemlich viele Takte).
Bei den Epycs gibt es z.B. sogar ein Modell, was nur 8 Kerne aktiv aber alle 8 CCDs verbaut hat, so daß dort jedem Kern die vollen 32MB L3 zur Verfügung stehen (8 Kerne und insgesamt 256MB L3). Und das bringt bei den bestimmten Workloads enorm was (ist relativ zur Kernzahl z.B. ein SpecFP-Monster, ist aber nicht das einzige Beispiel).
2.) Mit Applikationen wie Spielen die alle Kerne mit 1 Thread auslasten wird der Einfluss auf die Hitrate deutlich stärker sein.
3.) Mit Applikationen die alle Kerne mit 2 Threads auslasten können und SMT aktiv wird, dann wirkt sich die Hitrate weniger auf die Gesamtperformance aus (siehe 4 Core Tests von HWU). Wenn 1Thread auf den RAM wartet, dann hat währenddessen der andere Thread die vollen Ressourcen des Kerns zur Verfügung.So allgemein kann man die Aussage nicht treffen, da das zu sehr von der Größe des Workingsets und der Zugriffsmuster abhängig ist. Was stimmt, ist daß mit SMT der Einfluß von Cache- und Speicherlatenzen etwas gemindert werden kann (weil dann der andere Thread in den Wartezeiten mehr Ressourcen nutzen kann), vorausgesetzt es hat keinen überproportional negativen Effekt auf die Hitrate der Caches (Ein Thread schmeißt immer das aus dem Cache, was der andere Thread dann jeweils benötigt. Das sind dann die Beispiele mit schlechter oder gar negativer SMT-Skalierung). Aber allgemein hilft ein größerer Cache natürlich, weil das die Wahrscheinlichkeit von Kollisionen senkt.
Dabei sind allgemeine Aussagen wie (1) bei einer Singlethread-Anwendung bringt mehr L3 wenig, aber (2) bei einem Thread pro Kern bringt der L3 mehr und (3) bei zwei Threads pro Kern bringt er wieder weniger halt nicht allgemein gültig.
Zur Idee den L3 Cache nicht mehr über alle Kerne zu sharen:
Wenn ich mir die Cache Größen von Alder Lake ansehe:
32KB L1 Cache
1.25MB L2 Cache bzw. 2MB bei Server CPUs
2.5MB L3 Cache/Kern
Hier ist doch die einzige Existenzberechtigung des L3 Cache darin, dass dieser eben von allen Kernen erreichbar ist und ein Thread, der von einem Kern auf den anderen verschoben wird eben nicht alle seine Daten neu aus dem RAM oder L4 Cache laden muss.Die Caches sind nicht inklusiv und außerdem können zwischen den Kernen geteilte Daten dort effektiv untergrbracht werden.
Was mir auch gerade durch den Kopf ging:
Wenn auf einen Cache geschrieben wird, der nicht über alle Kerne geshared wird, so muss der Kern alle anderen Kerne, die auch eine lokale Kopie dieses Blocks haben benachrichtigen, dass sie ihre Kopie verwerfen müssen. Ansonsten arbeiten diese Kerne mit ungültigen Daten. Ist der L3 Cache über alle Kerne geshared, so kann die CPU sich das eigentlich sparen.Zwei miteinander verbundene Punkte zur Recherche: (1) Cache-Kohärenz und (2) Organisation von Cachestufen als inklusiv/nichtinklusiv/exklusiv.
Meiner Meinung nach war der Ansatz bei Broadwell gar nicht so schlecht und ich frage mich warum Intel dies aufgegeben hat.Zu geringer Nutzen für den nötigen Aufwand und den damit verbundenen Kosten.
davidzo
2021-09-02, 15:29:51
uvp nur 10€ teurer als rocketlake?
https://cdn.videocardz.com/1/2021/09/Intel-12th-Gen-Core-Pricing.jpg
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
Baseclock ist imo ziemlich mau:rolleyes:.
10900k: 3,7Ghz
11900k: 3,5Ghz
12900K: 3,2Ghz
Seit Sandybridge hatte noch kein einziges i7K Topmodell (geschweige denn i9) unter 3,5Ghz baseclock.
Anscheinend saufen die Golden Cove Cores wie Hulle bei vergleichbaren Takt wie Cypress Cove, trotz neuem Process Node.
Sieht so aus als wenn de 12700k für games die bessere Wahl wird.
robbitop
2021-09-02, 15:33:59
Zu geringer Nutzen für den nötigen Aufwand und den damit verbundenen Kosten.
Denke ich auch. Der eDRAM bei i7 5775c ist zwar groß aber mit schnellem DDR4 liegt man so weit nicht mehr (z.T. sogar besser) von der Latenz her.
Der eDRAM kommt auf ~40..42 ns. Da kommt man mit gutem DDR4 auch hin.
Im L3 bekommt man bei Zen 3 ~10 ns.
OgrEGT
2021-09-02, 15:34:22
https://cdn.videocardz.com/1/2021/09/Intel-12th-Gen-Core-Pricing.jpg
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
Wie war das nochmal mit ApothekeMD und Bonzen Preise :ulol:
Zum ApoDL noch Board und teuren DDR5... na Mahlzeit...
Da bin ich auf Benchmarks gespannt ob sich das lohnt...
aufkrawall
2021-09-02, 15:40:02
~330€ für sechs spieletaugliche Kerne. ;D
Gipsel
2021-09-02, 15:42:27
Baseclock ist imo ziemlich mau:rolleyes:.
10900k: 3,7Ghz
11900k: 3,5Ghz
12900K: 3,2Ghz
Seit Sandybridge hatte noch kein einziges i7K Topmodell (geschweige denn i9) unter 3,5Ghz baseclock.Vielleicht ist es ja die Baseclock der E-Kerne? Der 5950X hat zum Vergleich 3,4GHz Baseclock, der 5900X 3,7GHz. Halten die den eigentlich mit einer Minimalkühllösung auch innerhalb von 105W und boosten praktisch immer höher, wenn die Kühllösung ein Verbleiben innerhalb des Temperaturlimits ermöglicht, weil er dann die 142W PPT ausnutzen kann (bei Ryzen 1 wurde das doch mal offiziell so dargestellt)? Praktisch sieht man so niedrige Taktraten doch eher selten, wenn man in Tests sieht, daß ein 5950X all-core so knapp 4GHz in CB20 oder sogar 4,2GHz in Blender hält (und dabei oft gar nicht in die 142W PPT läuft sondern im TDC-Limit und somit dann unter 140W rumhängt).
Und bei intel gab es doch auch traditionell sehr große Unterschiede beim Stromverbrauch bei unterschiedlichen Workloads. Was aus den 3,2GHz dann in der Praxis wird (praktisch geht das eventuell auch innerhalb von 125W eher in Richtung 4 GHz für die meisten Workloads?), muß man dann wohl mal sehen.
Lehdro
2021-09-02, 15:57:25
Meiner Meinung nach war der Ansatz bei Broadwell gar nicht so schlecht und ich frage mich warum Intel dies aufgegeben hat. Ich denke dass ein Comet Lake mit eDRAM sinnvoller gewesen wäre als Rocket Lake.
[...]
Das 10nm Debakel ist eine Sache aber ich denke, dass Intel auch architekturtechnisch mit Skylake komplett falsch abgebogen ist.
Dir ist bewusst das es durchaus Skylake (z.B. i7 6970HQ), Kabylake (z.B. i7 7567U) und Coffeelake (z.B. i7 8559U) + eDRAM (https://en.wikipedia.org/wiki/EDRAM) gab?
Wie Gipsel und robbitop schon erwähnten: Die Latenz von Skylake und vor allem Coffeelake ist mit DDR4 teilweise schneller als eDRAM - also bleibt fast nur das Bandbreitenargument. Das zieht aber nur so richtig bei der iGPU, also genau da wo es auch mit Skylake/Kabylake/Coffeelake noch eDRAM gab. Zudem waren das meines Wissens nach immer ziemliche Hochpreisprozessoren in dem jeweiligen Bereich (GT3e & GT4e), nichts für die Masse. War schlussendlich auch wirklich einfach zu teuer für das Geleistete.
Platos
2021-09-02, 16:26:35
Wie war das nochmal mit ApothekeMD und Bonzen Preise :ulol:
Zum ApoDL noch Board und teuren DDR5... na Mahlzeit...
Da bin ich auf Benchmarks gespannt ob sich das lohnt...
Ja, wäre AMD nicht so teuer, könnte Intel sich das auch nicht leisten. Also das Danke darfst du an AMD richten.
OgrEGT
2021-09-02, 16:34:00
Ja, wäre AMD nicht so teuer, könnte Intel sich das auch nicht leisten. Also das Danke darfst du an AMD richten.
Also ohne AMD wütden wir von Intel immer noch mit 4 Kernen gemolken werden... davon ab schau mal den Preis für den ADL 6(P) Kerner an... bei nem 5600X bei 250Eur von Wucher und Bonzen Preisen zu sprechen... also wirklich... was wird denn erwartet? Dass AMD alles verramschen muss?
Ach ja Platformkontinuität bei AMD sucht man bei Intel vergeblich...
Platos
2021-09-02, 17:19:49
Spielt doch keine Rolle, was AMD irgendwann mal vor 4.5 Jahren angefangen hat. AMD hat die Preise vor fast nem Jahr erhöht und deshalb tut das Intel nun auch. So einfach ist das.
Strassenpreise fast 1 Jahr nach Launch mit potentiellen Listenpreisen zu vergleichen ist natürlich auch völliger Blödsinn.
Slipknot79
2021-09-02, 21:04:43
Weiß ned, werde ned warm mit ADL, irgendwie eine Kackgeneration für Gamer, was soll der mit +xE Kernen anfangen. :mad:
Das ist wie wenn er sich ne Samsung 980 Pro SSD fürs Gaming kauft, damit der Ladebildschirm 1s schneller verschwindet im Vgl zu einer "langsamen" Kingston NV1. :rolleyes:
OgrEGT
2021-09-02, 21:42:20
Spielt doch keine Rolle, was AMD irgendwann mal vor 4.5 Jahren angefangen hat. AMD hat die Preise vor fast nem Jahr erhöht und deshalb tut das Intel nun auch. So einfach ist das.
Strassenpreise fast 1 Jahr nach Launch mit potentiellen Listenpreisen zu vergleichen ist natürlich auch völliger Blödsinn.
Hast schon recht... aber so wie hier einige getan haben als obs bei AMD Wucherpreise gibt und bei Intel gibts das soo viel bessere P/L... Der Trend dass bei neuen Generationen von PC Hardware mehr Leistung auch mehr kostet ist nun wirklich nix Neues...
ADL glaube ich wird im Schnitt gerade mit Zen3 gleichziehen... aufgrund des komplizierten Schedulings allerdings stärker schwanken... dazu kommt eine neue und teure Plattform mit DDR5 und neuem OS... da sind Kinderkrankheiten vorprogrammiert mMn...
Hoher Stromverbrauch und niedrige Baseclocks zeichnen sich auch schon ab...
Und wofür das Ganze? Die meisten Leute spielen doch eh im GPU Limit...
KarlKastor
2021-09-03, 02:02:32
Ist eigendlich schon was über das Line Up bekannt? Bisher ist ja unter dem 12600 nichts bekannt. Vielleicht kommt noch ein 6+0 als 12400.
Was passiert darunter? Da gibt's ja immer noch Comet Lake. Bleibt's weiterhin dabei?
Gut vielleicht für Intels 10 nm Kapazität, aber ist dann doch schon ziemlich angestaubt. Aber bei AMD gibt's in dem Preisbereich auch noch kein Zen 3.
Nightspider
2021-09-03, 03:03:59
Der 5600X hat eigentlich schon einen recht vernünftigen Preis wenn er im Angebot ist.
240 Euro für 6 Highend Kerne die im Moment noch alle Games locker und flockig stämmen
und dem 0815 Gamer wahrscheinlich 5+ Jahre reichen würden.
Wenn ADL und Zen4 die IPC nochmal um 20-30% boosten wären auch 300 Euro wieder im Rahmen für 6 Kerne.
Die CPU Kerne schrumpfen ja auch gar nicht mehr so stark weil der Cache schon den Großteil eines Kernes ausmacht.
Vielleicht sehen wir bei 3nm nochmals einen Anstieg bei CPU Kernen aber vorerst wird das stagnieren und man wird die Leistung pro Kern erhöhen. Wobei das big.LITTLE Prinzip die Diskussion eh verwässert, wenn mit Zen5 dann auch big.LITTLE kommt.
BlacKi
2021-09-03, 03:47:28
ADL glaube ich wird im Schnitt gerade mit Zen3 gleichziehen... aufgrund des komplizierten Schedulings allerdings stärker schwanken... dazu kommt eine neue und teure Plattform mit DDR5 und neuem OS... da sind Kinderkrankheiten vorprogrammiert mMn...
Und wofür das Ganze? Die meisten Leute spielen doch eh im GPU Limit...
haha. klar. im schlimmsten fall, werden nur die performance kerne genutzt. inwiefern da der scheduller spinnen soll ist mir ein rätsel. es gibt noch genug games im cpu limit. und MT seitig mache ich mir auch keine sorgen. selbst die kleinen kerne werden beim spielen schon schnell sein.
wenn alles so läuft wie es soll, glaub ich das intel mit einem 2+8 unlimitiert in games selbst nen 5900x abziehen kann.
Hakim
2021-09-03, 05:59:25
Wird man eigentlich neue Montage kits bei dem socket 1700 für vorhandene Kühler und AiOs benötigen?
dildo4u
2021-09-03, 06:05:31
Es soll bei noctua 1700 Kits für alte Kühler geben.
Die Sockel Form unterscheidet sich zum Vorgänger.
https://www.computerbase.de/2021-08/kostenlose-upgrade-kits-noctua-macht-kuehler-startklar-fuer-lga-1700-und-alder-lake-s/
Low End wird hoffentlich deutlich billiger 250 für ein 5600X ist immer noch ein Witz, da Intel dort Hybrid Modelle hat.
Ein Zen 3 Chiplet ist winzig gegenüber Alder Lake 6+4.
Intel hat da keine Hybrid-Modelle, der 12600k ist nur 6+0. i.Ü. entspricht der Strassenpreis des 12700k genau dem des 5800X und des 12600k exakt dem des 5600X. Die AMDs sind zwar real billiger, die UVP passt aber zu ADL.
VooDoo7mx
2021-09-03, 10:06:02
Intel hat da keine Hybrid-Modelle, der 12600k ist nur 6+0. i.Ü. entspricht der Strassenpreis des 12700k genau dem des 5800X und des 12600k exakt dem des 5600X. Die AMDs sind zwar real billiger, die UVP passt aber zu ADL.
Da bist du falsch informiert. Der 12600K hat 6P und und 4E Cores und dürfte in ST und besonders deutlich in MT Performance vor den 11600K und 5600X liegen.
Kostet aber eben dann auch mehr.
dildo4u
2021-09-03, 10:22:21
Intel hat da keine Hybrid-Modelle, der 12600k ist nur 6+0. i.Ü. entspricht der Strassenpreis des 12700k genau dem des 5800X und des 12600k exakt dem des 5600X. Die AMDs sind zwar real billiger, die UVP passt aber zu ADL.
12600 ist 6+4 die skalierung nach oben ist diesmal deutlich besser als bei 11Gen.Der i7 hat mher dicke Cores und i9 dann nocht mal mehr kleine.
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
Das dann ja noch schlimmer. Dann ist der 12600k mit 6+4 auf dem UVP-Niveau des 5600X. Da würd ich mal keine riesigen Performancesprünge erwarten dann.
Die RKLs sind UVP dann grad mal ein paar € billiger als die ADLs.
VooDoo7mx
nein, er kostet nicht mehr. Wenn sich dann über die Zeit die Händlermarge verabschiedet, liegen die auf exakt gleichem Niveau.
Kann natürlich auch sein, dass die ganze Preisliste BS ist, das ganze ist ja noch ein bisserl entfernt.
dildo4u
2021-09-03, 10:31:32
Wie schon erwähnt Intel muss das so Preisen weil die Boards teurer werden, vermutlich kommen Mainstream Modelle die nur PCI-E 4.0 können erst 2022.
Igor hat geleakt das erstmal nur Z690 kommt.
https://www.igorslab.de/intel-alder-lake-s-launch-nur-enthusiasten-cpu-und-z690-chipset-zwischen-dem-25-oktober-und-19-november-2021-der-rest-kommt-spaeter/
Thunder99
2021-09-03, 12:19:34
Intel will melken, ist doch klar. Und das ein 12600k deutlich schneller ist als ein 5600x muss sich erst zeigen. Sehe es eher dann auf 5800x Niveau.
Wie kann man den SMT Thread mit einem E Core vergleichen? 1 E Core sind 2 SMT Threads?
MiamiNice
2021-09-03, 13:15:45
Habe ich einen ADL Bench verpasst?
Wie schon erwähnt Intel muss das so Preisen weil die Boards teurer werden, vermutlich kommen Mainstream Modelle die nur PCI-E 4.0 können erst 2022.
Igor hat geleakt das erstmal nur Z690 kommt.
https://www.igorslab.de/intel-alder-lake-s-launch-nur-enthusiasten-cpu-und-z690-chipset-zwischen-dem-25-oktober-und-19-november-2021-der-rest-kommt-spaeter/
Als ob die Boards je ne Rolle gespielt hätten :freak:. So ein Quatsch.
Dass das wieder einen Paperlaunch gibt wie bei bei den letzten 3 Launches war doch von vornherein klar. Verfügbarkeit erst 2022. Eigentlich war nur Kaby Lake bei Launch verfügbar, SkylakeK war ja auch massiv zu spät.
12600 ist 6+4 die skalierung nach oben ist diesmal deutlich besser als bei 11Gen.Der i7 hat mher dicke Cores und i9 dann nocht mal mehr kleine.
https://videocardz.com/newz/alleged-european-pricing-of-intel-12th-gen-core-alder-lake-s-series-leaks-out
Dagegen könnten die non K ohne E cores kommen. Core i7-12700 hat laut Geekbench 8 Kerne und 16 Threads: https://browser.geekbench.com/v5/cpu/9528015
Leider wird man die wohl nicht übertakten können und dann sind das noch 65W Modelle. Seltsame Entscheidung eigentlich. Gerade bei den 65W Modellen wären mehr E statt P cores doch sinnvoll.
Gipsel
2021-09-03, 13:33:38
Wie kann man den SMT Thread mit einem E Core vergleichen? 1 E Core sind 2 SMT Threads?Ein E-Core entspricht in Multithread-Szenarien etwa einem P-Core Thread (also ein GoldenCove P-Core Kern mit zwei Threads erreicht in etwa die Multithread-Leistung von zwei Gracemont E-Cores).
6+4 sollte also eine Multithread-Leistung wie eine 8+0 Konfiguration aufweisen (bei niedrigerem Verbrauch).
8+8 wäre dann grob auf 12-Kerner-Niveau, aber wiederum bei reduziertem Verbrauch.
Hakim
2021-09-03, 15:55:16
Da ja ADL DDR4 und 5 supportet, könnte es z690 mobos mit DDR4 geben? Ich glaube bei mir könnte es der 12700k werden. Würde aber gerne meine AiO und 32 GB DDR4 mitnehmen
Thunder99
2021-09-03, 16:15:42
Bei den "günstigsten" denke ich schon. Die Option wollen sicher die Mainboard Hersteller nicht ungenutzt lassen.
Birdman
2021-09-03, 17:09:04
Wie kann man den SMT Thread mit einem E Core vergleichen? 1 E Core sind 2 SMT Threads?
Kann man eigentlich so gar nicht vergleichen.
Zudem ist SMT ja gerade in Spielen eher ein Bremsklotz als was anderes, vor allem bei Ryzen CPUs. (wobei man dies relativieren muss, denn das Problem mit der negativen Skalierung von SMT bei Games tritt verstärkt bei CPUs mit vielen Cores auf....und das ist halt AMDs Spielwiese)
Sofern der Scheduler nicht irgendwelchen Müll macht, kann sowas bei den ADL E-Cores aber nicht passieren.
Allerdins haben die P-Cores ja auch SMT und es wird dann wirklich lustig sein zu beobachten, was hier die Scheduler in welchem Szenario genau machen. (z.B. wenn ein zweiter Thread auf einem P-Core der Benutzung eines E-Core vorgezogen werden sollte)
Gipsel
2021-09-03, 17:13:22
Zudem ist SMT ja gerade in Spielen eher ein Bremsklotz als was anderes, vor allem bei Ryzen CPUs. (wobei man dies relativieren muss, denn das Problem mit der negativen Skalierung von SMT bei Games tritt verstärkt bei CPUs mit vielen Cores auf....und das ist halt AMDs Spielwiese)
Sofern der Scheduler nicht irgendwelchen Müll macht, kann sowas bei den ADL E-Cores aber nicht passieren.War das bei den Ryzens nicht auch eher so, daß der Scheduler Müll gemacht hat oder alternativ das Spiel sich selbst in schwachsinniger Weise auf bestimmte Kerne festgepinnt hat (oder hing es z.T. nicht auch am AMD oder nV-Grafikkartentreiber)? Ansonsten ist so eine Generalisierung von "SMT ist schlecht für Spiele" wohl eher nicht richtig.
edit:
uIWO-821vik
Und das ist noch ein Zen2-Zwölfkerner. Mit einem Zen3 mit dem unified L3 pro Die (oder noch ein 8 Kerner mit nur einem CCD) und dem Ausbügeln einiger Regressionen sollte es inzwischen keine Unterschiede bis sogar eher kleine Vorteile für SMT geben (damals war es 1% Nachteil bei der durchschnittlichen Framerate und 1% Vorteil bei der Minimalframerate mit SMT als Durchschnitt über viele [36] Spiele).
Thunder99
2021-09-03, 17:31:06
Die Antwort auf die Frage hat PCGH (Raff) gegeben. Je mehr Kerne vorhanden sind, desto weniger bringt SMT in Spielen was, bzw ist der Mehrwert sehr selten:
https://www.pcgameshardware.de/Ryzen-9-5950X-CPU-276916/Specials/SMT-Vergleich-CPU-Test-mit-Radeon-1364596/
Gipsel
2021-09-03, 17:35:28
Die Antwort auf die Frage hat PCGH (Raff) gegeben. Je mehr Kerne vorhanden sind, desto weniger bringt SMT in Spielen was, ist meine Meinung:
https://www.pcgameshardware.de/Ryzen-9-5950X-CPU-276916/Specials/SMT-Vergleich-CPU-Test-mit-Radeon-1364596/Schon klar, bis die nächsten Spiele mehr Kerne nutzen können, dann bringt auch SMT wieder was bei höheren Kernzahlen. Bei einem Achtkerner ist es dagegen im Schnitt auch schon heut vermutlich tendentiell kontraproduktiv das abzuschalten, wenn schon vor 2 Jahren bei einem Zwölfkerner das quasi egal war (siehe HUB). Und auch bei Raff finden sich Beispiele, die offensichtliche Bugs sind (Scheduler macht Blödsinn oder widersinnig gepinnte Threads), die man aus der Betrachtung eher rausnehmen sollte (weil sie nicht grundsätzlich das Problem von SMT beleuchten sondern die Qualität des ausgeführten Codes).
Thunder99
2021-09-03, 17:43:06
Kann der Code zwischen echtem und virtuellem Kern unterscheiden bzw den ansteuern?
Gipsel
2021-09-03, 17:49:38
Kann der Code zwischen echtem und virtuellem Kern unterscheiden bzw den ansteuern?Na klar. Zumindest im Prinzip. Der Scheduler sollte das Core-Layout (also nicht nur welche zwei Threads zusammen auf einem Kern laufen* sondern auch, welche Caches zwischen welchen Kernen geteilt werden usw.) natürlich schon kennen, aber auch ein Spiel hindert nichts daran, das in Erfahrung zu bringen und dann seine Threads in geeigneter Weise zu verteilen. Nur wenn man das falsch macht, kommt halt auch mal deutlich negative Skalierung mit SMT raus statt gleiche Performance oder gar leichte Vorteile.
*) Mit SMT kann ja jeder Kern 2 Threads ausführen, die völlig gleichberechtigt sind. Für das Betriebssystem sieht das aus, als wenn zu jedem echten Kern zwei Threads ("virtuelle Kerne") gehören. Und man weiß natürlich, welche zwei zusammen auf einem physischen kern laufen.
aufkrawall
2021-09-03, 18:01:55
Der Scheduler "shuffled" halt ständig Threads hin und her. Wobei das aber auch kein Problem sein sollte, wenn er die Threads beider logischer Kerne für einen physischen gleichzeitig verschiebt. Wobei Multi-CCX das ggf. komplizierter macht?
Birdman
2021-09-03, 18:15:54
Und auch bei Raff finden sich Beispiele, die offensichtliche Bugs sind (Scheduler macht Blödsinn oder widersinnig gepinnte Threads), die man aus der Betrachtung eher rausnehmen sollte (weil sie nicht grundsätzlich das Problem von SMT beleuchten sondern die Qualität des ausgeführten Codes).
Das gehört für mich zusammen.
Seit bald 20 Jahren haben wir SMT und die Probleme mit der Software sind immer noch die gleichen.
Und dass es immer weniger "schlechten" Code in Bezug auf SMT gibt, kann man nach Konsultation dieses aktuellen PCGH Tests auch nicht sagen.
Interessant ist hier auch, dass die Resultate unterschiedlicher/inkonsistenter kaum sein können. (je nach Spiel und GPU)
aufkrawall
2021-09-03, 18:25:18
Ist mit 6-8C trotzdem ein Nobrainer, es aktiviert zu lassen. Mit 12C überwiegen vermutlich auch noch die Fälle, in denen man profitiert (zumindest, wenn der Test vornehmlich aus DX12-Spiele mit gutem MT besteht).
Ansonsten könnte ein Gegentest mit einem "Gaming"-Wine interessant sein, offenbar kann man damit bis zu einem gewissen Grad den Umgang der Anwendungen mit der CPU-Topologie erzwingen. Allerdings dürften dafür die ganzen Tester aus der Windows-Welt komplett unqualifiziert sein, wie sie es bei Linux halt allgemein sind...
Birdman
2021-09-03, 18:26:14
Kann der Code zwischen echtem und virtuellem Kern unterscheiden bzw den ansteuern?
Die Applikation kann dies durchaus, aber ausser in Spezialfällen greift eine Applikation da selber nicht ein. (zur runtime schon gar nicht, wenn dann beim start wo sie sich entsprechend auf cores pinnt und/oder eine andere priorität gibt)
Ansonsten weiss das OS/Scheduler aber besser, auf welchem Core eine Applikation zu laufen hat, denn es gibt ja meist noch hunderte andere Programme, welche parallel dazu ebenfalls laufen sollen/wollen. (und was diese brauchen kann die eine App ja nicht wissen)
Gipsel
2021-09-04, 00:20:08
Das gehört für mich zusammen.
Seit bald 20 Jahren haben wir SMT und die Probleme mit der Software sind immer noch die gleichen.
Und dass es immer weniger "schlechten" Code in Bezug auf SMT gibt, kann man nach Konsultation dieses aktuellen PCGH Tests auch nicht sagen.
Interessant ist hier auch, dass die Resultate unterschiedlicher/inkonsistenter kaum sein können. (je nach Spiel und GPU)Die Problemfälle nehmen aber ab. Zwar langsam, aber immerhin werden über die Zeit immer weniger Fehler gemacht.
Und der PCGH-Test betrachtet den 16-Kerner. Je weniger Kerne man hat oder je weiter man in die Zukunft geht, desto mehr hilft SMT.
Slipknot79
2021-09-04, 00:35:26
Will ich fürs Gaming nen dicken 8 Kerner haben, muss ich also zu 8P greifen und bekomme unnütze +4E geliefert die auch noch unnütz Kosten verursachen, Strom und Anschaffung. Stromkosten sind mir shiceegal, aber wenn Intel schon einen auf Effizienz machen will, sollen der Laden doch die 4E rauswerfen.
Oder ich nehme 6P+4E, habe dann 10 Kerne wovon 40% Krücken sind und 2 sind sowieso zu viel. :rolleyes:
Wie zugeballert muss man eigentlich sein um auf so Kackcombos zu kommen... :rolleyes:
WedgeAntilles
2021-09-04, 00:50:22
Ich tippe mal diese "Kack-Combo" ist für 99% aller Games das perfekte Preis-Leistungs-Verhältnis.
Für kaum ein Spiel wird das "zu wenig" große Kerne sein.
Ist ja auch nicht so, dass die kleinen Kerne nutzlos und nicht existent sind.
Gipsel
2021-09-04, 00:58:46
Wie zugeballert muss man eigentlich sein um auf so Kackcombos zu kommen... :rolleyes:Wie WedgeAntilles schon sagte, könnte das für die Mehrzahl der User durchaus attraktive Performance liefern, wenn man das mit klarem Geist (also nicht zugeballert) betrachtet. ;)
aufkrawall
2021-09-04, 01:10:31
Und kostet das Doppelte eines 11400F (zumindest Liste), mit dem man ähnlich gut im GPU-Limit hängen kann. :uup:
Ok, IPC ist besser, aber Wunder darf man da auch nicht erwarten...
TheAntitheist
2021-09-04, 02:14:58
Und kostet das Doppelte eines 11400F (zumindest Liste), mit dem man ähnlich gut im GPU-Limit hängen kann. :uup:
Ok, IPC ist besser, aber Wunder darf man da auch nicht erwarten...
Core i5-12600KF 6C+4c, 3.7/4.9 GHz, 20MB L3 321,86 Euro
11600KF: ab 247 Euro
80€ Differenz ist also das doppelte
für eine CPU die im best case doppelte Leistung bringt... naja ich weiß nicht worüber du hier abkotzt.
aufkrawall
2021-09-04, 02:51:35
Weder der 11600, noch irgendwelche "Best Cases" interessieren, wenn ich von Spielen spreche.
Btw. Bestcase 11700F (330€): Killt den 12600 mit AVX512 in dav1d und ggf. bald auch Tesseract...
Nightspider
2021-09-04, 03:51:02
wenn alles so läuft wie es soll, glaub ich das intel mit einem 2+8 unlimitiert in games selbst nen 5900x abziehen kann.
Eher fällt der Mond auf die Erde.
OgrEGT
2021-09-04, 09:34:32
haha. klar. im schlimmsten fall, werden nur die performance kerne genutzt. inwiefern da der scheduller spinnen soll ist mir ein rätsel. es gibt noch genug games im cpu limit. und MT seitig mache ich mir auch keine sorgen. selbst die kleinen kerne werden beim spielen schon schnell sein.
wenn alles so läuft wie es soll, glaub ich das intel mit einem 2+8 unlimitiert in games selbst nen 5900x abziehen kann.
Wie soll das gehen?
Man munkelt dass ein Gracemont Kern allenfalls Skylake IPC haben soll...
In FHD ist ein 5600X schon 50% schneller als ein 7700K...
https://www.computerbase.de/thema/prozessor/rangliste/
Habe ad hoc leider keinen Vergleich 6700K vs Zen3 gefunden :ulol:
Edit
In FHD +12% für den 3300X vs 7700K...
ADL 2+8 vs 5900X ist aber ein gutes Beispiel... Wie unterscheidet der TD und der Windows Scheduler in einem Game sauber die Threads on the fly zwischen P und E Cores zu verteilen?
Sind da alle Register und Cache Einträge kohärent so dass P und E die on the fly austauschen können?
Von E nach P noch eher als von P nach E?
Nicht jeder Thread wird immer zu jeder Zeit die gleiche Rechenlast erzeugen so dass da der Scheduler anhand der TD Telemetrie hin und her wechseln muss...
Wenn das umschalten zwischen P und E Rechenzeit kostet dann kann es da zu Leistungsverlust führen...
In diesem Fall wäre ein bL Prozessor einem UniCore Prozessor bei gleicher Kernanzahl und vgl.barer Durchschnitt IPC unterlegen...
Der_Korken
2021-09-04, 09:55:53
Will ich fürs Gaming nen dicken 8 Kerner haben, muss ich also zu 8P greifen und bekomme unnütze +4E geliefert die auch noch unnütz Kosten verursachen, Strom und Anschaffung. Stromkosten sind mir shiceegal, aber wenn Intel schon einen auf Effizienz machen will, sollen der Laden doch die 4E rauswerfen.
Oder ich nehme 6P+4E, habe dann 10 Kerne wovon 40% Krücken sind und 2 sind sowieso zu viel. :rolleyes:
Wie zugeballert muss man eigentlich sein um auf so Kackcombos zu kommen... :rolleyes:
:freak:
Also bei manchen Posts fällt einem wirklich nichts mehr zu ein ..
E-Kerne rauswerfen, weil sie zu viel Strom verbrauchen ... Stromkosten sind einem egal, aber sich über darüber aufregen, dass die kleinen E-Kerne den P-Kernen den Strom wegnehmen ... und überhaupt sind 10 Kerne zu viel, willste vielleicht noch Aufpreis zahlen, dass Intel dir zwei E-Kerne ausknippst, damit auf deine magische Zahl von 8 kommst? ... und gemessen an der IPC hast du ja bereits jetzt 8 Krücken-Kerne verbaut, nur etwas übertaktet.
Daredevil
2021-09-04, 09:57:45
Vielleicht lassen sich die Small Cores ja exzellent übertakten. ;D
VooDoo7mx
2021-09-04, 12:10:22
Will ich fürs Gaming nen dicken 8 Kerner haben, muss ich also zu 8P greifen und bekomme unnütze +4E geliefert die auch noch unnütz Kosten verursachen, Strom und Anschaffung. Stromkosten sind mir shiceegal, aber wenn Intel schon einen auf Effizienz machen will, sollen der Laden doch die 4E rauswerfen.
Oder ich nehme 6P+4E, habe dann 10 Kerne wovon 40% Krücken sind und 2 sind sowieso zu viel. :rolleyes:
Wie zugeballert muss man eigentlich sein um auf so Kackcombos zu kommen... :rolleyes:
Wenn du E Kerne auf Skylake Niveau sind, sind diese defintiv nicht unnütz wenn gut MT genutzt wird und der Thread Director funktioniert.
Sieht man ja auch daran das der 12900K mit 8 P und 8 E Cores sogar den 5950X mit 16 P Cores in Cinebench schägt, obwohl das sogar die AMD Paradedisziplin ist.
Die E Kerne nehmen auch nur sehr wenig Chipfläche weg.
Und gerade aus Gründen der Energieffizienz hat man diese hinzugefügt um in wenig-Last Szenarios einen geringen Verbrauch zu haben.
Du hast nicht mal im Ansatz verstanden was big.little überhaupt bedeutet.
Weder der 11600, noch irgendwelche "Best Cases" interessieren, wenn ich von Spielen spreche.
Btw. Bestcase 11700F (330€): Killt den 12600 mit AVX512 in dav1d und ggf. bald auch Tesseract...
Reden wir hier jetzt von Spielen oder Spezialanwendungen?
Weil weiter oeben hast du ja von zu hohen Preisen für nur 6 spieletaugliche Kerne gesprochen.
Oder nimmst du nur das raus was dir gerade in den Kram passt?
Ich verstehe auch diese dämlichen Tiraden hier schon weider nicht von wegen von zu teuer blablah.
Jeder der meint, dass diese CPUs nen schlechter Deal sind, der kauft die dann eben nicht.
Rocketlake wird sicher eine ganze Zeit lang dazu noch parallel verkauft werden und wird auch die günstigere Plattform sein.
2022 kommen dann noch die günstigeren Alder Lake wie 12400F usw.
Und AMD CPUs sind doch auch ein sehr gute Alternative.
Ich meine gerade im CPU Markt ist doch alles zu sehr guten Preisen verfügbar. Bald haben wir Alder Lake, Rocket Lake, Zen 3 VCache, Zen 3 udn auch noch Zen 2 CPUs. Da ist doch für jeden in jeden Preisbereich was dabei.
Ich verstehe die Aufregung hier nicht. Wo ist denn das Problem? Wieso muss man hier die eigene Meinung mit Gewalt wieder anderen versuchen aufzuzwingen?
Und wenn ich dann noch so Kommentare lese, bin ich echt stolz auf mich, dass ich schon groß bin und mein eigenes Geld verdiene. Da muss ich nicht seitenweise Foren vollkleistern wegen 100eu CPU Preisunterschied.
Ok wenn man noch Taschengeled oder Hartz IV bekommt, ist das sicher ne ordentliche Stange. Aber sollen wir das hier echt zum Maßstab nehmen?
Vielleicht lassen sich die Small Cores ja exzellent übertakten. ;D
Ich weiß das du das eher witzelnd meinst, ich glaube aber eher nicht.
Ich denke die CPUs werden schon ab Werk so ziemlich an der ineffizientesten Kotzgrenze laufen und sich noch kaum übertakten lassen.
BlacKi
2021-09-04, 12:16:01
Du hast nicht mal im Ansatz verstanden was big.little überhaupt bedeutet.
sie werden erkennen müssen...
Linmoum
2021-09-04, 12:26:51
Was soll man erkennen müssen? Intel kriegt schlicht keine 16 effizienten P-Cores gebacken, deshalb muss halt der Umweg mit zusätzlichen kleinen E-Cores gemacht werden.
Der_Korken
2021-09-04, 13:06:55
Was soll man erkennen müssen? Intel kriegt schlicht keine 16 effizienten P-Cores gebacken, deshalb muss halt der Umweg mit zusätzlichen kleinen E-Cores gemacht werden.
Die Strategie wäre auch mit 16 P-Kernen irgendwann gekommen, weil sie konzeptuell einfach Sinn macht. Dadurch dass MT-Loads von kleinen Kernen abgedeckt werden, kann man bei den großen Kernen in Zukunft kompromissloser auf Leistung gehen und ist nicht dadurch limitiert, dass die großen Kerne nicht zu viel verbrauchen dürfen, damit davon x Stück in Powertarget y passen. Der zuletzt in Gerüchten genannte "Royal Core", der angeblich doppelte Golden-Cove-IPC schaffen soll, dürfte selbst in dem bis dahin verfügbaren Prozess so fett werden, dass davon keine 16 Stück verbaut sind, vielleicht sogar weiterhin nur 8. Ist aber egal, wenn man noch 32 kleine Kerne zusätzlich hat. Mit big.LITTLE schafft man den Spagat, dass ST-Leistung nach wie vor gebraucht wird, aber die extrem schlechte Skalierung der IPC mit mehr Transistoren die Effizienz der ganzen Architektur runterzieht.
MiamiNice
2021-09-04, 13:10:08
Was soll man erkennen müssen? Intel kriegt schlicht keine 16 effizienten P-Cores gebacken, deshalb muss halt der Umweg mit zusätzlichen kleinen E-Cores gemacht werden.
Dürfte wohl eher darum gehen die ST Leistung hoch zu halten und trotzdem im MT was zu reißen. Auch heute gilt noch ST Leistung > MT Leistung aufm Desktop. Das wird sich auch erst mal nicht ändern.
Thunder99
2021-09-04, 13:18:34
Der Vergleich zwischen 16P und 16 Zen3 Cores wird kommen, mit den Server oder Workstation CPUs. Dann wird man sehen, wie viel besser die P Cores sind.
Wenn der Bench von Cinebench wahr ist, dann wird die CPU einfach deutlich mehr verbrauchen als Zen3. 250W+ vs. 142W. Ganz tolle Leistung Intel :freak:
Platos
2021-09-04, 13:23:51
Wo wird der kommen, wenn es keine 16 P Cores geben wird?
Thunder99
2021-09-04, 13:26:07
Wo wird der kommen, wenn es keine 16 P Cores geben wird?
Sapphire Rapids, etc. Müsste dazu die Meldung mal raus suchen.
Grob zusammengefasst: https://www.computerbase.de/2021-08/intel-sapphire-rapids-architektur-und-aufbau-der-next-gen-xeon-cpus/
aufkrawall
2021-09-04, 13:31:49
Und gerade aus Gründen der Energieffizienz hat man diese hinzugefügt um in wenig-Last Szenarios einen geringen Verbrauch zu haben.
Und damit man dann unter Volllast noch viel mehr saufen kann als nur mit BIGs.
Ich verstehe auch diese dämlichen Tiraden hier schon weider nicht von wegen von zu teuer blablah.
Dass du etwas nicht verstehst, ist jetzt glaube ich für niemanden der große Plot Twist.
Nur wer keinen Billigheimer braucht und am liebsten noch viel MT-Performance hat, hat mit hoher Wahrscheinlichkeit schon längst einen 12C/16C Zen 3 (siehe auch die Hardware-Profile in diesem Forum, oder siehst du da auch nur Hartzer. Was ein krudes Weltbild btw...). In ein paar Monaten kann mann dann noch einfach die alte CPU verkaufen und stattdessen ein Cache-Monster mit nochmal wesentlich besserer Spiele-Performance (und ggf. noch weiter verbesserter Effizienz) einbauen. ADL ist für die meisten leistungsfähigen Nicht-Mobile-Systeme schon uninteressant, bevor es überhaupt erschienen ist.
Linmoum
2021-09-04, 13:49:20
Dürfte wohl eher darum gehen die ST Leistung hoch zu halten und trotzdem im MT was zu reißen. Auch heute gilt noch ST Leistung > MT Leistung aufm Desktop. Das wird sich auch erst mal nicht ändern.Wo hast du denn bei 16xP ggü. 8xP/8xE einen Nachteil bei der SC-Performance? Das ist doch völlig irrelevant dafür, du brauchst schließlich nur einzelne Kerne die dann entsprechend hoch takten.
MiamiNice
2021-09-04, 13:51:34
Ihr seht das alle viel zu verbissen. Man kauft was für den angedachten Einsatzweck die beste Option ist und der Fisch ist geschält :biggrin:
Easy as that :cool:
Wo hast du denn bei 16xP ggü. 8xP/8xE einen Nachteil bei der SC-Performance? Das ist doch völlig irrelevant dafür, du brauchst schließlich nur einzelne Kerne die dann entsprechend hoch takten.
Kommt wohl hart drauf an wie schnell die P Cores werden. Wenn die alles andere in ST wegrocken - ist, für mich, alles andere egal (natürlich nach OC).
Platos
2021-09-04, 13:54:37
Sapphire Rapids, etc. Müsste dazu die Meldung mal raus suchen.
Grob zusammengefasst: https://www.computerbase.de/2021-08/intel-sapphire-rapids-architektur-und-aufbau-der-next-gen-xeon-cpus/
Dann vergleicht man es aber mit Zen4 und nicht mit Zen3.
Wo hast du denn bei 16xP ggü. 8xP/8xE einen Nachteil bei der SC-Performance? Das ist doch völlig irrelevant dafür, du brauchst schließlich nur einzelne Kerne die dann entsprechend hoch takten.
Na weil die E-Kerne deutlich weniger Strom verbrauchen? Big.little ist einfach der logische nächste Schritt. Du wirst es aber vermutlich erst anpreisen, wenn AMD es bringt?
mocad_tom
2021-09-04, 14:02:35
Was Intel am Innovation Event herzeigen wird, dass kann man hier erfahren:
https://youtu.be/3jU_YhZ1NQA?t=8100
Wer sich über zu viel Thread-Reibungsverluste bei Alderlake ärgert, der kann bei den P-Cores das SMT abschalten. Ich denke, dass dies dann trotzdem noch eine ziemlich coole Performance abliefert.
Die E-Cores abzuschalten und die SMT-Funktion der P-Cores an zu lassen ist einfach hirnrissig.
Der absolute Overlord wird die HEDT-CPU von Sapphire Rapids.
Wem das Kleingeld egal ist, der kann in dieses Regalfach greifen.
Der_Korken
2021-09-04, 14:06:26
Wo hast du denn bei 16xP ggü. 8xP/8xE einen Nachteil bei der SC-Performance?
Nirgends, aber 16P braucht ca. 1,6x so viel Chipfläche wie 8P+8E und ist in MT möglicherweise kaum schneller, weil die P-Kerne ineffizienter sind und deutlich runtertakten müssen. Außerdem wird anders rum ein Schuh draus: Du könntest in der 8+8-Config die P-Kerne um 50% vergrößern und noch Extra-Cache spendieren, ohne dass du mehr Fläche verbrauchst als 16 P-Kerne alleine. Die "Super-P-Kerne", die du dann hast, werden bei ST wiederum deutlich vor den ursprünglichen P-Kernen landen. Im Endeffekt hast du die Chipfläche besser ausgenutzt: Mehr ST-Leistung (solange nicht mehr als 8 Kerne laufen) bei vermutlich mindestens genauso guter MT-Leistung. Theoretisch kann man noch etwas balancieren und die P-Kerne nur um 33% vergrößern und stattdessen auf 8+16 gehen, um MT auf jeden Fall zu gewinnen.
Linmoum
2021-09-04, 14:07:18
Na weil die E-Kerne deutlich weniger Strom verbrauchen? Big.little ist einfach der logische nächste Schritt.Und warum verbrauchen die E-Cores deutlich weniger Strom? Richtig, weil die P-Cores bei Intel (im Gegensatz zu AMD) noch immer richtige Säufer sind. Genau das ist nämlich das Problem und auch der Grund, warum Intel den Weg über E-Cores gehen muss. Sie haben keine andere Wahl als eine solche Notlösung im Desktop zu bringen. Mobile ist was anderes, aber darum geht es hier nicht. Wobei das Problem natürlich ja nicht (nur) Effizienz ist, sondern auch der Platzbedaruf von Intel für 16xP.
Du wirst es aber vermutlich erst anpreisen, wenn AMD es bringt?
Nach bisheriger Gerüchtelage soll AMD bei big.LITTLE auf Zen5+Zen4 setzen. Wenn das stimmt, dann sind das zwei "fette", effiziente und hochperformante P-Cores, die es geben wird. Und nicht solche billigen E-Cores. Die brauchst du schlicht nur dann, wenn deine P-Cores bei der Effizienz einfach scheiße sind (und du nicht weißt, wie du mehr unterbringen sollst).
aufkrawall
2021-09-04, 14:08:49
Du wirst es aber vermutlich erst anpreisen, wenn AMD es bringt?
Das meinst du zwar polemisch, aber was du ihm vorwirfst, ergibt absolut Sinn. Denn wenn AMD eines fernen Tages littles bringt, werden die natürlich viel energieeffizienter sein als Zen 3-Cores, während Intel mit einem nicht Burst-tauglichen Design für ST-Last gerade mal auffschließt oder leicht überholt.
Daredevil
2021-09-04, 14:26:32
Und warum verbrauchen die E-Cores deutlich weniger Strom? Richtig, weil die P-Cores bei Intel (im Gegensatz zu AMD) noch immer richtige Säufer sind. Genau das ist nämlich das Problem und auch der Grund, warum Intel den Weg über E-Cores gehen muss. Sie haben keine andere Wahl als eine solche Notlösung im Desktop zu bringen. Mobile ist was anderes, aber darum geht es hier nicht. Wobei das Problem natürlich ja nicht (nur) Effizienz ist, sondern auch der Platzbedaruf von Intel für 16xP.
Apple verbaut ebenfalls big.LITTE, egal ob im iPhone, im iPad, im MacBook oder im MacMini/iMac.
Die Effizienzkerne saufen 1/10 der Performance Kerne und am Ende ist es egal, ob ein Performance Kern 12w, 8w oder 2w verbraucht, der Effizienz Kern ist immer deutlich effizienter.
Selbst beim sparsamen M1 "lohnt" es sich, da lohnt es sich natürlich bei Intel und bei AMD wird es sich auch lohnen. Es lohnt sich überall, wenn es richtig umgesetzt wird.
Platos
2021-09-04, 14:28:58
Nach bisheriger Gerüchtelage soll AMD bei big.LITTLE auf Zen5+Zen4 setzen. Wenn das stimmt, dann sind das zwei "fette", effiziente und hochperformante P-Cores, die es geben wird. Und nicht solche billigen E-Cores. Die brauchst du schlicht nur dann, wenn deine P-Cores bei der Effizienz einfach scheiße sind (und du nicht weißt, wie du mehr unterbringen sollst).
Stimmt, inwiefern das das noch ein big.little Konzept ist, ist natürlich fraglich. Das wäre eher ein "Big.old-big@lower clocks"-Konzept (siehe Daredevil's Post). Und ja, stimmt schon, die P-Cores sind bei Intel ineffizient, aber was genau ändert das am Ansatz von big.little? Nichts, es ist einfach eine effizientere Nutzung. Wenn AMD einfach nur die alten Kerne verbaut und niedriger taktet für Big.Little, ist das auch kein wirkliches big.little konzept (Ich glaube/hoffe nicht, dass das genau so passieren wird).
Das meinst du zwar polemisch, aber was du ihm vorwirfst, ergibt absolut Sinn. Denn wenn AMD eines fernen Tages littles bringt, werden die natürlich viel energieeffizienter sein als Zen 3-Cores, während Intel mit einem nicht Burst-tauglichen Design für ST-Last gerade mal auffschließt oder leicht überholt.
Ja, aber Intel fährt dann "eines fernen Tages" immer noch mit den selben E-Cores rum und die werden nie effizienter? Du kannst nicht heutige Kerne mit anderen Kernen "in ferner Zukunft" vergleichen.
Und sind denn die E-Cores von Intel effizienter als die P-Cores von AMD Zen3?
Aber die Diskussion ging doch eigentlich mal darum, dass 8+4 keinen höheren Preis wie vorher rechtfertigt. Das würde ich ja so unterschreiben. Aber das mit den Preisen ist ja heute schon wieder anders. Laut einem anderen Shop sehen die Preise ziemlich genau gleich aus, wie bei Rocket lake und da kann man doch nur sagen, dass es gratis 4 E-Kerne gibt. Also wo ist das Problem bei selbem Preis? Der Energieverbrauch wird sicherlich nicht höher sein, wenn du im Gaming bist. Und wenn die E-Kerne schlafen, zieht das nicht viel Strom. Das wird die P-Kerne kein bisschen ausbremsen. Schlafen sie nicht, dann erledigen sie gerade eine Aufgabe, die die P-Kerne definitiv nicht so effizient lösen können, also spart es Strom und zieht nicht den Strom ab von den P-Cores.
Apple verbaut ebenfalls big.LITTE, egal ob im iPhone, im iPad, im MacBook oder im MacMini/iMac.
Die Effizienzkerne saufen 1/10 der Performance Kerne und am Ende ist es egal, ob ein Performance Kern 12w, 8w oder 2w verbraucht, der Effizienz Kern ist immer deutlich effizienter.
Selbst beim sparsamen M1 "lohnt" es sich, da lohnt es sich natürlich bei Intel und bei AMD wird es sich auch lohnen. Es lohnt sich überall, wenn es richtig umgesetzt wird.
Genau, deshalb frage ich mich auch, was das mit AMD und Zen5/Zen4 soll als big.little Konzept. Ich glaube nicht, dass AMD einfach (dann) alte Zen4 Kerne nimmt und sie niedriger taktet. Das würde nämlich genau gar nichts mit einem E-Kern zu tun haben. Schlicht niedriger Takten macht aus einem P-Kern kein E-Kern.
Daredevil
2021-09-04, 14:35:29
Vielleicht sind "Zen5" Kerne einfach "Big Cores", die auf Effizienz scheißen und maximal lärm machen. Dann macht das schon Sinn, wenn man die "normalen" Zen4 Kerne nimmt, weil Zen4 ( Insofern es wie Zen3 performen sollte ) flexibel ist in der Sache.
Das würde aber auch bedeuten, das es vielleicht keine Prozessoren gibt mit nur Zen5 Cores.
Why not? So spart man sich ordentlich Geld und wird trotzdem schneller. Klingt nach AMD.
Also letzten Endes ist big.LITTE und "Normal" wie x86 und ARM.
Ein Zen3 ist maximal Flexibel und in der Lebenslage zu gebrauchen. ( x86 )
Ein "big.LITTLE" kann sich auf beiden Seiten besser diversifizieren, also SC Performance, MC Performance und Effizienz, dafür muss die Software aber genau auf diesen Prozessor geschrieben werden. ( ARM )
Und solange ein 8c+ Prozessor von AMD nicht in einem Surface Book steckt und ordentlich was leistet, ist AMD auch nicht am Ende der Effizienz.
Selbst Notebooks sind ja heute noch gelähmt, wenn sie nicht am Strom stecken. Effizienz geht immer.
Intel ist halt so sehr hinterher, dass sie wirklich mal was neues bringen müssen.
BlacKi
2021-09-04, 14:41:47
Kommt wohl hart drauf an wie schnell die P Cores werden. Wenn die alles andere in ST wegrocken - ist, für mich, alles andere egal (natürlich nach OC).
die 8 kleinen kerne bringen 8mb l3 cache. ein 8p+8e ist deshalb schneller als ein 8p. das intel die +8e cores bringen muss um effizienztechnisch mithalten zu können ist hoffentlich konsens. und leider geht es nicht nach den powerusern die eben auf den verbrauch scheißen. sonst könnte man ganz einfach eine cpu designen die 64mb cache, 12-16p cores haben, am besten ohne igpu. aber so läuft das eben nicht. so ein chip wäre richtig bescheuert im laptop.
Platos
2021-09-04, 14:45:01
Vielleicht sind "Zen5" Kerne einfach "Big Cores", die auf Effizienz scheißen und maximal lärm machen. Dann macht das schon Sinn, wenn man die "normalen" Zen4 Kerne nimmt, weil Zen4 ( Insofern es wie Zen3 performen sollte ) flexibel ist in der Sache.
Das würde aber auch bedeuten, das es vielleicht keine Prozessoren gibt mit nur Zen5 Cores.
Why not? So spart man sich ordentlich Geld und wird trotzdem schneller. Klingt nach AMD.
Ok, aber dann würde ich das eher als Big.Super-Big bezeichnen und nicht als Big.little. Ausser Zen4 wird derart effizient, dass sie mit Intels E-Kernen mithalten können von der Effizienz her gesehen. Glaube ich aber nicht. Da ja bei AMD Big-little erst mit Zen 5 kommt, müssten dann die Zen4 Kerne auch noch mit den E-Kernen von Meteorlake oder später mithalten (also nicht mehr mit Gracemont, sondern mit Crestmont). Ich denke/hoffe, man wird auf Zen4 basierend eine E-Kern Architektur entwickeln, die sich aber von Zen4 als P-Core unterscheidet.
Mich würde ja mal interessieren, wie die Effizienz von den Intels Gracemont E-Kernen im Vergleich zu AMDs Zen3 Kernen aussieht.
Daredevil
2021-09-04, 14:52:50
Die AMD Chiplets sind doch ein Witz, winzig und Sparsam.
Die würde ich eh nicht als "Big Core" bezeichnen.
Der M1 ist ebenso ein "Witz" mit seiner niedrigen TDP, das ist auf jeden Fall nirgendwo auf "Kante genäht.
Eine 3090, das wäre für mich ein Beispiel für ein "Big Core". ( Nur das sie zu wenig leistet für den Verbrauch :D )
Vielleicht ist das ja AMDs großer Plan gewesen, das wir denken sollen, die Chiplet Cores wären schon alles, was sie können.
Apple hat uns ja auch glauben lassen, dass der M1 ein neuer schneller "Mac" Prozessor ist, am Ende war es aber auch nur ein iPad Chip.
Also der Gedanke, dass man einen Desktop Chip in ein Tablet packt ist ja super fürs Marketing.
In Wirklichkeit ist der M1 im iMac aber nur ein "iPad Chip. ^^
Platos
2021-09-04, 15:05:46
Der M1 ist so ein "Witz" eben weil er richtige E-Cores hat. Das sind nicht einfach niedriger getaktete P-Cores. Aber wie gesagt, mich würde ja interessieren, wie die Effizienz von Gracemont-Kernen im Vergleich zu Zen3 Kernen aussieht. Vlt. gibt es ja dann irgendwann ausführliche Tests dazu.
Daredevil
2021-09-04, 15:40:46
Der M1 ist so ein "Witz" eben weil er richtige E-Cores hat. Das sind nicht einfach niedriger getaktete P-Cores.
Ich habe gerade mal geschaut, was der Cinebench 23 sagt beim M1 Air.
Der MP Ratio beträgt 5.10, also Milchmädchenmäßig leisten die 4 E-Kerne das, was 1.1 P-Kerne leisten würden.
Laut Apple zieht so ein E-Kern 1/10 des P-Kerns.
Ein P-Kern wäre also bei 1508pts in der SC Leistung.
Ein E-Kern wäre dabei dann bei 414pts, und halt 1/10 des Verbrauchs.
Ein Zen3 Kern erreicht bei 4.85Ghz in CB23 1581pts.
Würde man daraus einen "Apple E-Kern" formen wollen, müsste der bei 1,33Ghz laufen.
Das wäre weit unter dem Sweetspot. ^^
PPS:
40 Apple E-Kerne würden soviel saufen ein 4 P-Kerne ( Unter 15w ) und im MC schneller sein als ein 5800x. Dafür wäre die SC Leistung Katastrophal, deswegen gibt es ja auch 2+8 Modelle bei Intel. (:
Thats the Power of big.Little. :D
Slipknot79
2021-09-04, 15:41:54
:freak:
Also bei manchen Posts fällt einem wirklich nichts mehr zu ein ..
E-Kerne rauswerfen, weil sie zu viel Strom verbrauchen ... Stromkosten sind einem egal, aber sich über darüber aufregen, dass die kleinen E-Kerne den P-Kernen den Strom wegnehmen ... und überhaupt sind 10 Kerne zu viel, willste vielleicht noch Aufpreis zahlen, dass Intel dir zwei E-Kerne ausknippst, damit auf deine magische Zahl von 8 kommst? ... und gemessen an der IPC hast du ja bereits jetzt 8 Krücken-Kerne verbaut, nur etwas übertaktet.
Mir sind die Stromkosten egal, Intel sind sie hintegegen nicht egal, also machen der Laden und das Marketing einen auf Effizienz. Außerdem muss Intel erstmal eine nachvollziehbare Bilanz darlegen, ob man als Endkunde tatsächlich Stromkosten spart im Vergleich zum Mehraufwand (4E Kerne) den man zu bezahlten hat.
Welchen Vorteil hat das Konsumopfer von Start/Stop Systemen in Autos, wenn die Elektronik, der Anlasser und die Autobatterie deutliche Mehrkosten verursachen? So viel Start-Stoppen kann man gar nicht, dass man die Kosten als Konsumopfer wieder reinbekommt. :rolleyes:
Nein, Intel soll die 4E Kerne rauswerfen, so brauche ich nicht etwas zu bezahlen, was ich sowieso nicht brauche. Wozu ne 4 Zonenklima, wenn hinten niemand drin sitzt? Schon ärgerlich genug ne integrierte Grafikeinheit im Chip zu bezahlen, jetzt kommt der Laden mit 4E Shice auch noch daher.
K, dann lasse ich den Intel 8P+4E 24/7 auf 100% Last ballern, Beweis erbracht, dick Kohle gespart, rich fag incoming, job ist bereits gekündigt. :rolleyes: Alles Augenauswischerei mit der Effizienz, warum nicht gleich Candy Crush am Smartphone spielen.
Du hast nicht mal im Ansatz verstanden was big.little überhaupt bedeutet.
Du hast nicht mal im Ansatz verstanden, dass ich Gamer bin und nicht Cinebench ballere.
Der_Korken
2021-09-04, 15:53:09
Zen 4 kann sehr wohl zum "little core" werden, wenn Zen 5 nur groß genug ist. Und gemäß der Gerüchte könnte das durchaus so geplant sein, denn Zen 5 soll gegenüber Zen 4 angeblich so viel Performance bringen wie Zen 1 gegenüber Bulldozer. Irgendwo wurde auch mal 2,5-3-fache Zen-1-IPC genannt. Wenn der "Royal Core" von Jim Keller inspiriert sein soll, könnte es ja auch sein, dass er ähnliches bei AMD mal in die Runde geworfen hat und das mit Zen 5 umgesetzt wird. Außerdem sollen die kleinen Kerne "Zen 4D" heißen, könnten also abgespeckt sein (Cache, FPU-Breite, etc.) und/oder weiterentwickelt.
@Skipknot79: Sorry, aber ich verstehe dein Problem nicht. Du bläst hier das Hinzufügen von effizienten Kernen zur Desktop-CPU zu einem Skandal auf, obwohl weder Performance, Verbrauch noch Preis bekannt sind. Die E-Kerne sind nicht extra für deine Gamer-CPU entwickelt worden, sondern für Mobile und eventuell auch für Server. Generell sind die Desktop-Modelle immer die "Abfallprodukte" die durch die beiden anderen Segmente entstehen, weil wenige, schnelle und energiehungrige Kerne ein Nischenmarkt sind, für den es sich nicht lohnt eigene Architekturen zu entwickeln. Konzeptuell könnten E-Kerne aber auch im Desktop Vorteile bringen, wenn man sich mal drauf einlässt, anstatt jede Veränderung pauschal als Schwachsinn zu bezeichnen, nur weil man sie nicht versteht. Nicht jeder Thread eines Spiels braucht exakt gleich viele Ressourcen, sodass die E-Kerne auch für Nebenberechnungen verwendet werden könnten. Ob das auch so in der Praxis aufgeht, wird man sehen, aber schon vorher so rumzuflamen ist echt unangebracht.
BlacKi
2021-09-04, 15:56:14
ich hoffe das die hersteller am virtual L3 arbeiten. das hört sich echt krass an. das big little alternativ los ist, sollte doch mittlerweile durchgedrungen sein, wenn man weiter ST performance sprünge will.
Mir sind die Stromkosten egal, Intel sind sie hintegegen nicht egal, also machen der Laden und das Marketing einen auf Effizienz. Außerdem muss Intel erstmal eine nachvollziehbare Bilanz darlegen, ob man als Endkunde tatsächlich Stromkosten spart im Vergleich zum Mehraufwand (4E Kerne) den man zu bezahlten hat.
Welchen Vorteil hat das Konsumopfer von Start/Stop Systemen in Autos, wenn die Elektronik, der Anlasser und die Autobatterie deutliche Mehrkosten verursachen? So viel Start-Stoppen kann man gar nicht, dass man die Kosten als Konsumopfer wieder reinbekommt. :rolleyes:
Nein, Intel soll die 4E Kerne rauswerfen, so brauche ich nicht etwas zu bezahlen, was ich sowieso nicht brauche. Wozu ne 4 Zonenklima, wenn hinten niemand drin sitzt? Schon ärgerlich genug ne integrierte Grafikeinheit im Chip zu bezahlen, jetzt kommt der Laden mit 4E Shice auch noch daher.
K, dann lasse ich den Intel 8P+4E 24/7 auf 100% Last ballern, Beweis erbracht, dick Kohle gespart, rich fag incoming, job ist bereits gekündigt. :rolleyes: Alles Augenauswischerei mit der Effizienz, warum nicht gleich Candy Crush am Smartphone spielen.
Du hast nicht mal im Ansatz verstanden, dass ich Gamer bin und nicht Cinebench ballere.achso, du verzichtest also gerne auf den extra cache. schade, ich dachte du wolltest maximale performance?
Nightspider
2021-09-04, 15:56:17
Genau, deshalb frage ich mich auch, was das mit AMD und Zen5/Zen4 soll als big.little Konzept. Ich glaube nicht, dass AMD einfach (dann) alte Zen4 Kerne nimmt und sie niedriger taktet. Das würde nämlich genau gar nichts mit einem E-Kern zu tun haben. Schlicht niedriger Takten macht aus einem P-Kern kein E-Kern.
Vielleicht sind "Zen5" Kerne einfach "Big Cores", die auf Effizienz scheißen und maximal lärm machen. Dann macht das schon Sinn, wenn man die "normalen" Zen4 Kerne nimmt, weil Zen4 ( Insofern es wie Zen3 performen sollte ) flexibel ist in der Sache.
AMDs Chiplets bestehen bisher aus 8P Cores im schnellsten Fertigungsprozess.
Was ist da naheliegender als E-Cores in einem stromsparenderen Fertigungsprozess zu fertigen?
TSMC scheint ja in Zukunft wieder eine größere Auswahl an Prozessen anzubieten.
Vielleicht stecken auch einfach 2-4 E-Cores dann mit im IO-Chip, welcher in einem stromsparenden Prozess gefertigt wird.
Wir wissen ja noch nicht wie weit AMD gehen wird mit der Auslagerung des L3 und dem Stacking in 2 Jahren. Vielleicht wird ein großer L3 Cache Chip auf den IO Die gesetzt und darauf kommen die Compute Chiplets.
Technisch ist es mittlerweile möglich, die Frage ist da eher bezüglich der Massenproduktion gegeben.
Zen 4 in Form von Raphael soll auch in Laptops kommen. Wer weiß was AMD da so plant.
Slipknot79
2021-09-04, 16:04:40
achso, du verzichtest also gerne auf den extra cache. schade, ich dachte du wolltest maximale performance?
4E raus (inkl. integrierte Grafik) und durch den freigewordenen Platz in moar $ und/oder in die freigewordenen Ressourcen für mehr Leistung (Transistoren, RnD, Logik etc...) stecken. :wink:
BlacKi
2021-09-04, 16:25:19
4E raus (inkl. integrierte Grafik) und durch den freigewordenen Platz in moar $ und/oder in die freigewordenen Ressourcen für mehr Leistung (Transistoren, RnD, Logik etc...) stecken. :wink:
wie willst du das in einem laptop betreiben? das aufregen über die littlecores ist waste of time.
Nightspider
2021-09-04, 16:29:13
So wie bisher auch. :ugly:
Man sieht ja bei AMD was man schon für geniale Leistung mit 8 Zen3 Kernen im mobile Bereich bekommt.
In Zukunft mit 5nm und 3nm kann es nur besser werden.
Intel muss nachziehen. Welcher Weg der Beste ist, muss sich erst zeigen.
BlacKi
2021-09-04, 16:35:02
bisher? hat man schon über 10 jahre nichtmehr angeboten.
ich mein, selbst zen4 wird integrierte grafik bieten.
Slipknot79
2021-09-04, 16:40:20
wie willst du das in einem laptop betreiben? das aufregen über die littlecores ist waste of time.
War ya bisher auch kein Problem Krücken-CPUs für den Laptopbereich zu bringen und die dicken für den Desktop. (y)
BlacKi
2021-09-04, 16:46:29
wie meinst du das ? beispiel?
Slipknot79
2021-09-04, 16:56:13
wie meinst du das ? beispiel?
Gibt genug 45W TDP Krücken CPUs im Laptopbereich, suche dir eine raus und Vergleiche sie mit Desktopmodellen.
Der_Korken
2021-09-04, 17:00:48
ich hoffe das die hersteller am virtual L3 arbeiten. das hört sich echt krass an.
Worauf genau beziehst du dich? Ein virtueller L3 im Sinne von virtuellen Adressen wäre totaler Quatsch, weil das Teilen von Daten zwischen mehreren Kernen quasi unmöglich wäre und man zudem noch Adresskonflikte zwischen mehreren Prozessen auflösen müsste. Es hat schon einen Grund warum man bis runter zum L1 mit physischen Adressen arbeitet.
Thunder99
2021-09-04, 17:14:48
Ist es nicht, wenn man Performance haben möchte.
Zen 2 und Zen 3 zeigen es ja, was möglich ist. Nur Intel kriegt es nicht gebacken und geht daher einen anderen Weg.
Wenn AMD nachzieht möchte ich wissen was es bei denen für Vorteile hat anstelle die aktuelle Erfolgsspur zu verlassen.
Big Little ist eine Alternative, aber ob sie besser ist als nur volle Kerne zu haben muss sich zeigen ;)
Brillus
2021-09-04, 17:15:13
Das big.LITTLE sehe ich persönlich nur noch ein Henne-Ei Problem. Mittelfristig muss man weg vom Programm läuft optimal auf N Kernen. Das muss man das Design so auslegen das es optimal über eine große Range von Core-Anzahl läuft.
Wenn man soweit ist, ist das Balancing zwischen big und little core auch nicht mehr weit. Dann braucht man big quasi nur noch für Legacy Zeugs.
Gipsel
2021-09-04, 17:56:22
Worauf genau beziehst du dich?
z6u_oNIXFuU
Interessant wird es ab 11:30.
Der_Korken
2021-09-04, 18:22:55
https://youtu.be/z6u_oNIXFuU
Interessant wird es ab 11:30.
OK, so ist das gemeint. Also in gewisser das, was man schon zu Zen 1 Zeiten für AMD spekuliert hat, nämlich dass die CCXs ihre L3-Inhalte teilen bzw. L3-Lines in den L3 eines anderen CCX verdrängt werden können. Damals hat man aber afaik gesagt, dass die Latenzen wegen des IF viel zu hoch wären und auch er Energieverbrauch wäre zu hoch, weil jeder L3-Miss einen "L4"-Lookup in allen anderen CCX auslöst. Bei IBMs Lösung entfällt zumindest zwischen L2 und L3 eine Bus-Latenz, aber Lookups werden trotzdem teuer, weil man bei einem L2-Miss jedes andere L2-Slice komplett durchsuchen mus. Vor allem erscheinen mir die 19 Takte Latenz viel zu wenig für so einen großen Cache. Spätestens wenn der L2 noch Zugriffe von anderen Kernen parallel handeln muss, wird der doch ähnlich komplex wie der L3 bei AMD und Intel. Aber gut, was weiß ich Laie schon :D. Ich bin halt immer skeptisch, weil man sowas mit der bisherigen Technologie ja schon längst hätte bauen können, es aber niemand getan hat.
BlacKi
2021-09-04, 18:37:10
Gibt genug 45W TDP Krücken CPUs im Laptopbereich, suche dir eine raus und Vergleiche sie mit Desktopmodellen.
es sind dieselben Die. darauf wollte ich hinaus.
Platos
2021-09-04, 19:01:28
Ich habe gerade mal geschaut, was der Cinebench 23 sagt beim M1 Air.
Der MP Ratio beträgt 5.10, also Milchmädchenmäßig leisten die 4 E-Kerne das, was 1.1 P-Kerne leisten würden.
Laut Apple zieht so ein E-Kern 1/10 des P-Kerns.
Ein P-Kern wäre also bei 1508pts in der SC Leistung.
Ein E-Kern wäre dabei dann bei 414pts, und halt 1/10 des Verbrauchs.
Ein Zen3 Kern erreicht bei 4.85Ghz in CB23 1581pts.
Würde man daraus einen "Apple E-Kern" formen wollen, müsste der bei 1,33Ghz laufen.
Das wäre weit unter dem Sweetspot. ^^
PPS:
40 Apple E-Kerne würden soviel saufen ein 4 P-Kerne ( Unter 15w ) und im MC schneller sein als ein 5800x. Dafür wäre die SC Leistung Katastrophal, deswegen gibt es ja auch 2+8 Modelle bei Intel. (:
Thats the Power of big.Little. :D
https://www.anandtech.com/show/16192/the-iphone-12-review/2
Wurde hier mal gestestet unter SPECint2006. Für die selbe Aufgabe brauchten die E-Kerne ca. 1/3 der Energie. Der Stromverbrauch ist im Durchschnitt 1/10 und für die Aufgabe brauchten die E-Kerne 3 mal so lange (also 1/10 mal 3 = ca. 3 mal weniger Energie).
Und das ist auch der Punkt. Man darf nicht benötigte Energie (1/3) mit benötigte Leistung (1/10) verwechseln. Wenn man einfach einen P-Kern nimmt und im absoluten Sweetspot betreibt, wird man nicht auf einmal eine drastische Effizienzsteigerungen sehen. Effizienz bedeutet die gleiche Aufgabe mit weniger Energie zu erledigen und nicht, das der Prozessor weniger Strom zieht.
So einen Test würde ich mir als Vergleich zwischen den Gracemont, Golden Cove und Zen3 Kernen wünschen (idealerweise noch Zen3 Kerne und Skylake)
KarlKastor
2021-09-04, 19:12:59
es sind dieselben Die. darauf wollte ich hinaus.
Also ich habe weder Rocket Lake noch Comet Lake 10 Kern Die im Notebook gesehen. Genauso wenig wird der Alder Lake 8+8 im Notebook verbaut werden.
Verstehe nicht was das Notebook Argument die ganze Zeit soll.
BlacKi
2021-09-04, 19:18:34
ich bin davon ausgegangen, 8+8 wird auch im laptop verbaut werden. wenn das nicht stimmt, sry für die unnötige diskussion.
Platos
2021-09-04, 19:28:01
Zen 4 kann sehr wohl zum "little core" werden, wenn Zen 5 nur groß genug ist. Und gemäß der Gerüchte könnte das durchaus so geplant sein, denn Zen 5 soll gegenüber Zen 4 angeblich so viel Performance bringen wie Zen 1 gegenüber Bulldozer. Irgendwo wurde auch mal 2,5-3-fache Zen-1-IPC genannt.
Ich glaube jetzt verwechselt ihr die Bedeutung von Big.little. Big Little bedeutet nicht, dass man (physikalisch) kleinere Kerne nutzt oder schwächere Kerne. Damit sind P- und E-Kerne gemeint (klar, vlt. ist der E-Kern kleiner, aber darum gehts nicht. Klar, kleinere Kerne sind auch günstiger und somit kann man mehr verbauen, aber das macht sie nicht zu E-Kernen). Also nur weil ein Kern weniger Strom zieht, ist er nicht ein E-Kern. Ein E-Kern ist deshalb ein E-Kern, weil er für die selbe Aufgabe weniger Energie benötigt.
Nimmt man also einfach einen Kern und taktet ihn niedriger, ist das kein E-Kern. Es ist immer noch ein P-Kern, der vlt. am Sweetspot betrieben wird. Dadurch kann man etwas an Effizienz gewinnen, aber nicht so viel, wie wenn es wirklich eine andere Kernarchitektur ist. Und wenn Zen5 eine so viel bessere IPC hat (bei gleichem Stromverbrauch), dann wäre ja eher Zen5 ein E-Kern im Vergleich zum Zen4-Kern.
Wie gesagt, ihr verwechselt "niedrigen Stromverbrauch" mit "effizienter". Würde AMD also einfach Zen 4 Kerne nehmen und sie niedriger takten (was ich nicht glaube), wären es keine E-Cores.
https://www.anandtech.com/show/16192/the-iphone-12-review/2
Hier sieht man z.B den Unterschied von P- und E-Kernen von Apple. Die Icestorm-Kerne haben nur 1/10 der Leistung (Watt) wie die grossen, sind aber "nur" 3 mal so Effizient. Die Leistung (W) muss also extrem abnehmen, damit am Ende noch eine höhere Effizienz raus kommt (die Leistung nimmt schliesslich ab). Durch simples niedrigtakten wird man nicht mal annähernd in solche Regionen kommen.
Außerdem sollen die kleinen Kerne "Zen 4D" heißen, könnten also abgespeckt sein (Cache, FPU-Breite, etc.) und/oder weiterentwickelt.
Stimmt, jetzt wo du es sagst. Ich glaube das habe ich auch mal gelesen. Also wie gesagt: Ich sage, es werden nicht einfach Zen4 Kerne sein.
Nightspider
2021-09-04, 19:36:29
bisher? hat man schon über 10 jahre nichtmehr angeboten.
ich mein, selbst zen4 wird integrierte grafik bieten.
Dann redet ihr aneinander vorbei.
Er sprach von Desktop CPUs ohne IGP und du kommst mit Mobile.
Klar braucht man in mobile Chips wenigstens eine kleine IGP.
Aber wie man an Hand von Zen 1-3 sieht kommt man im Desktop auch wunderbar ohne IGP aus.
Wenn man den Rest der OEMs erreichen will braucht man natürlich auch noch wenigstens eine winzige IGP aber das kommt ja bei AMD bald.
MiamiNice
2021-09-04, 19:59:15
Aber wie man an Hand von Zen 1-3 sieht kommt man im Desktop auch wunderbar ohne IGP aus.
Kann man so nicht in den Raum stellen. Wie viele Firmen Office PCs wohl einen Intel statt einen AMD bekommen haben, weil die extra GPU Geld kostet?
BlacKi
2021-09-04, 20:04:02
Kann man so nicht in den Raum stellen. Wie viele Firmen Office PCs wohl einen Intel statt einen AMD bekommen haben, weil die extra GPU Geld kostet?
wie lustig dass du das erwähnst. unsere ivy bridge 4k4t rechner auf der arbeit haben eine dedizierte winzige amd gpu^^ aber normalerweiße würde ich dir recht geben.
Nightspider
2021-09-04, 22:27:11
Kann man so nicht in den Raum stellen. Wie viele Firmen Office PCs wohl einen Intel statt einen AMD bekommen haben, weil die extra GPU Geld kostet?
Es hindert bisher die OEMs ja nichts daran Renoir oder Cezanne zu verbauen.
Und auf der anderen Seite war die Nachfrage jetzt ein Jahr lang so hoch das die Preise über der UVP waren und AMD kaum hinterherkam zu liefern und zuletzt sogar temporär Waferkapazitäten von GPUs zu CPUs verlegt hat. ;)
Sicherlich wären AMD CPUs mehr in Office PCs gewandert mit IGP aber dann wären die Produktionskosten höher und einige von unserer Seite hätten auf Grund des höheren Preises und einem möglichen späteren Release dann vielleicht nicht zu AMD APUs gegriffen, wenn einfach mal der Flächenbedarf >20-40% ansteigt.
Das hätte AMD jetzt vielleicht sogar Milliarden Umsatz gekostet weil man 2020/21 noch weniger CPUs hätte herstellen können.
Bin verwirrt. Lese immer nur Desktop.
Wann ist denn mit ersten alder lake Notebooks zurechnen?
Wann Vorstellung der (ersten) mobilen CPUs?
Wann Vorstellung von Notebooks mit diesen CPUs?
Wann Verfügbarkeit dieser Notebooks in D?
Der_Korken
2021-09-04, 22:54:38
Ich glaube jetzt verwechselt ihr die Bedeutung von Big.little. Big Little bedeutet nicht, dass man (physikalisch) kleinere Kerne nutzt oder schwächere Kerne. Damit sind P- und E-Kerne gemeint (klar, vlt. ist der E-Kern kleiner, aber darum gehts nicht. Klar, kleinere Kerne sind auch günstiger und somit kann man mehr verbauen, aber das macht sie nicht zu E-Kernen). Also nur weil ein Kern weniger Strom zieht, ist er nicht ein E-Kern. Ein E-Kern ist deshalb ein E-Kern, weil er für die selbe Aufgabe weniger Energie benötigt.
Doch das ist mir schon klar. Ich würde aber nicht unbedingt sagen, dass der P-Kern eine Aufgabe mit weniger Energie erledigen können muss, sondern dass der absolute sweet spot das Unterscheidungskriterium ist. Zen 2 skaliert sehr weit nach unten bis 2-3W pro Kern. Auf der anderen Seite skaliert er nach oben aber nur bis knapp 10W (3700X = 88W = 10W/Kern + IO). Darüber kommt quasi keine Leistung, siehe 3800X. Zen 3 skaliert etwas weiter nach oben, weil der Core fetter ist und mehr Takt bei gleicher Spannung schafft. Bei Intel liegt der Skalierungsbereich generell höher, früher wegen 14nm, jetzt wegen der fetten Cove-Kerne. Bei 2W/Kern fällt die Taktrate so in sich zusammen, dass die Effizienz sinkt statt steigt. Und Rocket Lake skaliert locker bis 20W/Kern, wenn man 125W vs 250W Benches sieht.
Wenn Golden Cove noch fetter wird, ist es logisch, dass die Skalierung nach oben weiterhin sehr weit geht, aber die Skalierung nach unten ist das Problem. Daher die Mont-Kerne. Wo genau Zen 4 stehen wird, weiß noch keiner, sagen wir einfach mal er skaliert über einen ähnlichen Bereich wie Zen 3@7nm, Wenn Zen 5 jetzt eine massive Überarbeitung von Zen 4 in Richtung mehr ST ist, verschiebt sich logischerweise auch der Skalierungsbereich nach oben. Dadurch gibt es unten Raum für einen weiterentwickelten und auf geringen Verbrauch getrimmten Zen 4D. Das kann auch geringere Maximaltaktraten bedeuten, wenn man dafür den Kern kleiner und effizienter bekommt. Aus dieser Überlegung ergibt sich automatisch, dass massive MT-Workloads von Zen 4D mit weniger Energieverbrauch erledigt werden, wenn das PPT-Korsett nur eng genug ist. Da sich beide Architekturen aus Zen 4 ableiten werden, wird der Unterschied nicht wie bei Apple Faktor 10 beim absolute Verbrauch sein, aber das ist ja auch nicht in Stein gemeißelt. Bei Intel scheint der Unterschied zwischen Gracemont und Golden Cove auch nicht so riesig zu sein - noch, denn wenn Intel wirklich Richtung doppelte Golden-Cove-IPC geht, wird der P-Kern bei Verbrauch und ST-Leistung noch massov steigen.
Nightspider
2021-09-04, 22:57:34
Ist das dann nicht der relative Sweet Spot, relativ zur Performance gesehen?
Stimme dir aber zu.
Der_Korken
2021-09-04, 23:28:19
Jein, man könnte natürlich auch sagen, dass der Sweetspot des P-Kerns x-mal so hoch sein muss wie der des E-Kerns, damit das Konzept was bringt.
ich bin davon ausgegangen, 8+8 wird auch im laptop verbaut werden. wenn das nicht stimmt, sry für die unnötige diskussion.
8+8 bleibt ADL-S vorbehalten, allerdings soll es auch BGA Versionen davon geben. ADL-S BGA nennt sich das, für dicke desktop replacement Laptops vielleicht eine Option. Also genau genommen sind 8+8 auch für laptops vorgesehen.
Die eigentliche Notebook Serie nennt sich ADL-P/ADL-M und bietet maximal 6+8 Kerne. Siehe Videocardz Übersicht (https://cdn.videocardz.com/1/2021/07/Intel-Alder-Lake-Mobile.jpg)
Hikaru
2021-09-05, 07:05:12
https://youtu.be/z6u_oNIXFuU
Interessant wird es ab 11:30.
Ich vertraue IBM:anonym:
1991. Die Kühlung alleine ist schon sehr interessant. 6 redundante Layer auf dem Substrat um eventuelle Fehler in den unzähligen Layern im Substrat per Laser nachkorrigieren zu können. Eigentlich ist das ganze Ding zur Hälfte redundant weshalb in späteren Revisionen Dies fehlen können, Yield und so. $250.000 der Spass:)
https://www.youtube.com/watch?v=s7lVfOi7su4
Platos
2021-09-05, 13:28:06
Doch das ist mir schon klar. Ich würde aber nicht unbedingt sagen, dass der P-Kern eine Aufgabe mit weniger Energie erledigen können muss, sondern dass der absolute sweet spot das Unterscheidungskriterium ist.
Das ist keine Ansicht, das ist die Definition von Energieeffizienz. Ich habe mir die nicht mal eben ausgedacht. Aber was soll der absolute Sweetspot sein? Also was genau liefert der?
Natürlich muss ein E-Kern eine Aufgabe mit weniger Energie erledigen. Das ist der Grund, warum er überhaupt verwendet wird. Es zählt nicht, wie viel Strom er zieht (W), es zählt, wie viel Energie er verbraucht hat, für die selbe Aufgabe (Joule/Ws). Sorry, aber das ist einfach die Definition von Energieeffizienz.
Es würde auch überhaupt rein gar nichts bringen, wenn ein Kern weniger Strom zieht (W), aber schlussendlich für die Aufgabe gleich viel Energie benötigt hat. Dann hast du nämlich nur einen langsameren CPU Kern, der nicht mal Energieeffizienter ist. Das hast du dann. Was soll das schon bringen?
Hier nochmals das Bild, vlt. hast du es dir ja nicht angeschaut:
Quelle (https://www.anandtech.com/show/16192/the-iphone-12-review/2)
https://images.anandtech.com/doci/16192/spec2006_A14_575px.png
Bei Intel scheint der Unterschied zwischen Gracemont und Golden Cove auch nicht so riesig zu sein - noch, denn wenn Intel wirklich Richtung doppelte Golden-Cove-IPC geht, wird der P-Kern bei Verbrauch und ST-Leistung noch massov steigen.
Momentan kann man sich natürlich nur an das halten, was Intel liefert. Da heisst es, das ein Gracemont Kern bei einer ST-Last 40% weniger Energie verbraucht wie ein Skylake-Kern bei gleicher Perfomance eines Skylake-Kern. Leider gibt es keine Vergleiche zu Golden Cove. Quelle (https://edc.intel.com/content/www/us/en/products/performance/benchmarks/architecture-day-2021/)
Aber das ist nicht gerade wenig. Das ist sehr viel und geht in Richtung Apple. Mal als Vergleich: Apple zieht mit dem Ice Storm Kern ca. 10x weniger Strom (W) und ist aber auch 3x langsamer, wie der Firestrom Kern. D.h der Kern hat zwar eine 10 mal niedrige Leistungsaufnahme (W), aber da er 3 mal länger daran arbeitet (weil 3x langsamer), ist der Energieverbrauch "nur" 10/3 mal kleiner (also ~3 mal niederiger). Verglichen mit einem Skylake-Kern ist aber der Gracemont Kern gleichschnell, die niedrigere Leistungaufnahme (W) resultiert also direkt auch in einem niedrigeren Energieverbrauch (Ws). Laut Intel verbraucht der Gracemont Kern weniger wie 40% (also 0.4x). Laut der Grafik oben, verbraucht der Ice Storm Kern von Apple 0.31 mal so viel Energie für die selbe Aufgabe. Wie gesagt, leider gibt's bei Intel nur ein Vergleich mit Skylake und nicht mit Golden Cove. Aber schlecht ist das nicht und auch nicht sooo weit entfernt von Apple.
Also mal ein Beispiel: Angenommen der AMD E-Kern ist halb so schnell, wie der P-Kern und verbraucht halb so viel Strom. Dann ist er genau gleich energieeffizient (= nutzlos). Will man mit der halben Perfomance eine 1.5-fach bessere Energieeffizienz erreichen (Apple's Ice Storm ist ca. 3.18x so effizient in diesem Benchmark und Intel laut eigener Aussage 2.5x im Bezug auf Skylake), müsste der E-Kern auch 3x weniger Strom ziehen. Will AMD sagen wir mal 2.0x so effizient sein (also doppelt so effizient), müsste der Kern bei halber Perfomance schon eine 4x niedrigere Leistungsaufnahme (W) haben.
Aso du siehst, wo das hinführt. Will man auch nur annähernd konkurrenzfähig sein, dann muss AMD schon etwas liefern, das nicht sooo weit entfernt ist von Apple. Also ca. doppelte Energieeffizienz muss drinn liegen. Ich denke, da liegt auch Intel in etwa im Vergleich zu Goldencove. Aber wie du ja selbst sagst: AMD wird Zen4 Kerne umdesignen, also sollte das auch möglich sein. Aber "bisschen niedriger takten, damit man im Sweetspot ist", wäre nicht konkurrenzfähig. Denn die Zen 4-E-Kerne müssten auch ihren Sweetspot bei deutlich weniger Leistungsaufnahme haben. Der Sweetspot wird sich nach unten schieben, damit man eine deutlich bessere Effizienz erreicht. Da kann man nicht einfach existierende P-Kerne nehmen und niedriger takten. Deren Sweetspot ist viel zu hoch. Deswegen muss man Zen4 Kerne auch zwingend umdesignen (sagst du ja selbst).
Der_Korken
2021-09-05, 13:48:17
Das ist keine Ansicht, das ist die Definition von Energieeffizienz. Ich habe mir die nicht mal eben ausgedacht. Aber was soll der absolute Sweetspot sein? Also was genau liefert der?
Das habe ich doch versucht mit meinem letzten Post zu erklären: Jeder Kern einer Architektur hat einen Watt-Bereich, in dem er halbwegs mit dem Verbrauch skaliert (d.h. mehr Verbrauch wird in mehr Leistung umgesetzt und eine Verringerung der Leistung ermöglicht einen niedrigeren Verbrauch). Wo genau der Sweetspot liegt ist Ermessenssache, man kann aber definitiv sagen, dass er beim E-Kern deutlich niedriger liegen sollte als ein P-Kern. Dass sich dadurch für den E-Kern eine höhere Effizienz einstellt, ergibt sich automatisch, weil das Erhöhen der absoluten Leistung eines Kerns immer überproportional viel kostet. Du kannst die Leistung einer Architektur nicht verdoppeln ohne den Verbrauch (Fläche, Energie) zu verdoppeln (sofern die Ausgangsarchitektur genauso gut optimiert war wie die neue Architektur). Im Übrigen würde deine Definition allein über Energie-Effizienz es nicht ausschließen, dass der E-Kern genauso schnell wie der P-Kern ist, nur effizienter (und der P-Kern somit überflüssig).
Das Bild mit den A14-Kernen kannte ich schon von vorher.
Wir meinen im wesentlichen das gleiche, mir gefällt nur die Definition nicht, dass der Unterschied zwischen E- und P-Kernen die Effizienz ist. Das trifft für mich nicht ganz die Essenz, weil der E-Kern diese Effizienz in einem deutlich kleineren Watt-Bereich erreichen sollte als der P-Kern.
Platos
2021-09-05, 14:10:06
Ja, das stimmt schon. Wenn er einfach nur effizienter ist bei gleicher Aufnahmeleistung, dann ist es immer noch ein P-Kern. Das ist dann in etwa wie Zen2 vs Zen3. Einfach schneller. Aber eine 3x höhere Effizienz würde man so niemals hinkriegen (dann müsste ja die Leistung 3x so hoch sein bei gleichem Stromverbrauch pro Kern).
Also muss man die Architektur umdesignen, so dass der Kern bei deutlich weniger Stromverbrauch (W) aber auch sehr viel Perfomance bringt (eben mehr Perfomance pro W, was Effizienz ist). Ich dachte, das sei klar. Darum habe ich ja gesagt, es geht nicht, wenn man einfach die bestehende Architektur nimmt und niedriger taktet bzw. in deren Sweetspot.
Deswegen sage ich, basiert der E-Kern auf Zen4, ist aber nicht einfach der gleiche oder fast der gleiche niedriger getaktet.
BlacKi
2021-09-05, 15:18:18
Genauso wenig wird der Alder Lake 8+8 im Notebook verbaut werden.
Verstehe nicht was das Notebook Argument die ganze Zeit soll.
https://liliputing.com/wp-content/uploads/2021/07/alder-lake_01-700x345.jpg
https://liliputing.com/2021/07/intel-alder-lake-mobile-chip-lineup-leaked-up-to-16-cores-with-bigsmall-designs.html
aufkrawall
2021-09-05, 15:57:58
Da die littles eine bessere Effizienz haben, würde es ja auch keinen Sinn ergeben, deren Anzahl für MT-Loads zu reduzieren.
Die spannende Frage ist, was in Zukunft bei Mobile mit den BIGs passieren wird. Wenn nicht gespielt wird, würden eigentlich auch schon Stand heute wegen HT zwei reichen. Wenn man bei den littles noch eine Taktbremse löst (etwa in zukünftigen Nodes), könnte man mit höheren Boosts ggf. die BIGs auch in Spielen ersetzen (wenn da nicht noch andere Hindernisse lauern).
smalM
2021-09-05, 16:16:01
Also ein Gracemont verbraucht 40% weniger als ein Skylake, der die dann identische Leistung abliefert?
Wir sprechen über den denselben schweren Säufer Skylake?
Ich bin sowas von beeindruckt…
PS:
Eine kleine Ergänzung zum von @Platos gezeigten Bild für den i9-9900K:
SPECint2006 - 54,28 Punkte - 29,59 W - 64679 J
SPECfp2006 - 75,15 Punkte - 31,05 W - 28800 J
Und eine Abschätzung für den i7-1185G7:
SPECint2006 - 55,28 Punkte - ~21 W - ~45000 J
Wieso wohl Intel Gracemont nicht mit Willow Cove verglichen hat?
Nightspider
2021-09-05, 16:20:21
In 2-3 Jahren könnten die E-Cores schon wieder so schnell sein wie Zen3 oder Rocket Lake. GAA könnte dann wieder einen großen Sprung bringen.
Ist vielleicht die Frage ob man für bessere Effizienz im Niedriglastbereich den Abstand zwischen E und P Cores nicht vergrößern sollte. Sonst saufen die E Cores dann irgendwann auch wieder mehr als nötig.
aufkrawall
2021-09-05, 16:20:37
der die dann identische Leistung abliefert?
Wobei das bislang auch nur für "Number Crunching"-Workloads kolportiert wurde. Die Spiele-Leistung der littles kann wegen Cache-, Inter-Core- und RAM-Anbindung auch auf Zen 1-Niveau oder darunter rumkrebsen. Verdächtig, dass Intel Spiele für die littles bislang komplett ausgeklammert hat, oder nicht?
Der_Korken
2021-09-05, 16:30:03
Also ein Gracemont verbraucht 40% weniger als ein Skylake, der die dann identische Leistung abliefert?
Wir sprechen über den denselben schweren Säufer Skylake?
Ich bin sowas von beeindruckt…
Die Aussage stimmt so nicht ganz. In der von Platos verlinkten Quelle stehen folgende Statements:
If we compare our Efficient-core to a single Skylake core for a single logical process, we deliver 40% more performance at the same power.
[...]
If we compare our Efficient-core to a single Skylake core for a single logical process, we deliver the same performance while consuming less than 40% of the power.
[...]
If we compare four of our new Efficient-cores against two Skylake cores running four threads, we deliver 80% more performance while still consuming less power.
Allerdings finde ich diese Aussagen nicht gut verwertbar. Bei gleicher Leistung soll Gracemont 40% mehr leisten. OK, ich nehme einen mit 5,3Ghz taktenden Skylake-Kern aus dem 10900K, der meinetwegen 50W verbraucht. Nach Intel würde Gracemont aus 50W dann 40% mehr rausholen, was ein absolutes ST-Monster wäre.
In der Realität wird es wohl eher so aussehen, dass ein Gracemont-Kern vielleicht maximal bis 5W skaliert und danach nicht mehr schneller wird, weil er in eine Takt-Wall läuft. Naheliegender wäre es also, den Gracemont mit maximalem Takt laufen zu lassen (3,9Ghz) und den Skylake dann auf den Verbrauch zu beschneiden, den der Gracemont-Kern für 3,9Ghz braucht. Sagen wir mal das wären 5W (aus der Luft gegriffen). Da könnten +40% hinkommen, da der Skylake-Kern taktmäßig wegbricht und irgendwo bei 2,8-3,0Ghz rumdümpelt. Jetzt nimmt man die vom Skylake bei 5W erreichte Leistung und taktet den Gracemont so weit runter, bis er ebenfalls diese Leistung erreicht. Das schafft er bei 2W, also 40% des Skylake-Kerns. Daraus könnte man ableiten, dass die 3,9Ghz schon nicht mehr so effizient laufen bei Gracemont (+150% Power für +40% Leistung) und dass der Sweetspot irgendwo in der Region von 2W liegen könnte, vielleicht sogar noch tiefer.
Die letzte Aussage mit den 80% mehr Leistung (statt 40%) bezieht dann ein, dass man 4C/4T gegen 2C/4T bencht und dadurch mehr Effizienz gewinnt als bei 1C/1T vs 1C/1T.
Edit: Man sollte auch bedenken, dass der Vergleich 14nm vs 10nm beinhaltet ...
Hakim
2021-09-05, 16:58:29
Wie wohl die OC Einstellung Optionen bei den Mobos aussehen werden?? Zwei separate Bereiche für die jeweiligen Kerntypn und All core und Per Core Möglichkeiten jeweils?
mocad_tom
2021-09-05, 18:16:13
Warum ist der E-Core so effizient?
Weil man sich für einen Prozess einen GHz-Sweetspot sucht und dann versucht mit möglichst wenigen Pipeline-Stufen die Aufgaben zu erledigen.
Es gibt die Execution Pipeline und die Cache Pipeline.
Man wird bei einer tieferen Analyse sehen, dass der Cache von Gracemont irrsinnig gut angebunden ist, wenn es um Latenz geht.
Gleichzeitig wird man aber nörgeln, dass er sich nicht OCen lässt.
Ganz klar, weil jede Pipeline-Stufe für sich betrachtet "auf Kante genäht wurde".
Ein fehlgeschlagenes OCen würde bedeuten, dass das Elektron innerhalb eines Takts nicht schnell genug vom Anfang der Pipeline-Stufe zum Ende der Pipeline-Stufe durchlaufen konnte (jede einzelne Pipeline-Stufe für sich ist zu komplex).
Je mehr Pipelinestufen ich habe, desto höher kann ich Takten.
Je weniger Pipelinestufen ich habe, desto weniger Energie benötige ich, renne dann aber urplötzlich gegen die Wand der Lichtgeschwindigkeit.
Deshalb ist die "Taktbremse bei Gracemont lösen" ein Paradoxon.
Der Prozessor wurde mit einer Taktbremse im Pflichtenheft designed.
Bei Apple M1 Icestorm das gleiche.
Gracemont wird allmählich schneller mit jedem Shrink, weil die absolute Wegstrecke in 10nm länger ist, als die absolute Wegstrecke in 7nm.
Wenn Gracemont im "Intel 10"-Prozess 3.8GHz schafft, so kann er im "Intel 4"-Prozess vllt. 4.2GHz schaffen.
Und noch eine Anmerkung:
Bei Skylake 1 Prozess mit 3.7GHz
und Gracemont 1 Prozess mit 3.7GHz liefern beide Prozessoren die gleiche Rechenleistung.
Gracemont braucht hierfür aber nur 40% der Energie von Skylake.
Gracemont ist in diesem Taktnormierten Setting 60% sparsamer als Skylake.
Da geht einiges auf die Kappe der Prozessverbesserung, aber einiges halt auch auf die Kappe des clevereren CPU-Designs.
Der_Korken
2021-09-05, 18:34:02
Und noch eine Anmerkung:
Bei Skylake 1 Prozess mit 3.7GHz
und Gracemont 1 Prozess mit 3.7GHz liefern beide Prozessoren die gleiche Rechenleistung.
Gracemont braucht hierfür aber nur 40% der Energie von Skylake.
Gracemont ist in diesem Taktnormierten Setting 60% sparsamer als Skylake.
Da geht einiges auf die Kappe der Prozessverbesserung, aber einiges halt auch auf die Kappe des clevereren CPU-Designs.
Woraus leitest du die 3,7Ghz ab? Das ist schon fast das Taktmaximum von Gracemont. Und wie passen die +40% Performance bei gleichem Verbrauch dazu? Normierter Verbrauch = das was Gracemont bei 3,7Ghz verbraucht?
Edit:
Deshalb ist die "Taktbremse bei Gracemont lösen" ein Paradoxon.
Der Prozessor wurde mit einer Taktbremse im Pflichtenheft designed.
Trifft das nicht irgendwie auf jedes Design zu? Irgendwo rennt jedes Design in eine clock wall.
Platos
2021-09-05, 19:20:43
Bei manchen ist die Taktwand aber vlt. näher am Sweetspot. Geht also "schneller", sie zu erreichen, wenn man annimt, das E-Kerne am Sweetspot betrieben werden.
mocad_tom
2021-09-05, 20:47:49
Hier steht es nochmal:
https://twitter.com/realmemes6/status/1429069343749464068
5 Gracemont Cores @3.7GHz schlucken so viel wie zwei Skylake Cores ohne SMT @3.7GHz.
perf per Watt ist bei Gracemont 2.5x besser als bei Skylake
https://www.intel.com/ArchDay21claims
Auf 3.7GHz komme ich, weil Jasper Lake mit Tremont im 10nm Superfin schon 3.3Ghz schafft. Gracemont kommt mit 10nm Enhanced Superfin.
mocad_tom
2021-09-05, 22:18:12
Trifft das nicht irgendwie auf jedes Design zu? Irgendwo rennt jedes Design in eine clock wall.
Gehen wir mal zur besten CPU-Analyse, die jemals geschrieben wurde:
http://www.chip-architect.com/news/2003_03_06_Looking_at_Intels_Prescott.html
Jede Pippeline-Stufe wird in einem Takt durchschritten.
Die komplexeste Pipeline-Stufe limitiert mir den maximalen Takt.
Angenommen ich baue eine komplett neue Pipeline.
Im ersten Projektmeeting bestimme ich die Anzahl der Pipeline-Stufen und den FO4-Wert pro Pipelinestufe.
Ein Power6-Prozessor hat ein FO4 von 13, Prescott vermutet man hat einen FO4 von 16.3.
Man kann bei Prozessoren eine Art Unit-Test machen. An die Input-Pins einer Pipeline-Stufe werden Werte angelegt - wie lange(in ns) dauert es, bis an den Output-Pins Werte anliegen.
Bei höherer Voltage passiert das Umladen der Transistoren schneller.
Aktuelle Königsdisziplin (weil der Prozess es so vorgibt):
kleinere Anzahl an Pipelinestufen
jede Pipeline für sich ist komplexer
mehr Issue-Width
FO4 - ich weiß nicht - FO4 vllt bei 40
Dadurch aber dann niedriger Takt.
https://en.wikipedia.org/wiki/FO4
iamthebear
2021-09-06, 01:05:10
Zum Thema Big Little werfe ich hier einmal eine Intel Folie von der Hot Chips ein:
https://pics.computerbase.de/1/0/0/1/4/4-60ae88a97ab688d0/8-1080.6d3168ff.jpg
Es geht bei dem Efficiency nicht um Performance/Watt sondern um Performance/Fläche.
Auf der linken Seite sieht man, dass der Big Core in seinem gesamten Taktbereich bei gleicher Verlustleistung mehr Performance liefert als der Efficiency Core. Es macht also mehr Sinn einen Big Core in einem gemütlichen Taktbereich mit reduzierter Spannung zu betreiben als einen Efficiency Kern mit höherer Spannung zu betreiben.
Der Sinn der Efficiency Kerne ist, dass diese bei multithreaded Lasten mehr Leistung pro Fläche haben. 2 Little Cores sind so schnell wie 1 Big Core, der 2 Threads mit SMT abarbeitet. Die 2 Little Cores benötigen jedoch nur die halbe Fläche.
Das Beispiel von Intel: Statt 4 Big Cores können nun 2 Big Cores + 8 Little Cores verbaut werden. Dies verhält sich in Summe so wie 6 Big Cores (selbe single threaded Performance, 50% mehr multithreaded Performance)
Was die Energieeffizienz angeht, so ist die Überlegung von Intel folgende:
Wenn man auf selber Fläche mehr Kerne unterbringen kann, so kann man bei multithreaded Lasten diese Kerne einfach niedriger takten um dieselbe Performance zu erreichen. 4 Kerne mit 2.5GHz verbrauchen weniger Energie als 2 Kerne auf 5GHz.
iamthebear
2021-09-06, 01:24:38
https://youtu.be/z6u_oNIXFuU
Interessant wird es ab 11:30.
Das ist ein interessanter Ansatz.
Die Frage ist jedoch, ob Desktop CPUs unter Windows überhaupt von so großen L2 Caches profitieren.
Erstens ist der L3 Cache deutlich kleiner und hat somit geringere Latenzen weshalb ein L2 Miss nicht so dramatisch ist.
Und zweitens muss hier ja auch der OS Scheduler mitmachen und dafür sorgen, dass ein Thread auch lange genug auf einem Kern bleibt. Bei Single threaded Compute threads ohne viele IO Zugriffe ist das noch einfacher. Wenn man es jedoch mit einer multithreaded Applikation zu tun hat, wo mehrere Threads an einem gemeinsamen Problem arbeiten und sich ständig gegenseitig locken wenn aif gemeinsame Daten zugegriffen wird dann werden die Threads munter über alle Kerne wandern und gar nie in die Situation kommen ihren L2 voll zu füllen. Wenn ein Thread pro Sekunde 100K Mal pausiert wird und dann auf einem anderen Kern weiter läuft kann ich mir nicht vorstellen wie da die 1.25MB von Alder Lake auch nur im Ansatz befüllt werden sollen.
smalM
2021-09-06, 04:38:24
In der Realität wird es wohl eher so aussehen
In der Realität ist das, was Du da beschreibst, auf einer Intel-Marketingfolie unerwünscht... :wink:
MiamiNice
2021-09-06, 07:52:00
Ist mittlerweile eigentlich bekannt ob man die E Cores manuell abschalten kann und SMT deaktivieren?
Platos
2021-09-06, 11:42:50
@imthebear: Also was willst du damit aussagen? Dass die Energieeffizienz bei selber Leistung wie Skylake nicht 2.5x mal besser ist?
Kleine Kerne müssen natürlich auch physisch klein sein, damit es sich wirtschaftlich lohnt. Aber es geht definitiv um die Energieeffizienz. Die erreicht man nur, weil die Kerne Energieeffizienter sind.
Und bezüglich vier Kerne niedriger takten: Die Kerne müssen trotzdem Energieffizienter sein. Wenn die Rechenleistung pro Fläche höher ist, ändert das erstmal nicht zwingend etwas an der Energieeffizienz. Sie könnte auch höher sein.
CrazyIvan
2021-09-06, 11:52:06
Definitiv!
Sollte sich zeigen, dass Golden Cove bei "irgendeinem" Betriebspunkt eine bessere Energieffizienz aufweist als Gracemont im Sweet-Spot, dann hätte Intel aber beim Design etwas gewaltig falsch gemacht.
Und ja, ich erwarte auch, dass die Abstände zwischen Big und little größer statt kleiner werden. Alles andere macht überhaupt keinen Sinn.
Platos
2021-09-06, 12:29:34
Auf der linken Seite sieht man, dass der Big Core in seinem gesamten Taktbereich bei gleicher Verlustleistung mehr Performance liefert als der Efficiency Core. Es macht also mehr Sinn einen Big Core in einem gemütlichen Taktbereich mit reduzierter Spannung zu betreiben als einen Efficiency Kern mit höherer Spannung zu betreiben.
Siehe übrigens noch den Unterschied in deinem Satz und in dem Satz unten von CrazyIvan. Es ist gut möglich, eigentlich ja sogar völlig logisch, dass die E-Kerne im Taktbereich des P-Cores weniger effizient sind (wären sie das nicht, würde man sie als P-Cores nutzen). Es geht aber nicht um den Taktbereich des P-Cores. Natürlich wird der E-Core im Sweetspot betrieben und die Energieeffizienz wird da einfach höher sein, wie Skylake in irgend einem Bereich. Und sie wird auch höher sein, wie Golden Cove in irgend einem Bereich. Ansonsten hätte Intel die kleinen Kerne erst gar nicht verbaut.
Definitiv!
Sollte sich zeigen, dass Golden Cove bei "irgendeinem" Betriebspunkt eine bessere Energieffizienz aufweist als Gracemont im Sweet-Spot, dann hätte Intel aber beim Design etwas gewaltig falsch gemacht.
Und ja, ich erwarte auch, dass die Abstände zwischen Big und little größer statt kleiner werden. Alles andere macht überhaupt keinen Sinn.
Die Abstände von was? Der Rechenleistung oder der Energieeffizienz oder der absoluten Leistungsaufnahme (Watt)?
CrazyIvan
2021-09-06, 17:32:41
@Platos
Definitiv in Bezug auf die Energieffizienz. Und sehr wahrscheinlich auch in Bezug auf die relative Performance.
Die großen Kerne werden fetter und ineffizienter, die kleinen hoffentlich noch effizienter aber sicher in Relation weniger leistungsstark.
KarlKastor
2021-09-06, 17:46:58
Auf der linken Seite sieht man, dass der Big Core in seinem gesamten Taktbereich bei gleicher Verlustleistung mehr Performance liefert als der Efficiency Core. Es macht also mehr Sinn einen Big Core in einem gemütlichen Taktbereich mit reduzierter Spannung zu betreiben als einen Efficiency Kern mit höherer Spannung zu betreiben.
Was steht unter dem Diagramm?
"Charts are for illustrative purpose only."
Man kann rein gar nichts ablesen außer den zwei Zahlen die Intel dran schreibt. Für alles andere müssen wir Tests abwarten.
basix
2021-09-06, 18:36:14
Entweder ist das eine Nebelkerze von Intel oder die Folie hat einen gewissen Wahrheitsgehalt. Mich hat die Folie jedenfalls im ersten Moment irritiert, da sie impliziert, dass die Big Cores bei tiefen Frequenzen effizienter oder zumindest gleich effizient sind. Bei Mobile ARM-Designs ist das jedenfalls nicht so.
Dass die P-Cores effizienter sind ist nichtmal unmöglich, da z.B. dann 3.5 vs. 2.9 GHz stehen. Ist nach Theorie ~1.7x effizienter aufgrund des geringeren Taktes. Die P-Cores dürfen also deutlich mehr saufen, da die höhere IPC das ausgleicht.
Ich denke, Intel hat zwei Dinge mit den E-Cores vor:
- Erhöhte MT Energieeffizienz bei optimierter Die Size
- Effizienterer Teillastbetrieb. Die E-Cores werden vermutlich mit weniger Energie aufgeweckt werden können.
Ersteres ist ein Kostenfaktor und für Desktop aus Performance-Sicht interessant, letzeres ist vor allem für Notebooks wichtig.
BlacKi
2021-09-06, 19:44:02
Ersteres ist ein Kostenfaktor und für Desktop aus Performance-Sicht interessant, letzeres ist vor allem für Notebooks wichtig.
für alle mit tdp limit. pl2 liegt nur für ein paar sekunden an, dann halbiert sich das pl. wodurch auch im desktop die littlecores sinnvoll sind.
Platos
2021-09-06, 20:04:49
@Platos
Definitiv in Bezug auf die Energieffizienz. Und sehr wahrscheinlich auch in Bezug auf die relative Performance.
Die großen Kerne werden fetter und ineffizienter, die kleinen hoffentlich noch effizienter aber sicher in Relation weniger leistungsstark.
Intel soll die grossen Kerne noch ineffizienter machen? :freak:
Wenn die Kerne ineffizienter werden, dann können sie ja gleich einfach höher takten. Dann hat man etwa das selbe. Alderlake's Baseclock ist ja niedrig. Da kann man dann einfach höher takten. Dann hast du deine Ineffizienz :D
Ne, also da glaube ich nicht dran. Intel muss eher hoch mit der Effizienz. Spätestens, wenn AMD mit E-Cores daher kommt. Dann kann man nämlich nicht mehr mit einer guten MT-Effizienz punkten. Die hat dann AMD schliesslich auch und gleichzeitig auch noch effizientere P-Cores. Abgesehen davon wird wahrscheinlich Intel nicht besser sein in der Effizienz im MT, wie AMD. Zumindest nicht unter Vollast.
Im einzigen Szenario, wo sie besser sein werden, ist Teillast (für Laptops sicher Gold wert). Fettere Kerne heisst übrigens nicht höherer Stromverbrauch. Man kann ja auch kleinere Fertigungsprozesse nutzen.
CrazyIvan
2021-09-06, 20:45:01
@Platos
Für NetBurst bist Du noch zu jung, oder?
Es gibt eine Frequenzmauer. Deshalb sucht man durch mehr Breite nach mehr Performance. Und auch das kostet Effizienz. Intels Strategie gleicht hier absolut der von Qualcomm. Die großen Kerne werden schneller aber ineffizienter, die kleinen effizienter. Best of both worlds für ST und MT.
iamthebear
2021-09-07, 01:58:27
@imthebear: Also was willst du damit aussagen? Dass die Energieeffizienz bei selber Leistung wie Skylake nicht 2.5x mal besser ist?
Natürlich ist ein Gracemont Core 2.5x so energieeffizient wie ein Skylake bei maximalem Takt aber was soll der Vergleich bringen? Auch ein Comet Lake ist doppelt so energieeffizient wie ein Skylake Core bei maximalem Takt und zwar deshalb weil sich Comet Lake in 14nm++++ einfach mehr Takt verträgt und bei 4.2GHz gemütlich dahinwerkelt während Skylake da schon im vollen SC Turbo mit 1.4V brutzelt.
Kleine Kerne müssen natürlich auch physisch klein sein, damit es sich wirtschaftlich lohnt. Aber es geht definitiv um die Energieeffizienz. Die erreicht man nur, weil die Kerne Energieeffizienter sind.
Hat das Intel bisher schon irgendwo erwähnt? Ich habe den Eindruck, das wird den Little Cores einfach nur angedichtet weil es bei Smartphone CPUs so ist.
Und bezüglich vier Kerne niedriger takten: Die Kerne müssen trotzdem Energieffizienter sein. Wenn die Rechenleistung pro Fläche höher ist, ändert das erstmal nicht zwingend etwas an der Energieeffizienz. Sie könnte auch höher sein.
Nein müssen sie nicht. Wenn Intel es schafft auf derselben Fläche doppelt so viele Kerne zu verbauen dann können sie die Kerne einfach mit halben Takt betreiben. Eine CPU mit halben Takt wird in der Regel deutlich weniger als doe halbe Verlustleistung brauchen. Siehe RocketLake: Bei 5GHz schluckt das Teil 300W, bei 4GHz sind es nicht einmal 100W.
Definitiv!
Sollte sich zeigen, dass Golden Cove bei "irgendeinem" Betriebspunkt eine bessere Energieffizienz aufweist als Gracemont im Sweet-Spot, dann hätte Intel aber beim Design etwas gewaltig falsch gemacht.
Und ja, ich erwarte auch, dass die Abstände zwischen Big und little größer statt kleiner werden. Alles andere macht überhaupt keinen Sinn.
Wieso sollte Intel da etwas falsch gemacht haben? Das zeigt nur, dass es ihnen nie um Energieeffizienz ging, denn das macht besonders bei 125W Desktop CPUs echt keinen Sinn. Ein Big Core verbraucht am unteren Ende seines Taktbereichs nicht mal 5W. Welchen Sinn hat es da noch mal 2 Watt raus zu quetschen wenn gleichzeitig das Mainboard 50W zieht?
Siehe übrigens noch den Unterschied in deinem Satz und in dem Satz unten von CrazyIvan. Es ist gut möglich, eigentlich ja sogar völlig logisch, dass die E-Kerne im Taktbereich des P-Cores weniger effizient sind (wären sie das nicht, würde man sie als P-Cores nutzen). Es geht aber nicht um den Taktbereich des P-Cores. Natürlich wird der E-Core im Sweetspot betrieben und die Energieeffizienz wird da einfach höher sein, wie Skylake in irgend einem Bereich. Und sie wird auch höher sein, wie Golden Cove in irgend einem Bereich. Ansonsten hätte Intel die kleinen Kerne erst gar nicht verbaut.
Aber selbst im Sweet spot ist der Little Core auf der Grafik nicht effizienter als der Big Core. Ja er braucht vielleicht die halbe Verlustleistung, hat aber auch nur die halbe Performance. Wenn das ein Hintergrundtask ist und der Performance Core ist mit 5W doppelt so schnell fertig wie der Efficiency Core mit 2.5W welchen Sinn soll das haben?
aufkrawall
2021-09-07, 02:50:32
bei 4GHz sind es nicht einmal 100W.
Schön wäre es. Real geht mein 11400F mit UV bei 95W Drosselung auf bis zu 3,4GHz bei MT runter. Diese Arch gehört komplett auf den Müll.
DeadMeat
2021-09-07, 10:26:32
Schön wäre es. Real geht mein 11400F mit UV bei 95W Drosselung auf bis zu 3,4GHz bei MT runter. Diese Arch gehört komplett auf den Müll.
Das wäre ja deutlich schlechter als beim 10900. Tolle Entwicklung ;D
robbitop
2021-09-07, 10:44:25
Rocketlake war auch nur ein Backport. :)
Mit Alderlake gibt es dann keine Ausreden mehr. (wobei die geleakte Performance schon beachtlich ist)
DeadMeat
2021-09-07, 11:02:53
Wenn die Leaks stimmen würden, wären 3% mehr MT Leistung aber bei 100w mehr Verbrauch. Ich geh schon davon aus das es ein riesen Sprung wird, aber die Leaks sind aktuell viel zu schwammig.
robbitop
2021-09-07, 12:24:23
Naja abwarten. Intel prügelt die Top SKUs halt an das obere Ende der Frequenzkurve. In oberen Bereichen der Kurve sieht es ungefähr so aus: f ~ P³
Das sagt über die uArch selbst wenig aus.
Interessant ist, dass zumindest im CB23 die ST Performance auf ~+25-30% höher war als die von Zen 3.
Der_Korken
2021-09-07, 12:31:41
In oberen Bereichen der Kurve sieht es ungefähr so aus: f ~ P³
Selbst das ist noch optimistisch. Im wirklichen Grenzebereich ist es eher so, dass man pro 100Mhz direkt 100mV oder mehr braucht, also subproportionale Skalierung des Takts mit der Spannung. Da steigt der Verbrauch eher exponentiell mit der Leistung an. In diesen Extrembereichen könnte die Effizienz der E-Kerne dann auch tatsächlich schlechter als die der P-Kerne sein.
Thunder99
2021-09-07, 12:55:33
Um die Performance zu erreichen Schluckt wohl der P Core extrem viel. Um den Verbrauch nicht explodieren zu lassen bei MT "mussten" sie wohl auf P+E Cores gehen. Könnte unter diesem Gesichtspunkt vorstellen, dass 16 P Core langsamer sind als 8+8.
Wenn dann die 8+8 auch noch schneller sind als 16 Zen3 (24T vs. 32T), dann hat Intel aus Performance Sicht alles richtig gemacht. Wenn das Teil aber entsprechend mehr Schluckt als ein aktueller Zen3 5950X dann sieht die Energieeffizienz wieder schlecht aus ;D, egal was das Marketing erzählen möchte ;D
BlacKi
2021-09-07, 12:59:07
Wenn die Leaks stimmen würden, wären 3% mehr MT Leistung aber bei 100w mehr Verbrauch. Ich geh schon davon aus das es ein riesen Sprung wird, aber die Leaks sind aktuell viel zu schwammig.
was meinst du?
BlacKi
2021-09-07, 13:05:31
Um die Performance zu erreichen Schluckt wohl der P Core extrem viel. Um den Verbrauch nicht explodieren zu lassen bei MT "mussten" sie wohl auf P+E Cores gehen. Könnte unter diesem Gesichtspunkt vorstellen, dass 16 P Core langsamer sind als 8+8 und weniger chipfläche benötigen.
Wenn dann die 8+8 auch noch schneller sind als 16 Zen3 (24T vs. 32T), dann hat Intel aus Performance Sicht alles richtig gemacht. Wenn das Teil aber entsprechend mehr Schluckt als ein aktueller Zen3 5950X dann sieht die Energieeffizienz wieder schlecht aus ;D, egal was das Marketing erzählen möchte ;D
habs mal ergänzt.
wenn pl1 greift, dann wird die effizienz allerdings nochmals besser sein als bei 142w. vl kommt ein 142w 5950x am 8+8 gerade so vorbei, schluckt dabei aber mehr. die e cores sind erheblich effizienter, müssen sie auch sein, weil die p cores unglaublich viel schlucken.
ich glaub vergleiche gegen einen 8+8 in pl2 sind schon das worst case. vergleiche darunter gehen zu gunsten von intel.
gerade im laptop bereich, wird big little richtig einschlagen. und wenn ein paar pcores mit von der partie sind, werden einige desktop cpus ziemlich alt aussehen.
DeadMeat
2021-09-07, 13:28:08
habs mal ergänzt.
wenn pl1 greift, dann wird die effizienz allerdings nochmals besser sein als bei 142w. vl kommt ein 142w 5950x am 8+8 gerade so vorbei, schluckt dabei aber mehr. die e cores sind erheblich effizienter, müssen sie auch sein, weil die p cores unglaublich viel schlucken.
ich glaub vergleiche gegen einen 8+8 in pl2 sind schon das worst case. vergleiche darunter gehen zu gunsten von intel.
Wir haben aber die leistung vom 5950x im 144w limit aber schon und laut Leaks braucht der 12900k ~100w (Laut Leak lagen dort PL2 dauerhaft an) mehr für 3% mehr MT Leistung. Bei aktivem PL1 wäre die Leistung also deutlich geringer. Und beim ST sind die Limits ohnehin kaum von bedeutung.
Das meinte ich, die Leaks geben zu wenig her gerade im Bezug auf die MT performance.
Platos
2021-09-07, 14:02:24
Ja, ich will auch mal gerne sehen, wie man bei -100W abschneidet. Vermutlich ~15% weniger Leistung bei MT.
BlacKi
2021-09-07, 14:05:30
Wir haben aber die leistung vom 5950x im 144w limit aber schon und laut Leaks braucht der 12900k ~100w (Laut Leak lagen dort PL2 dauerhaft an) mehr für 3% mehr MT Leistung. Bei aktivem PL1 wäre die Leistung also deutlich geringer. Und beim ST sind die Limits ohnehin kaum von bedeutung.
Das meinte ich, die Leaks geben zu wenig her.
unter pl1 wird die cpu mit 8+8 aber höchsens effizienter. und mit 228w schlägt er den 5950x deutlich, auch unlimitiert ist der 5950x langsamer. es liegt nahe, das der 8+8 auch bei 125w konkurenzfähig bleibt.
ja, ich hätte auch gerne mehr leaks, vorallendingen kein cinebench.
DeadMeat
2021-09-07, 14:11:53
Er schlägt den 5950x mit 3% ,das ist alles andere als deutlich bei 228w. Bei 125w wäre er drastisch niedriger laut den Leaks. Der Cinebench Wert war laut dem originalen Leaker sogar bei 280w.
Das die Kerne Effizienter sind ist klar wenn man sie nicht wie blöde ins Limit drückt, aber wieviel von den +3% überbleiben ohne dramatisch mehr zu verbrauch als die AMDs zu haben wäre interessant.
Die Architektur als extremen Fortschritt zu bewerben wenn man wieder +100w verbraucht und alle Zboards ohnehin die Limits ignorieren finde ich nicht sonderlich berauschend wenn man dabei gerade so mit der älteren AMD architektur gleichzieht.
Echte Benchmarks abseits von cinebench oder geekshit, mal was MT Produktives bei aktiven Limits wäre mal nen cooler Leak statt alles immer ins Limit zu knüppeln.
BlacKi
2021-09-07, 14:21:05
es sind keine 3% eher 16%. bei einer noch nichtmal erschienen cpu, welche nochmal zulegen wird. der leaker hat von 200w+ gesprochen, ohne OC.
DeadMeat
2021-09-07, 14:22:53
Geekbench waren 3%, ich glaub CB23 waren 16% letzteres waren aber wohl auch 280w und GB "nur" PL2.
Ausgehend von 16% und die 280w zu ignorieren würde ich sogar zu stimmen das man beim PL1 oder 142w sogar noch gleichziehen könnte. Zusammen mit dem hohen ST wäre das sogar richtig gut, aber das wissen wir ja leider noch nicht und wenn dann nur im CB.
BlacKi
2021-09-07, 14:24:12
pl2 ist 228w
DeadMeat
2021-09-07, 15:01:27
Stimmt zwar, der CB Leak wurde aber direkt mit 280w ohne limits angeben vom Leaker, stand damals in den Twitter comments vom selben Poster. Ob beides stimmt ist natürlich die andere große Frage.
Der GB Leak lief angeblich* aber mit Pl2. Das ist auch das was ich meinte mit den Leaks, ohne klare Verbrauchs Werte sind auch die Leistungswerte einfach nicht einfach einzuordnen, zumindest im Verhältnis.
Badesalz
2021-09-07, 15:21:09
bei einer noch nichtmal erschienen cpu, welche nochmal zulegen wird.Ah das wird sie? :|
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.