PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18

ChaosTM
2021-11-04, 11:39:02
Der FS2020 ist einfach ein Trauerspiel auf so vielen Ebenen. Dachte immer, dass Intel da leicht vorne liegt.

][immy
2021-11-04, 11:40:21
Der Cache limitiert aber häufig deutlich, sonst gäbe es mit V-Cache nicht zumindest in einigen Spielen >30% mehr Performance laut AMD-Slides.

Kann hier jemand mit Alder Lake mal Octane V2 in Firefox laufen lassen?
Cache ist gut sollte aber deutlich unwichtiger werden wenn man z.B. DDR5 zur Verfügung hat, der ja neben massiv mehr Bandbreite auch kürzere Zugriffszeiten ermöglicht werden (bei entsprechender Taktrate).

Man darf bei den E-Cores auch nicht vergessen, das sind trotzdem keinen wirklichen "kleinen" Kerne. Die können auch einiges an Rechenleistung erbringen. Und so sparsam (wenn man sich die e-core-benches anschaut) scheinen die auch nicht wirklich zu sein. Solange keine Spezialfunktionen vorhanden sind (welche die nicht unterstützen) sollten diese sich fast wie normale Cores verhalten. Bei so was wie Blender (was nun mal so ziemlich alles nutzt was vorhanden ist) etc sollten die daher auch gut Zusatzleistung bringen.

Troyan
2021-11-04, 11:41:29
Paar Werte direkt von Gigabyte: https://videocardz.com/press-release/aorus-reveals-intel-12th-gen-core-alder-lake-s-performance

Der 12600K sieht einfach gut aus. Multi-Core Performance in vielen Fällen auf 11900K Niveau und das bei knapp 100W weniger Verbrauch.

arcanum
2021-11-04, 11:46:35
unglaublich wie gut der 12600K da steht. macht alle teureren cpus fürs gaming überflüssig. der 12400 wird bestimmt auch eine sehr interessante cpu, vor allem wenn der preis bei ~200€ liegen sollte oder alternativ der 12600 wenn er nicht merklich langsamer ist als der 12600K. schön dass intel diese lücke füllt die AMD hinterlassen hat.

gelistet ist die CPU um 320 Euronen $

den 12600K gibt es für 319€ bei MF. geht erstaunlicherweise deutlich schlechter weg als der 12700K und der 12900K. wird sich aber nach den ersten reviews wahrscheinlich ändern.

ChaosTM
2021-11-04, 11:51:22
double, sorry

ChaosTM
2021-11-04, 11:52:11
unglaublich wie gut der 12600K da steht. macht alle teureren cpus fürs gaming überflüssig.


Wenn man daneben nichts mehr macht wie zb. Strömen oder was auch immer, ist die CPU ziemlich gut gelungen, ja.
Wer viel task switching betreibt schaut sich etwas weiter oben um.


gelistet ist die CPU um 320 Euronen $

w0mbat
2021-11-04, 11:58:26
Ich würde sagen, wenn man außer Zocken nichts macht, werden die 6+0 Chips wie zb der i5-12400, das Optimum sein.

aufkrawall
2021-11-04, 12:02:29
Ich würde sagen, wenn man außer Zocken nichts macht, werden die 6+0 Chips wie zb der i5-12400, das Optimum sein.
Bei einer Neunschaffung immer noch nur 6C für Spiele, zwei Jahre nach Zen 2, finde ich nicht prickelnd. Etwas Puffer ist immer gut (womit ich nicht den little-Ballast meine), falls etwa mal irgendein Spiel mit z.B. RT die CPU seltsam belastet. Die reale "Spiele-IPC" ist offenbar nicht so viel höher als bei RKL.
Der 12400 erscheint halt auch dadurch gut, dass 8C RKL bislang immer noch viel zu teuer ist.

Troyan
2021-11-04, 12:36:28
6 Kerne sind nicht 6 Kerne. Gegenüber Skylake ist die IPC >30% besser. Das entspricht also schonmal 8 Skyelake-Kerne. Dazu kommen die 4 E-Kerne vom 12600K.

Wir benötigen einfach viel stärke P-Kerne für Spiele und haufenweise E-Kerne, um die restlichen Threads aufzufangen.

][immy
2021-11-04, 12:42:23
6 Kerne sind nicht 6 Kerne. Gegenüber Skylake ist die IPC >30% besser. Das entspricht also schonmal 8 Skyelake-Kerne. Dazu kommen die 4 E-Kerne vom 12600K.

Wir benötigen einfach viel stärke P-Kerne für Spiele und haufenweise E-Kerne, um die restlichen Threads aufzufangen.
Ich würde mal die dreiste Vermutung schreiben, das wir aktuell einen starken P-Kern brauchen (vielleicht auch 2) aber ansonsten die kleineren E-Cores vollkommen ausreichen.

Aber derzeit ist auch der i5 vollkommen uninteressant. Dafür sind aktuell die Boards viel zu teuer.
Nicht zu vergessen, dem "kleinen" i5 steht je core auch deutlich mehr Speicherbandbreite zur Verfügung. Der hochgetaktete DDR5 Speicher ist da schon etwas overpowered. Da bin ich mal deutlich gespannter auf die DDR4 tests.

robbitop
2021-11-04, 12:43:47
Naja die Anzahl der Kerne ist schon nicht unwichtig. Selbst bärenstarke Kerne fangen an, überproportional problematisch zu werden, wenn es zu viele Threads werden durch das Context switching. Man schaue sich mal neuere Spiele an, wie dort 4C/8T extrem stark abfallen ggü 6C und 8C. Bei zu wenig CPU Threads kann es auch mal unschöne Frametimes geben.
Für den Moment sind 6C unproblematisch und wer alle paar Jahre aufrüstet -> sollte gut damit fahren. Wer aufrüstfaul ist und lange keine schlechten Frametimes haben will, sollte nach mehr Cores schauen.

Allerdings muss man beim 12600K ja konstatieren, dass ja noch ein paar Extra E Cores vorhanden sind. Sofern die sinnvoll eingesetzt werden, können sie das ja verhindern.

aufkrawall
2021-11-04, 12:44:33
6 Kerne sind nicht 6 Kerne. Gegenüber Skylake ist die IPC >30% besser.
Ist ja unglaublich, wenn ich hier in BL2 bei identischen 4,2GHz schon 20% mehr Leistung mit RKL als mit SKL hab. Zwar mit minimal höherem RAM-Takt, aber das hast du ja in deiner Milchmädchenrechnung sicherlich auch unterschlagen...

robbitop
2021-11-04, 12:51:39
Ich bin mal auf die Memorylatency gespannt. Mehr Ringstops und bisherige geleakte Werte lassen ja nicht gerade hoffen. Ich vermute, Intel hat den L1, L2 und L3 nicht ohne Grund nach SKL sukzessive vergrößert um da etwas abzufangen. Kann gut sein, dass man nun wie auch Zen damals trotz der großen, fetten Kerne etwas zu viel auf Speicherzugriffe warten muss. Und auch wie bei Zen hat Intel die Caches vergrößert. Eigentlich ist man nun auf mehr als Augenhöhe mit den Caches (mehr L1, mehr L2, ähnlich viel L3). Erst der VCache bringt Zen 3 dann wieder deutlich nach vorn.

maximus_hertus
2021-11-04, 12:57:13
12600K ist der perfekte Prozessor. Mehr ist eigentlich nicht notwendig.

Leider viel zu teuer. Nicht unbedingt die nackte CPU, aber das drumherum, das man mitkaufen muss. Am Ende habe ich ncihts davon, wenn eine CPU zwar ein tolles P/L Verhältnis hat, aber die Boards und DDR5 beide jeweils teurer als die CPU sind.

Aktuell kostet ein i5-12600K, vernünftiger Kühler, Z690 Mittelklasse und 32GB DDR5 Bundle mindestens 1000 Euro.

Ein 5600X, B550 Board, 32GB DDR4 liegen bei rund 550-600 Euro.
Selbst ein Ryzen 9 5900X, vernünftiges B550 Board und 32GB DDR4 liegen bei rund 900-950 Euro. Und bei i5-12600k vs Ryzen 9 sieht es nicht mehr so toll für den i5 aus.

Klar, irgendwann 2022 kommen die günstigen Boards und irgendwann wird DDR5 günstiger, aber in 2021 ist eben nicht der Fall.

Aktuell ist ALD nett, aber mangels "Infrastruktur" kaum zu empfehlen, gerade in der Mittelklasse bis Oberklasse. Erst bei der PErformance ist alles Fraktion wird es mit ALD interessant.

maximus_hertus
2021-11-04, 13:01:59
unglaublich wie gut der 12600K da steht. macht alle teureren cpus fürs gaming überflüssig.[...] schön dass intel diese lücke füllt die AMD hinterlassen hat.


Ist das so? Wie gerade schon geschriben, was habe ich als Kunde von einer "günstigen" CPU, wenn es nur High End Boards und RAM (preislich) gibt? Die meisten wollen nur 500-600 Euro für Board, CPU, Kühler und RAM ausgeben. Das ist bei Alderlake in 2021 unmöglich (mit DDR5, man wird abwarten müssen, wie viel DDR4 langsamer ist).

MAn bekommt den Ryzen 5 5600X mitsamt vernünftigen B550 Board für den Preis eines vernünftigen Z690 Boards - aber ohne Intel CPU. Ok, evtl. ist das Z690 minimal günstiger. Aber man sieht den Punkt.

Klar, das wird nicht ewig so bleiben und in 2022 hoffentlich gefixt. Aber Stand heute hat doch fast keiner was von Alderlake.

Emil_i_Lönneberga
2021-11-04, 13:05:08
Durch den LTT Leak ist Volker auch gesprächiger geworden:

https://mobile.twitter.com/ayxerious/status/1456141586174152720

https://www.computerbase.de/forum/threads/12900k-12700k-12600k-alder-lake-laeutet-als-12-gen-intel-core-die-hybrid-aera-ein.2049306/page-48#post-26209719

Lol versehentlich .. my ass. Immer die gleichen machen komischerweise immer die gleichen "Versehen". Aber hautpsache USA wird schön getätschelt, während Europa als letztes Samples und alles bekommt, da wir ja angeblich die bösen "Leaker" sind. Aber ganzen Test online stellen zählt wohl nicht als Leak.


Äh ja genau, Alder Lake legt jetzt 12, 13 Prozent zu, Zen 3D soll laut AMD rund 15 Prozent zulegen, also sind es real auch so 10 bis 13 vermutlich. Totales Wegputzen aka Gleichstand wieder.

In Spielen ist die Leistungsaufnhame identisch, Alder Lake ist günstiger, zudem reicht sogar ein 12700K. Ab heute sind sie die beste Gaming-Plattform, das ist Fakt. Was in drei Monaten ist .. ist in drei Monaten. Und Zen 3D Preise will ich nicht sehen, da sie nur ganz oben für zwei CPUs kommen. Dann zahlst du das doppelte für Gleichstand wieder.

Nein mit Zügel. Ob mit oder ohne ist Spielen total egal, denn Alder Lake verbraucht hier im Schnitt 110 Watt. Ein 5950X braucht 100 Watt. Aber Alder Lake ist nun 10+ Prozent schneller, ergo quasi gleich effizient in Spielen.

Ja, deshalb ist der 12600K zum Start auch keine Empfehlung, Boards sind zu teuer. Das wird erst ab Januar besser mit B660 .. aber dann kommen ja auch 12400F usw.

Der 12700K hingegen sieht richtig guuut aus ;)
Dort oben kaufen Ryzen-Kunden ja auch keine 80 Euro Boards mehr, dann gleich sich das etwas an, CPU bei Intel günstiger, Board immer noch teurer, aber passt, DDR4 ist identisch. Für Gaming hast dann eine echte Maschine

fondness
2021-11-04, 13:06:49
Sieht also genau so aus, wie mein Kommentar vorhin, für den ich heftig angeflamed wurde. RKL war eben kein "mieser Backport", sondern alles was damals möglich war. Ein Jahr später gibts einen Shrink und wenns gut geht ~5-10% IPC drauf (DDR5 bringt auch noch etwas) plus little-Kerne. Nüchtern betrachtet bestenfalls pari mit Zen3D, zumal DDR5 natürlich low hanging fruits sind.

Matrix316
2021-11-04, 13:12:31
Meine größte Frage ist eigentlich: Lohnt sich DDR5? Die DDR4 Boards sind ja nicht ganz so teuer und neuen Speicher bräuchte man in der Regel ja auch nicht.

Troyan
2021-11-04, 13:13:10
Leider viel zu teuer. Nicht unbedingt die nackte CPU, aber das drumherum, das man mitkaufen muss. Am Ende habe ich ncihts davon, wenn eine CPU zwar ein tolles P/L Verhältnis hat, aber die Boards und DDR5 beide jeweils teurer als die CPU sind.

Aktuell kostet ein i5-12600K, vernünftiger Kühler, Z690 Mittelklasse und 32GB DDR5 Bundle mindestens 1000 Euro.

Ein 5600X, B550 Board, 32GB DDR4 liegen bei rund 550-600 Euro.
Selbst ein Ryzen 9 5900X, vernünftiges B550 Board und 32GB DDR4 liegen bei rund 900-950 Euro. Und bei i5-12600k vs Ryzen 9 sieht es nicht mehr so toll für den i5 aus.

Klar, irgendwann 2022 kommen die günstigen Boards und irgendwann wird DDR5 günstiger, aber in 2021 ist eben nicht der Fall.

Aktuell ist ALD nett, aber mangels "Infrastruktur" kaum zu empfehlen, gerade in der Mittelklasse bis Oberklasse. Erst bei der PErformance ist alles Fraktion wird es mit ALD interessant.

Günstigstes Board bei AMD mit 3x M.2 Slots kostet über 200€: https://geizhals.de/?cat=mbam4&xf=18947_3

Damit ist die Sache eigentlich durch. Und ich habe kein Plan, was bei Intels z690 noch mehr vorhanden ist, was aktuell AMD fehlt.

Edgecrusher86
2021-11-04, 13:16:23
Es würde mich wundern, wenn es mehr als 5-10% Differenz zwischen DDR4 3200 und DDR5 4800 wären - zumindest bei Highres-Gaming UWQHD, 4K und mehr.

Ja, im Grunde kann man wohl eine vernünftige Basis als Gamer für unter 800€ holen -> 12600K(F), Entry Z690 ASUS Prime-P DDR4 (alten Kühler behalten) und dazu 32GB DDR4 - 50€ Cashback gibt es für besagte Kombination ja auch noch in den teilnehmenden Shops einzureichen bis Ende November.
12T+4T wird sicherlich für die nächsten zwei bis drei Jahre gut performen, wenn langfristig natürlich der i7 zu bevorzugen wäre - klar. Der i9 lohnt dann wohl nur, wenn man es produktiv auch ausnutzen könnte im Prinzip. Die MT-Leistung sollte wohl grob 10% über dem i7 liegen - im optimalen Fall zumindest.

y33H@
2021-11-04, 13:17:44
Und in MSFS20 funktioniert irgendwas nicht richtig.Keine Probleme hier mit ADL und MSFS2020, wie gewohnt in Front :tongue:
Meine größte Frage ist eigentlich: Lohnt sich DDR5?Meistens nicht, aber wenn dann gleich +30% bei Apps oder Spielen :freak:

MiamiNice
2021-11-04, 13:18:42
Es würde mich wundern, wenn es mehr als 5-10% Differenz zwischen DDR4 3200 und DDR5 4800 wären - zumindest bei Highres-Gaming UWQHD, 4K und mehr.

Falscher Ansatz. Wenn es 5-10% Unterschied in 720p sind, sind es die auch in CPU limitierten Games.

---

Ich finde es lustig das CB keine News zu den "leak" auf der Seite hat.

aufkrawall
2021-11-04, 13:20:04
Poste doch mal nach Release bitte einen Octane V2 Score in Firefox. Ist eine bequeme Metrik für ST über verschiedene Plattformen hinweg. Bei Chrome hätte man das Fragezeichen für irgendeine Special Sauce unter Android, daher lieber FF.

basix
2021-11-04, 13:22:38
Meine größte Frage ist eigentlich: Lohnt sich DDR5? Die DDR4 Boards sind ja nicht ganz so teuer und neuen Speicher bräuchte man in der Regel ja auch nicht.

Gibt irgendwo einen Test auf YT, wo Low End DDR5 (4800, ~CL40) gleichauf mit high End DDR4 ist (4800, ~CL20)

Edgecrusher86
2021-11-04, 13:25:39
Falscher Ansatz. Wenn es 5-10% Unterschied in 720p sind, sind es die auch in CPU limitierten Games.

---

Ich finde es lustig das CB keine News zu den "leak" auf der Seite hat.

Wenn ich nur eine möglichst gute und günstige Plattform - die einige Jahre ordentlich läuft - aufbauen will, sind die paar Prozentpunkte doch wumpe. ;)

Wenn ich eh ein CPU-Limit habe, dann kann ich ja auch die Bildqualität steigern bei gleicher Leistung. :D


Nun ja, wenn ich mir ADL-S holen würde als Hauptsystem dann höchstens den i7 - einen i9 erst grob zwei Jahre später, wenn dann mal alles PCI-E 5.0 ist und auch der DDR5 langsam Richtung 10000+ MT/s geht.
ADL-S + Z690 ist halt für mich so eine "nicht Fisch und nicht Fleisch" Plattform. Da fand ich z.B. Zen 2 deutlich durchdachter - von der Anbindung PCI-E her. Es ist etwas schade, dass man nicht zumindest die 20 Lanes der CPU mit 5.0 anbindet -
Stichwort Direct Storage - etwa RTX I/O - in Zukunft. Jetzt könnte man natürlich argumentieren, dass bis dahin die Gamer idR eh schon wieder eine neue Plattform haben. Nun ja, ich nicht - höchstens kommt mal ein kleiner ADL-S oder RPL-S ins Zweitsystem. :)

Linmoum
2021-11-04, 13:29:42
Durch den LTT Leak ist Volker auch gesprächiger geworden:

https://mobile.twitter.com/ayxerious/status/1456141586174152720

https://www.computerbase.de/forum/threads/12900k-12700k-12600k-alder-lake-laeutet-als-12-gen-intel-core-die-hybrid-aera-ein.2049306/page-48#post-26209719Volker spuckt mal wieder große Töne. "Echte Maschine für Gaming". Wenn das jetzt nicht mindestens im Schnitt >30% auf Zen3/RKL sind, dann hat er im Voraus mal wieder viel heiße Luft produziert. Wegen 10-15% verfällt niemand in Ekstase.

r3ptil3
2021-11-04, 13:36:08
In einem bekannten Shop in der Schweiz ist seit Stunden der 12600k und 12700k bestellbar, jedoch hat sich am Bestand noch rein gar nichts geändert, sprich niemand hat bestellt. Einen grossen Fortschritt erkenne ich da...

Pirx
2021-11-04, 13:44:49
Volker spuckt mal wieder große Töne. "Echte Maschine für Gaming". Wenn das jetzt nicht mindestens im Schnitt >30% auf Zen3/RKL sind, dann hat er im Voraus mal wieder viel heiße Luft produziert. Wegen 10-15% verfällt niemand in Ekstase.
heftig, wie parteiisch er bei dem Thema immer noch ist

Tigershark
2021-11-04, 13:51:04
Volker spuckt mal wieder große Töne. "Echte Maschine für Gaming". Wenn das jetzt nicht mindestens im Schnitt >30% auf Zen3/RKL sind, dann hat er im Voraus mal wieder viel heiße Luft produziert. Wegen 10-15% verfällt niemand in Ekstase.

doch, Miami :freak:

Wenn ADL wirklich >10% vorne liegt bei gleicher oder besserer Performance pro Watt als ein ~ 2 Jahre altes Konzept vom Wettbewerb, dann ist das imho "to be expected", mehr aber auch nicht. Wenn hingegen dafür immer die Power-Keule nötig ist und es bei 125W Limit größere Einbußen gibt, dann ist das meiner Meinung nach schwach und erinnert ein wenig an die last-second Versuche von zB AMD im GPU Bereich der Prä-Navi Ära, mit Specs weit außerhalb des Sweetspots doch noch möglichst nah an den Wettbewerber ranzukommen (mit bekanntem Ausgang).

Mortalvision
2021-11-04, 13:52:21
Noch 560 mal F5 drücken…

Linmoum
2021-11-04, 14:12:03
Fazit von CB:
Intel hat das selbst auferlegte Ziel erreicht und stellt mit Alder Lake die schnellsten Gaming-CPUs. Selbst der kleine Core i5-12600K ist in Spielen genauso schnell wie der Ryzen 9 5950X, das Flaggschiff-Modell ist etwa 10 Prozent schneller und der Core i7-12700K liegt mit 8 Prozent mehr FPS dazwischen. Damit ist Alder Lake automatisch die beste CPU, die Intel seit mehreren Generationen auf den Markt gebracht hat – und auch generell gut.

Aber zugleich nicht übermächtig gut. 10 Prozent mehr Bilder pro Sekunde in Spielen als AMDs schnellster Prozessor ist ein ordentliches Ergebnis. Nur ist dieser auch schon wieder fast ein Jahr alt und mit Zen 3 3D wurde ein Leistungsschub zumindest angekündigt. Die Spitzenposition wird die Core-12000-Serie daher vermutlich nur kurz innehaben.

Mortalvision
2021-11-04, 14:14:01
Da lacht man sich ja scheckig. Immerhin hat Intel ein neues Design aufgelegt. In der Folgegeneration und mit gezielterer Ausnutzung von DDR 5 sollten wieder 15-20% drin sein. Erstaunlich, wie gut AMD in Sachen Effizienz noch dasteht!

aufkrawall
2021-11-04, 14:14:15
+3-6% in 720p bei den Perzentilen. ;D

pilzsammler2002
2021-11-04, 14:18:59
Also laut CB in games bis zu 11-8% schneller als der 5600x/5950x bei ca. 10% mehr Watt auch in Games...
:rolleyes:

Anwendungen lassen wir mal lieber weg...

Mortalvision
2021-11-04, 14:19:52
In Anwendungen darf der 360er Radiator nicht fehlen ;D

MiamiNice
2021-11-04, 14:23:10
Damit ist eigentlich alles gesagt.

https://abload.de/img/asdc4kg4.png

robbitop
2021-11-04, 14:27:21
Nicht uninteressant:
Schneller DDR5 bringt ggü DDR4-3200 20% im Spieleperformancerating - den Boost hat AMD ja noch vor sich.
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/7/#diagramm-speicherskalierung-performancerating-avg-fps

Auch interessant:
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/#abschnitt_p_e_und_skylakecore_im_vergleich

1x E Core bietet tatsächlich SKL IPC (was ja lange Zeit im 3DCF bezweifelt wurde). Allerdings mangels SMT und besonders hohen Taktraten kommt man natürlich nicht an Top Skylakes heran. Aber dennoch ein riesen Schritt für die sonst relativ krüppeligen Atom Cores. :)

Raff
2021-11-04, 14:29:55
Ich finde die DDR5-vs-DDR4-Geschichte fast am spannendsten: Intel Core i9-12900K: RAM-Benchmarks - wo DDR4 gegen DDR5 keine Chance hat (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Intel-Core-i9-12900K-RAM-Benchmarks-DDR5-vs-DDR4-1382843/)

MfG
Raff

y33H@
2021-11-04, 14:31:51
Damit ist eigentlich alles zu DDR5 gesagt

;D

https://scr3.golem.de/screenshots/2111/12900K-Alder-Lake-Benches-Games-v2/09-total-war-troy,-battle-benchmark-(ultra-details,-extreme-grass,-720p)-chart.png

FastAndy
2021-11-04, 14:34:52
Damit ist eigentlich alles gesagt.

https://abload.de/img/asdc4kg4.png

lass das mal nicht die leute sehen, die die top dog käufer immer als deppen darstellen und den 12600 so als beste cpu loben:biggrin:

Linmoum
2021-11-04, 14:37:26
Damit ist eigentlich alles gesagt.

https://abload.de/img/asdc4kg4.pngSoll ich die PCGH-Benches zu RDR2 verlinken? ;D

Geht in beide Richtungen.

Rancor
2021-11-04, 14:38:45
Ich bin bisher eher unterwältigt. Dafür das Intel da so ein riesen Bohei drum veranstaltet hat.

w0mbat
2021-11-04, 14:42:28
lass das mal nicht die leute sehen, die die top dog käufer immer als deppen darstellen und den 12600 so als beste cpu loben:biggrin:
Miami sucht sich immer ein Spiel aus in dem Intel gut darsteht und ignoriert alles andere. War schon immer so.

Raff
2021-11-04, 14:43:18
Ich bin bisher eher unterwältigt. Dafür das Intel da so ein riesen Bohei drum veranstaltet hat.

New Tech mit Spezialkernen braucht immer angepasste Software, um sich zu entfalten. Siehe Turing. Das kommt alles mit der Zeit. Der Suff ist leider jetzt schon da (wenn man ihn zulässt/unlocked). :ugly:

MfG
Raff

pilzsammler2002
2021-11-04, 14:46:32
New Tech mit Spezialkernen braucht immer angepasste Software, um sich zu entfalten. Siehe Turing. Das kommt alles mit der Zeit.

Solange die anderen älteren Technologien nicht zu krampfhaft benachteiligt werden ist da ja auch nix gegen einzuwenden :biggrin:

Rancor
2021-11-04, 14:47:48
New Tech mit Spezialkernen braucht immer angepasste Software, um sich zu entfalten. Siehe Turing. Das kommt alles mit der Zeit. Der Suff ist leider jetzt schon da (wenn man ihn zulässt/unlocked). :ugly:

MfG
Raff

Ja mag schon sein. Aber man muss ja auch bedenken das man die gesamte Platform wechseln muss, inkl. CPU Kühler und imho lohnt sich das dafür nicht.

w0mbat
2021-11-04, 14:48:25
New Tech
Für mich ist das nicht wirklich "new tech", wieso nicht gleich 16 unterschiedliche Kerne, damit der scheduler mal zeigen kann, was er so drauf hat? :tongue:

WedgeAntilles
2021-11-04, 14:53:05
lass das mal nicht die leute sehen, die die top dog käufer immer als deppen darstellen und den 12600 so als beste cpu loben:biggrin:
Ob einem +15% Leistung +150% Kaufpreis wert sind muss jeder selber wissen.

Jeder stellt den 12600K/KF als beste Preis-Leistungs-CPU dar.

Was genau soll sich da jetzt geändert haben?

dildo4u
2021-11-04, 14:53:46
Poste doch mal nach Release bitte einen Octane V2 Score in Firefox. Ist eine bequeme Metrik für ST über verschiedene Plattformen hinweg. Bei Chrome hätte man das Fragezeichen für irgendeine Special Sauce unter Android, daher lieber FF.

Schätze mal das ist alle mit Chrome aber eh nur x86.

https://www.techpowerup.com/review/intel-core-i7-12700k-alder-lake-12th-gen/8.html


i7 sieht ok aus wie bei AMD das Top Modell macht nicht mal in Anwendungen Sinn für 200€ Aufpreis.

https://www.techpowerup.com/review/intel-core-i7-12700k-alder-lake-12th-gen/23.html

aufkrawall
2021-11-04, 14:55:28
Damit ist eigentlich alles gesagt.

https://abload.de/img/asdc4kg4.png
Ist es? Zitat Golem:
Schwerwiegender finden wir, dass Anno 1800 unter Windows 10 auf unserem Testsystem durchweg abstürzt - eine Lösung ließ sich nicht finden.
Was wohl auch ein Abschalten der E-Cores beinhalten dürfte.

Gibt ja einige Performance-Wins, aber unterm Strich wirds dann wieder eher mager. Insbesondere gegen den 11900K...

MiamiNice
2021-11-04, 14:59:08
;D

https://scr3.golem.de/screenshots/2111/12900K-Alder-Lake-Benches-Games-v2/09-total-war-troy,-battle-benchmark-(ultra-details,-extreme-grass,-720p)-chart.png

Warum veränderst Du meinen Post so? Mir geht es nicht um DDR4 zu 5, sondern um ST Performance im absoluten ST Limit.

r3ptil3
2021-11-04, 15:03:58
Ersteindruck: ;(

80 Watt IDLE, 240W+ Vollast schon beim kleinen 12600k... waah, nein danke.

dildo4u
2021-11-04, 15:11:20
Ersteindruck: ;(

80 Watt IDLE, 240W+ Vollast schon beim kleinen 12600k... waah, nein danke.

Laut dem ist die Eiffenz auf 5800X Level, nur der Stress Test reist 200 Watt.

https://www.techpowerup.com/review/intel-core-i5-12600k-alder-lake-12th-gen/20.html

Savay
2021-11-04, 15:11:23
im absoluten ST Limit.

Der Foreneigene Cherrypicker mal wieder at it's best...seit wann ist Anno1800 eigentlich das einzige "absolute" ST Limit?! :freak:

aufkrawall
2021-11-04, 15:12:40
240W+ Vollast schon beim kleinen 12600k... waah, nein danke.
Das würd ich jetzt nicht überbewerten, bei Golem bricht der 12900K mit 125W statt 241W kaum ein (mit 150 dürfte man gut bedient sein). Die Effizienz ist schon massivst besser als bei RKL. Dass es gegen den 5950X mit acht P-Cores nicht reichen würde, war ja klar. Dass deine Hoffnungen für Idle/Teillast im stationären Desktop unangebracht waren, allerdings auch. ;)

r3ptil3
2021-11-04, 15:22:43
Dass deine Hoffnungen für Idle/Teillast im stationären Desktop unangebracht waren, allerdings auch. ;)


Techpowerup misst mit DDR5 6000 im IDLE 55W, sieht da nicht mehr so übel aus.

Von den kleinen Cores habe ich mir aber wirklich viel mehr erhofft für den IDLE Betrieb, aber da spielen wohl im Gesamtergebnis andere Komponenten eine wichtigere Rolle.

Savay
2021-11-04, 15:24:49
da spielen wohl im Gesamtergebnis andere Komponenten eine wichtigere Rolle.

Ich dachte das wäre schon mit Zen2/3 allgemein klar geworden, dass aufm Desktop das drumherum für Idle deutlich wichtiger ist als die Kerne selbst.

aufkrawall
2021-11-04, 15:25:41
Techpowerup misst mit DDR5 6000 im IDLE 55W, sieht da nicht mehr so übel aus.

Nicht? Ich hatte mit dem 6700K auf dem Fatal1ty Z170 Gaming K4 mit einer RX 560 ~23W Idle mit 3200 XMP RAM.

Robot
2021-11-04, 15:34:42
Der Idle Verbrauch ist echt übel, ich frag mich nur woher das kommt. Das müssen die Mainboard sein die so derbe viel ziehen, weil die CPU ist es eigentlich nicht.

Oder es sind mal wieder die BIOS Settings die ja immer nur auf "POWER" getrimmt werden.

ich bin bisher nicht unter 47,5 Watt an der Deckdose gekommen. :(

Pirx
2021-11-04, 15:37:07
Warum sollte es nicht an den Boards liegen, die so eine gewaltige Spannungsversorgung haben (müssen?)?

aufkrawall
2021-11-04, 15:37:36
Oder es sind mal wieder die BIOS Settings die ja immer nur auf "POWER" getrimmt werden.

Das Zauberwort ist hier PCIe-ASPM + Package C-States. Beides ist bei ASRock üblicherweise standardmäßig nicht aktiviert. Hat mit dem 6700K problemlos geklappt, mit Rocket Lake hab ich aber BSoDs bzw. laut Linux Terminal-Output wird zwischendurch einfach mal die Verbindung des NVMe-Laufwerks gekappt...

MiamiNice
2021-11-04, 15:45:36
Der Foreneigene Cherrypicker mal wieder at it's best...seit wann ist Anno1800 eigentlich das einzige "absolute" ST Limit?! :freak:

So lange ich, bei jedem Release, die selbe Chrry picke ist doch alles OK. Mache ich seit Jahren und habe ich schon dutzende Male erklärt warum :freak:

aufkrawall
2021-11-04, 15:47:18
Ja, Anno ist bestimmt das einzige Spiel auf der Welt, bei dem ein einzelner Thread die Performance limitiert. Klemmts bei dir echt so gewaltig?

TurricanM3
2021-11-04, 15:50:05
Nicht? Ich hatte mit dem 6700K auf dem Fatal1ty Z170 Gaming K4 mit einer RX 560 ~23W Idle mit 3200 XMP RAM.

Gerade mal geschaut, meiner nuckelt sich idle min. 115w aus dem Döschen. :conf:

MiamiNice
2021-11-04, 16:07:48
Ja, Anno ist bestimmt das einzige Spiel auf der Welt, bei dem ein einzelner Thread die Performance limitiert. Klemmts bei dir echt so gewaltig?

;D
Wenn dann klemmt es eher bei den Testern die solche Spiele gerne nicht testen. Also muss ANNO herhalten. Oder schon mal einen Eft, SC, SoL, oder VR Benches gesehen? Nicht? Dann wohl ANNO, kommt mir seiner Uralt Engine den Spielen am nächsten :rolleyes::cool:

Raff
2021-11-04, 16:56:00
Man geht gemeinhin davon aus, dass Leser von Tests wissen wollen, wie die neueste Blockbuster-Software mit der neuesten Blockbuster-Hardware läuft. Tatsächlich fehlen dazu empirische Tests, weshalb ich es als gute Idee ansehe, einige Evergreens (Old Tech ;)) dazuzumischen - vor allem, wenn die laufen wie ein Sack Kokosnüsse (etwa Kingdom Come und Anno).

MfG
Raff

Geldmann3
2021-11-04, 17:05:35
Ich würde ja gerne auf den 12900K umsteigen, brauche in nächster Zeit außerdem 128GB Ram doch bin mir noch nicht schlüssig, was für Ram ich kaufen soll? Zurzeit habe ich 4 16GB 3200 DDR4 CL14 Module verbaut.

Geld soll beim Ram keine große Rolle spielen, doch es gibt irgendwie gar nicht die Kits, die ich gerne hätte. DDR5 6400 mit guten Timings wäre schon nice.
Ich kann auch nicht einfach meinen DDR4 Ram nochmal mitnehmen, denn dann müsste ich später das Board tauschen.
Hmm.
Oder ich warte einfach bis es ordentlichen DDR5 Ram zu kaufen gibt.

MiamiNice
2021-11-04, 17:30:50
Man geht gemeinhin davon aus, dass Leser von Tests wissen wollen, wie die neueste Blockbuster-Software mit der neuesten Blockbuster-Hardware läuft. Tatsächlich fehlen dazu empirische Tests, weshalb ich es als gute Idee ansehe, einige Evergreens (Old Tech ;)) dazuzumischen - vor allem, wenn die laufen wie ein Sack Kokosnüsse (etwa Kingdom Come und Anno).

MfG
Raff


Ist ja nicht nur das. Die neusten Blockbuster sind meist totoptimiert, haben irgendwelche Engines die dauernd verwendet werden und werfen eh genug FPS.
Wenn man aber nicht gerade der AAA Titel Gamer ist, sind derart Benches ziemlich unbrauchbar. Die heute coolen Games werden von Studios entwickelt die gar nicht die Menpower haben um zu optimieren.
Ich würde gerne mal einen EfT Bench sehen mit den neuen CPUs. Vielleicht kannst Du da mal tätig werden.

gedi
2021-11-04, 17:34:34
Ich würde ja gerne auf den 12900K umsteigen, brauche in nächster Zeit außerdem 128GB Ram doch bin mir noch nicht schlüssig, was für Ram ich kaufen soll? Zurzeit habe ich 4 16GB 3200 DDR4 CL14 Module verbaut.

Geld soll beim Ram keine große Rolle spielen, doch es gibt irgendwie gar nicht die Kits, die ich gerne hätte. DDR5 6400 mit guten Timings wäre schon nice.
Ich kann auch nicht einfach meinen DDR4 Ram nochmal mitnehmen, denn dann müsste ich später das Board tauschen.
Hmm.
Oder ich warte einfach bis es ordentlichen DDR5 Ram zu kaufen gibt.

Warten auf Dezember, Januar und dann entscheiden. Da gibt es eigentlich nix, was mich aus dem Sockel reißt. Der 12700k ist eine echt gute CPU geworden, i9 enttäuscht hier.

Thunder99
2021-11-04, 17:45:18
Der hohe Verbrauch im idle ist kein Wunder, siehe auch bei AMD X570 und B550. Die Z690 müssen auf 300W+ ausgelegt sein. Das kostet.

Savay
2021-11-04, 17:56:57
Dann wohl ANNO, kommt mir seiner Uralt Engine den Spielen am nächsten :rolleyes::cool:

Und das weißt du woher?
Anno sagt was über Anno aus...mehr aber auch nicht...und das ist halt tatsächlich auch absolut alles was es dazu zu sagen gibt! :freak:

Tatsächlich fehlen dazu empirische Tests, weshalb ich es als gute Idee ansehe, einige Evergreens (Old Tech ;)) dazuzumischen -

Ist das so? Ich mein so richtigen "Old-Tech" Kram habt ihr in dem Sinne ja auch nicht drin...aber wenn man es wirklich wissen will, bencht man dann nicht besser auch mit Photoshop CS3 oder unter Windows XP, 7 oder nimmt ältere 32bit Bins von Handbrake oder sowas wie GTA3? :wink:
So wie es Anandtech teils für sonstige SW macht und es separat auflistet?
Ich mein, nice to know ist es, aber die Frage ist was man sich von dem Aufwand verspricht...es sind doch eh Momentaufnahmen.

Platos
2021-11-04, 18:04:19
Ich würde ja gerne auf den 12900K umsteigen, brauche in nächster Zeit außerdem 128GB Ram doch bin mir noch nicht schlüssig, was für Ram ich kaufen soll? Zurzeit habe ich 4 16GB 3200 DDR4 CL14 Module verbaut.

Geld soll beim Ram keine große Rolle spielen, doch es gibt irgendwie gar nicht die Kits, die ich gerne hätte. DDR5 6400 mit guten Timings wäre schon nice.
Ich kann auch nicht einfach meinen DDR4 Ram nochmal mitnehmen, denn dann müsste ich später das Board tauschen.
Hmm.
Oder ich warte einfach bis es ordentlichen DDR5 Ram zu kaufen gibt.

Zockst du nicht sowieso mindestens in 4k (eher mehr)? Dann dürfte dir eine neue CPU vermutlich nicht sooo viel bringen. Ich würde auf Raptor Lake warten, weil DDR5 jetzt noch zu teuer ist usw.

Btw: Was machst du mit 128GB RAM :D :eek:?

davidzo
2021-11-04, 18:27:49
Ob einem +15% Leistung +150% Kaufpreis wert sind muss jeder selber wissen.

Jeder stellt den 12600K/KF als beste Preis-Leistungs-CPU dar.

Was genau soll sich da jetzt geändert haben?

Man muss das aber immer auf das Gesamtsystem rechnen. Also Mainboard, RAM und Netzteil bleiben ja in beiden Fällen gleich. Und da sind es plötzlich nur noch 15% Aufpreis für 15% mehr Leistung. Das kann man schon machen.

Insgesamt ist das für mich aber keine Next gen CPU. Es zeigt einfach wie unterlegen der 10nm Prozess trotz extrem aufgebohrter Architektur und relativ großer Diesize weiterhin ist. Da hilft auch die Umbenennung in Intel7 nicht, TSMCs N7 ist weiterhin unerreicht, sowohl bei V/F als auch bei der realen Density.
Anscheinend hat man mal wieder extrem an der TDP und Taktratenschraube drehen müssen um kompetitiv zu sein, so dass von den Prozesseffizienzgewinnen nicht viel übrig bleibt. Ein überzeugender "AMD's Lead Is History"-Moment wie Gelsinger den angekündigt hat ist das für mich nicht.

Selbst die E-Cores sind nicht viel effizienter wie CB festgestellt hat. Da hätte man statt der 8x E-Cores auch ein paar mehr P-Cores nehmen können um auf dieselbe MT Leistung zu kommen. Die E-Cores sind lediglich in Bezug auf die Diefläche ein wenig Effizienter als die P-Cores. Aber von Größenordnungen bi 200-300% mehr Effizienz wie das etwa bei Apple der Fall ist, ist man da noch weit weg.
Insgesamt wirkt der Big Little Ansatz eher evolutionär, bzw. wie die E-Kerne ein feature-Gimmick und nicht wie eine Revolution wie es damals bei Arm big/little war.

Bei Gaming ist die Architektur wider Erwarten doch sehr gut, wenn auch keine Größenrodnungen besser als Zen3. Das wars dann aber auch schon. Sieht eher so aus als sollte man Zen3D abwarten, insbesondere wenn man noch DDR4 und ein board hat.

Wuge
2021-11-04, 18:32:06
Mich würde tatsächlich auch mal interessieren was so ein neues System im Generationenvergleich bei älteren Engines bringt. Ich zocke DCS World und manchmal MSFS2020 und würde mein System kompromisslos darauf auslegen. In VR ist die GPU eh hart im Limit aber manchmal kommts auch auf Draw Calls an. Und PCIe 4.0+ etc... sind ggf. auch Faktoren. Wäre schon interessant zu wissen ob mittlerweile ein Abstand zum 6950X@4.6 GHz zu spüren wäre. Also mehr als 10-15%...

BlacKi
2021-11-04, 18:51:16
wenigstens einer der ordentlich getestet hat. ddr4 4600 cl 18 vs ddr5 5600 cl34


sehr merkwürdig ist allerdings noch, das eine speichervariante nicht in allen szenen immer schneller ist, sondern das wechseln kann.


tatsächlich finde ich den 12600k am interessantesten mit meinem 4400er ddr4 ram. das dürfte schon fast an die performance mit ddr5 ran kommen.


wie ich schon vermutet habe, ddr5 4400 cl38 ist langsamer als ddr4 3200cl14 schon wegen des taktes des memory controllers.



CxWEHaJGTEs

dildo4u
2021-11-04, 18:57:30
Games werden zu Single Thread lastig sein um den Ram zu nutzen Alderlake + DDR4 fällt komplett zusammen in Workstaktion Anwendungen wenn alle Kerne genutzt werden.


https://abload.de/img/1174930oklw.png

https://abload.de/img/1174961c8j8s.png

https://www.anandtech.com/show/17047/the-intel-12th-gen-core-i912900k-review-hybrid-performance-brings-hybrid-complexity/8

KarlKastor
2021-11-04, 18:59:07
Ich finde die DDR5-vs-DDR4-Geschichte fast am spannendsten: Intel Core i9-12900K: RAM-Benchmarks - wo DDR4 gegen DDR5 keine Chance hat (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Intel-Core-i9-12900K-RAM-Benchmarks-DDR5-vs-DDR4-1382843/)

MfG
Raff
Dafür hätte eine vernünftiges DDR4 Setting vorhanden sein müssen.

Geldmann3
2021-11-04, 19:09:43
Ich vermisse an dieser Stelle ja ein DDR4 3200 CL 14er Kit. Außerdem würde ich die Performance mit DDR5 und DDR4 unter Alder Lake gerne mal mit anderen CPUs verglichen sehen.

Wuge
2021-11-04, 19:52:22
Das Problem bei den kurzfristigen Tests, man kann sicher keine Subtimings optimieren. DDR5 wurde optimiert um Latenzen zu verstecken (mehr Bank Groups) und den Refresh Penalty zu reduzieren (per abank refresh). Läuft mit JEDEC oder XMP Timings dann gut. Bei DDR4 kann man da extrem viel mit Subtimings machen, z. b. Refresh Penalty auf 1/8 reduzieren, auch ggü. XMP. Das wäre alles sehr interessant.

Es ist vielleicht auch so, dass Alder Lake bei DDR4 den halben Speichercontroller ungenutzt lässt, also die ques und so. Es sind ja 4 Channels vorhanden, die man mit DDR4 nicht nutzen kann. Fragt sich, wie das verdrahtet ist.

Dachte aber nicht, dass RAM überhaupt so einen Einfluss haben kann. Zumal Quad Channel DDR4 meinem Gedächtnis nach ggü. Dual schon kaum was brachte und Quad DDR4 müsste 4x32 Bit DDR5, also das neue Dual Channel ja überlegen sein.

BlacKi
2021-11-04, 20:01:47
Dachte aber nicht, dass RAM überhaupt so einen Einfluss haben kann. Zumal Quad Channel DDR4 meinem Gedächtnis nach ggü. Dual schon kaum was brachte und Quad DDR4 müsste 4x32 Bit DDR5, also das neue Dual Channel ja überlegen sein.


quadchannel bringt keinen latenzvorteil, höhere taktrate und timings dagegen schon. und games lieben niedrige latenzen.

Wuge
2021-11-04, 23:49:44
Die Latenzen sind aber bei DDR5 erheblich schlechter!

w0mbat
2021-11-05, 00:15:59
Du kannst die Latenzen zwischen DDR4 und DDR5 nicht mehr so einfach vergleichen, da sich bei DDR5 sehr viel geändert hat.

iamthebear
2021-11-05, 00:29:41
Anscheinend hat man mal wieder extrem an der TDP und Taktratenschraube drehen müssen um kompetitiv zu sein, so dass von den Prozesseffizienzgewinnen nicht viel übrig bleibt. Ein überzeugender "AMD's Lead Is History"-Moment wie Gelsinger den angekündigt hat ist das für mich nicht.

Ich denke da muss man etwas differenzieren. Bei Multimediaanwendungen die alle 24 Threads voll auslasten säuft er ganz schön. Das liegt aber primär daran, dass AMD das 140W Limit erzwingt und der 5950X bei Volllast auch schon ziemlich kräftig runter taktet während der 12900K stur weiterhin annähernd die maximalen Taktraten weiter fährt.
Der 5950X kann es sich mit 16 vollwertigen Kernen halt auch leisten etwas zurückzuschrauben.

Vergleicht man jedoch die Verlustleistung bei Spielen, wo in der Regel nur 6 Big Cores aktiv sind kann die Sache schon ganz anders aussehen vor allem wenn man eher praxisnähere Auflösungen testet, wo auch schon mal die GPU ein bisschen bremst:

https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/7/

Besonders der 5900X und 5950X steigen hier deutlich schlechter aus als erwartet, was aber kein Win11 Problem ist denn bei früheren Tests war es ähnlich.

Ob die Werte so wirklich stimmen wird sich in weiteren Reviews zeigen müssen aber ich unterstelle Igor einmal, dass er weiß wie man die Verlustleistung richtig misst und von Intel gekauft ist er offensichtlich auch nicht, wenn er sich die CPUs schon selbst kaufen muss.

Selbst die E-Cores sind nicht viel effizienter wie CB festgestellt hat. Da hätte man statt der 8x E-Cores auch ein paar mehr P-Cores nehmen können um auf dieselbe MT Leistung zu kommen. Die E-Cores sind lediglich in Bezug auf die Diefläche ein wenig Effizienter als die P-Cores. Aber von Größenordnungen bi 200-300% mehr Effizienz wie das etwa bei Apple der Fall ist, ist man da noch weit weg.
Insgesamt wirkt der Big Little Ansatz eher evolutionär, bzw. wie die E-Kerne ein feature-Gimmick und nicht wie eine Revolution wie es damals bei Arm big/little war.

Das habe ich euch ja schon die letzten paar Wochen versucht zu erklären, dass es primär um die Die Fläche geht und wurde dafür gesteinigt :freak

Ich muss aber zugeben, dass ich noch mit mehr Verlustleistung gerechnet hätte, dafür aber auch mit etwas mehr Performance.
Ich habe den Verdacht, dass die 3.9GHz der E Cores noch nicht das Maximum darstellen sondern dass Intel diese bewusst etwas niedriger getaktet hat und hier noch mehr als 3.9GHz drin sind. Hat schon jemand versucht wie weit man diese übertakten kann. Ich denke um die 4.5GHz sollten eigentlich drin sein :biggrin:

Was man anhand der Benchmarks von CB jedoch gut sehen kann ist, dass man bei MT Workloads damit deutlich effizienter sein kann weil mehr Kerne zur Verfügung stehen. Ein 12900K 125W ohne E Cores ist so schnell wie ein 12900K 65W mit E Cores.

Auch interessant sind die Tests mit unterschiedlichen Kernkombinationen unter MT Load jeweils mit 65W Limit:
.) 8+0 ist so schnell wie 4+8 (gleiche Threadanzahl)
.) 6+8 ist 13% schneller als 8+0 (gleiche Fläche) bzw. Vorausschau für "was bringt Big/Little im Notebook"
.) 8+8 ist 26% vor 8+0
.) 8+8 führt zu 3.2/2.6GHz, 8+0 führt zu 3.5GHz. Mit der Verlustleistung die man sich mit 300MHz bei den P Cores spart kann man die E Cores bis 2.6 GHz hoch takten. Was wird da wohl die Aufteilung sein? 50W für die P Cores + 15W für die E Cores?

Bei Gaming ist die Architektur wider Erwarten doch sehr gut, wenn auch keine Größenrodnungen besser als Zen3. Das wars dann aber auch schon. Sieht eher so aus als sollte man Zen3D abwarten, insbesondere wenn man noch DDR4 und ein board hat.

Also ich muss ehrlich sagen, dass ich mir beim Gaming eher mehr erwartet hätte. Die 10% die Golden Cove vor RKL ist hätte man alleine mit dem größeren L3 alleine schon erreicht. Also ich hätte hier eher schon mit 20% vor Zen3 gerechnet.

Ich denke Big/Little ist grundsätzlich der richtige Weg. Die ideale Lösung im Desktop wäre jedoch wenn Intel 2 Reihen fahren würden:
.) Eine Serie für Gaming/Office bzw. alle Leute, die wenig Threads brauchen. Die bekommen je nach Preisklasse 4-8 Big Cores und vielleicht 4-8 Little Cores (so wie ADL im Moment)
.) Dann eine Serie für Content Creator, die nur 4 Big Cores haben aber dafür dann 32-64 Little Cores.

Geldmann3
2021-11-05, 02:12:23
Gibt es eigentlich bereits offiziell kompatible 420mm Komplettwasserkühlungen für den neuen Sockel? Die Alten sollen ja u.a. teilweise keinen optimalen Anpressdruck mehr bieten.

davidzo
2021-11-05, 02:48:32
Ich denke da muss man etwas differenzieren. Bei Multimediaanwendungen die alle 24 Threads voll auslasten säuft er ganz schön. Das liegt aber primär daran, dass AMD das 140W Limit erzwingt und der 5950X bei Volllast auch schon ziemlich kräftig runter taktet während der 12900K stur weiterhin annähernd die maximalen Taktraten weiter fährt.

Jo, genau diese Brechstange ist mal wieder typisch Intel, voll sinnbefreit. Und der 5950x ist schon eine Brechstange. Mit dem I/O die nicht gerade sparsam, 2CCDs - wenn man einen M1max dagegen hält ist der 5950x echt last gen.



Das habe ich euch ja schon die letzten paar Wochen versucht zu erklären, dass es primär um die Die Fläche geht und wurde dafür gesteinigt :freak

Das war aber im Meteor Lake Thread. Ich denke schon das Intel irgendwann einsieht dass sie mehr investieren müssen (Diesize/Transistoren) um Kompetitiv zu bleiben.
Bisher haben waren alle letzten Gens immer etwas zu knapp gedacht, sowohl beim corecount, cache, IPC - zu kostenoptimiert. Die musste man dann mit der Brechstange übertakten um irgendwie kompetitiv zu bleiben.
Aber so langsam dürften die weichen gestellt sein bei Intel, nochmal wird das nicht passieren.




Was man anhand der Benchmarks von CB jedoch gut sehen kann ist, dass man bei MT Workloads damit deutlich effizienter sein kann weil mehr Kerne zur Verfügung stehen. Ein 12900K 125W ohne E Cores ist so schnell wie ein 12900K 65W mit E Cores.

Ja, aber das ist nicht der richtige Vergleich. Wenn man die E-cores weglässt bliebt ja Platz für zwei weitere P-Cores. Und dann könnten alle 10 P-Cores eine Taktstufe niedriger fahren und währen so effizienter.
Momentan sieht es so aus als wenn es nicht wenige Anwendungen gibt die eher von mehr P-Cores profitieren würden als E-cores, aber auch mindestens genau so viele wo die 8x e-cores besser skalieren als 2x zusätzliche p-cores das würden. So richtig überzeugend ist die µArch daher für mich noch nicht.


Ich denke Big/Little ist grundsätzlich der richtige Weg. Die ideale Lösung im Desktop wäre jedoch wenn Intel 2 Reihen fahren würden:
.) Eine Serie für Gaming/Office bzw. alle Leute, die wenig Threads brauchen. Die bekommen je nach Preisklasse 4-8 Big Cores und vielleicht 4-8 Little Cores (so wie ADL im Moment)
.) Dann eine Serie für Content Creator, die nur 4 Big Cores haben aber dafür dann 32-64 Little Cores.
Und es kommt genau umgekehrt, die Content Creator und Highend Gamer bekommen reine P-Core CPUs. Ich denke mal das SR HEDT für Gaming gar nicht mal so schlecht sein dürfte. Mehr L2 Cache und L3 ist schonmal gut, fragt sich nur wie die Latenzen ausfallen. Wie wärs mit Single Die SR mit 14-16 P-Cores?

HOT
2021-11-05, 08:15:01
Vor allem fürs Gaming wäre eine Variante ideal gewesen, die 10+0 hat. Die Anwendungen werden sich an die little Cores schon anpassen mit der Zeit. Im Moment halte ich ADL allerdings nicht für den großen Sprung, sondern für ein Zementieren des Status Quo. AMD wird einfach mit einer 6k Serie kontern und die Sache ist im Prinzip wie vorher. In Anwendungen sind 12-16 "echte" Kerne immer noch überlegen und in Spielen wird der Cache einfach durchschlagend sein. Man sieht es ja auch an ADL. Anscheinend hat nichts für Spiele soviel gebracht wie die 30MB L3$.

RTL versucht hier noch was zu reißen, aber RTL ist der Gegner von Zen4.

Edgecrusher86
2021-11-05, 09:17:55
RPL-S meinst du. ;)

Ja, 10C oder 12C würde mir auch besser als 8C schmecken - 10C 150W und gut ist. :D

HOT
2021-11-05, 09:19:12
Ist das ne offizelle Abkürzung? Kommt mir wenig schlüssig vor.

Edgecrusher86
2021-11-05, 09:20:14
Ist es, zumindest wenn es nach der Presse geht. :)
https://www.digitaltrends.com/computing/intel-raptor-lake-power-requirements-leaked/

Let’s start with the 125W segment. The default power limit, PL1, is going to align with the processor’s TDP, and it remains the same for both Alder Lake-S (ADL-S) and Raptor Lake-S (RPL-S) units. Moving on to PL2, we see the first increase — from Alder Lake’s 241W to 253W for RPL-S. However, this only applies to Performance mode, and the Baseline remains the same at 188W for both gens. PL4 is a surprise in terms of power requirements. ADL-S requires 359W in performance mode, while RPL-S only needs 314W.

Ein bisschen veraltet, die 125W Aussage - naja, es war Frühjahr. :D
Sinnig ist es als Heimanwender aber eh nicht, mehr als 150W zu fahren.


E: Es wird sicher Jahre dauern, bis Intel mehr als 8C frei gibt - vor 2025 wohl nicht - leider.

maximus_hertus
2021-11-05, 11:54:55
Günstigstes Board bei AMD mit 3x M.2 Slots

In der Einsteiger bis Mittelklasse? 3 x M.2? Ja, es wird sicherlich vereinzelt eine NAchfrage nach 3 M.2 Slots geben, aber die große Masse hat 0 oder 1 M.2 SSD.

basix
2021-11-05, 13:20:17
3x m.2 hat so auch seine Tücken, zumindest bei X570. Hier kann man zum Beispiel auf eine Gigabyte X570 Ultra dann nicht gleichzeitig alle SATA-Ports verwenden (3x m.2 + 4x SATA oder 2x m.2 + 6x SATA).

Und für Einsteiger sollten 2x m.2 reichen. 1x fürs OS usw. und dann optional noch eine zweite zum Nachrüsten. Das reicht. Vor allem, wenn die neuen m.2 SSDs in bis zu 8TB daherkommen (was kostenmässig dann aber nicht mehr Einsteiger ist ;)). Alles >2x ist dann schon etwas spezifisch auf Power User ausgelegt. Und auch hier dann das Argument: 2x 8TB wären schon massig Speicher. Einzig Intels Optane wäre da noch zu nennen, da hier die Kapazität etwas beschränkt ist.

Daredevil
2021-11-05, 13:32:01
Besser haben als wollen.
Drei FullSpeed SSDs im Raid1 bringen dem ein oder anderen ja vielleicht was. :v
Oder meinetwegen auch ein Raid5. Mehr Speed, mehr Sicherheit. :)

Brauchen tun das aber sicherlich die wenigsten. Für die reicht auch ne 1 TB Sata SSD und gut ist.

Platos
2021-11-05, 14:00:57
Einzig Intels Optane wäre da noch zu nennen, da hier die Kapazität etwas beschränkt ist.

Die ist ja sowieso eingestellt, gibts nur noch mit U.2 und sind deutlich teurer vom Preis pro GB wie der Vorgänger ^^

Hakim
2021-11-05, 14:26:36
Mein z370 Mobo was vier Jahre auf den Buckel hat, hatte schon 3x M.2 slots die auch inzwischen alle belegt sind. Mal Performance außen vor, wenn man sieht wie viel Kabelsalat das einspart. Ich werde auf jeden Fall was mit mindestens 3x M.2 brauchen. Verstehe auch nicht warum die AM4 boards da so geizen

dildo4u
2021-11-05, 15:17:15
12400f Test wie erwartet 5600x Level hoffentlich für 200€.


https://videocardz.com/newz/unreleased-intel-core-i5-12400f-cpu-could-offer-ryzen-5-5600x-performance-at-half-the-price-shows-early-review

aufkrawall
2021-11-05, 15:27:49
12400f Test wie erwartet 5600x Level hoffentlich für 200€.


https://videocardz.com/newz/unreleased-intel-core-i5-12400f-cpu-could-offer-ryzen-5-5600x-performance-at-half-the-price-shows-early-review
Sieht ziemlich mau aus. Der 11400F wurde dort offenbar mit gurkiger RAM-Config oder mit Strom-Limit getestet, sonst wär er nicht ständig gegenüber Zen 2 im Hintertreffen. Und der 12400F wurde mit DDR5 getestet. Scheint mit DDR4 ohne Board auf so ziemlich das exakt gleiche Preis/Leistungs-Verhältnis wie das des 11400F hinaus zu laufen, mit Board dann erstmal viel teurer. Bleibt fast nur weniger Verbrauch und etwas mehr Anwendungs MT-PErformance, kein toller Fortschritt. Die Gaming-Performance hätte es schon mit dem 5800X aufnehmen sollen, meh...

dildo4u
2021-11-05, 15:36:17
Mehr Takt würde vermutlich das 65 TDP sprengen. Das Ding ist für OEM Systeme mit billigen Kühler,Motherboard und Netzteil gedacht.

WedgeAntilles
2021-11-05, 15:40:56
Mehr Takt würde vermutlich das 65 TDP sprengen. Das Ding ist für OEM Systeme mit billigen Kühler,Motherboard und Netzteil gedacht.
Und wohl primär fürs Gaming.
Anwendungen - im Sinne von profesioneller Nutzung - werden wohl eher auf etwas teurere CPUs gehen.

Und für normale Anwendungen reicht ja sowieso jede CPU der letzten was weiß ich wieviel Jahre aus.

Hakim
2021-11-05, 15:44:04
Wird vermutlich bis zen3+ kommt das beste P/L haben, wenn es den für um die 200€ verkauft wird.

Also nur CPU, mal mobo Preise außen vor

aufkrawall
2021-11-05, 15:50:00
Wobei CPU auch über MSRP gehen wird, wenn die Nachfrage hoch ist und AMD nicht nennenswert mit dem Preis runter geht.

iamthebear
2021-11-05, 18:37:48
Ja, aber das ist nicht der richtige Vergleich. Wenn man die E-cores weglässt bliebt ja Platz für zwei weitere P-Cores. Und dann könnten alle 10 P-Cores eine Taktstufe niedriger fahren und währen so effizienter.

Da hast du natürlich Recht. Allerdings reichen 25% mehr Big Cores nicht aus um den Energiebedarf von 125W auf 65W zu senken.

Beispiel 11700 (65W) vs. 11600K (65W) in CB23 (+33% Kerne):
11700: 9127
11600K: 11251 (+23%)

Momentan sieht es so aus als wenn es nicht wenige Anwendungen gibt die eher von mehr P-Cores profitieren würden als E-cores, aber auch mindestens genau so viele wo die 8x e-cores besser skalieren als 2x zusätzliche p-cores das würden. So richtig überzeugend ist die µArch daher für mich noch nicht.

Am Beispiel des 12900K
Die Anwendungen die von E Cores profitieren sind diejenigen die mehr als 12 Threads nutzen.
Die Anwendungen die mit 10 physischen Kernen besser laufen würden sind die Anwendungen die 9-11 Threads nutzen.
Bei Anwendungen die 1-8 Threads nutzen ist es egal

Das Problem dürften also nur Spiele sein die genau in diesen 10 Threads Bereich rein fallen, wobei es sich hier auch relativ einfach lösen lässt indem der Spielehersteller die Priorität der limitierenden Threads etwas hoch setzt. Dann landen diese auf den P Cores und 2 Hintergrundthreads können auf die E Cores geschoben werden.

Und es kommt genau umgekehrt, die Content Creator und Highend Gamer bekommen reine P-Core CPUs. Ich denke mal das SR HEDT für Gaming gar nicht mal so schlecht sein dürfte. Mehr L2 Cache und L3 ist schonmal gut, fragt sich nur wie die Latenzen ausfallen. Wie wärs mit Single Die SR mit 14-16 P-Cores?

Gamer brauchen P Cores, denn Spiele bieten meistens nur 6-8 Threads. Allerdings denke ich, dass 8

Content Creator hingegen haben Anwendungen die viele Threads nutzen (bzw. mehr als man normalerweise P Cores hat) und die profitieren dann in erster Linie von mehr E Cores.

Besser haben als wollen.
Drei FullSpeed SSDs im Raid1 bringen dem ein oder anderen ja vielleicht was. :v
Oder meinetwegen auch ein Raid5. Mehr Speed, mehr Sicherheit. :)

Brauchen tun das aber sicherlich die wenigsten. Für die reicht auch ne 1 TB Sata SSD und gut ist.

Hast du das mit dem SW RAID5 und SSD schon mal probiert? Bei Festplatten ist RAID5/6 ohne gutem HW RAID Controller min min 1GB Cache und BBU eine ziemliche Katastrophe. Würde mich wundern wenn das mit SSDs besser aussehen würde.

VooDoo7mx
2021-11-05, 18:43:49
Sieht ziemlich mau aus. Der 11400F wurde dort offenbar mit gurkiger RAM-Config oder mit Strom-Limit getestet, sonst wär er nicht ständig gegenüber Zen 2 im Hintertreffen. Und der 12400F wurde mit DDR5 getestet. Scheint mit DDR4 ohne Board auf so ziemlich das exakt gleiche Preis/Leistungs-Verhältnis wie das des 11400F hinaus zu laufen, mit Board dann erstmal viel teurer. Bleibt fast nur weniger Verbrauch und etwas mehr Anwendungs MT-PErformance, kein toller Fortschritt. Die Gaming-Performance hätte es schon mit dem 5800X aufnehmen sollen, meh...

Wenn man nicht nur die Bilder sich anschaut, sondern auch den Text ließt, steht da, dass der CPU bei MT Last nach einiger Zeit im PL2 dann auf 3,4GHz drosselte, was wiederum auch die Ergebnisse erklärt.
Es handelt sich auch weiterhin um ein Engineering Sample.
Von einen vorherigen Leak stammt auch, dass der 12400 wohl einen 4GHz All Core Turbo haben wird, was auch nicht sonderlich hoch ist.
Könnte mir vorstellen, dass auch noch ein 12500 mit mehr Takt dazwischen geschoben wird.
Auch der L3 Cache wirkt beim 12400 mit 18MiB unrund. Könnte mir vorstellen das der Die 20MiB hat und der 12500 die vollen auch bekommt.
So oder so, wird sich ein 12400 nur lohnen wenn dann auch günstigere H670 und B660 Boards + DDR4 gibt. Dann könnte es echt ein richtiger Mittelklasse Kracher werden der auch nicht die Stromrechnung sprengt.

KarlKastor
2021-11-05, 19:07:02
Wieso unrund? 3MB Slices wie beim großen Die auch.

VooDoo7mx
2021-11-05, 19:13:53
Wieso unrund? 3MB Slices wie beim großen Die auch.
Dann hast du natürlich Recht. Wusste nicht, dass es 3MiB Slices sind.
Ich frag mich nur wie man das auf 25 oder 20 MiB runter brechen kann. Werden dann nur Teile einzelner Slices deaktiviert? Irgendwie komisch.

aufkrawall
2021-11-05, 19:22:41
Dann könnte es echt ein richtiger Mittelklasse Kracher werden der auch nicht die Stromrechnung sprengt.
Zen 3 und RKL ziehen bei Spielen im GPU-Limit kernnormiert häufig ähnlich viel bzw. wenig. Die paar Watt weniger von ADL dabei sind dann auch völlig egal, sind vielleicht 5-10% Gesamtverbrauch weniger...

ryan
2021-11-05, 20:31:36
Wenn man nicht nur die Bilder sich anschaut, sondern auch den Text ließt, steht da, dass der CPU bei MT Last nach einiger Zeit im PL2 dann auf 3,4GHz drosselte, was wiederum auch die Ergebnisse erklärt.
Es handelt sich auch weiterhin um ein Engineering Sample.
Von einen vorherigen Leak stammt auch, dass der 12400 wohl einen 4GHz All Core Turbo haben wird, was auch nicht sonderlich hoch ist.



Nach 56 Sekunden fällt der Takt runter. 3,4 Ghz bei 65W kommt mir zu niedrig vor. Ich glaube kaum das der 6C immer auf 3,4 Ghz runtergehen muss, um überall im 65W Limit zu bleiben. Das passt auch nicht zum ersten 12400 Leak, wo der Verbrauch im AID64 FPU Stresstest bei 78W für 4,0 Ghz lag.

AIDA64 FPU 78W @4 Ghz wird vermutlich 70W Cinebench MT @4 Ghz entsprechen, nur mal so zur Einordnung. Unter 3.8-3.9 Ghz sollte es eher nicht gehen wenn man AVX Stresstests ausklammert. Die Biose sind vielleicht noch nicht auf 65W Modelle optimiert, bis jetzt sind das alles 125W Modelle.

iamthebear
2021-11-05, 20:39:21
Ich denke nicht, dass die Nachfrage bei Intel abgesehen von den ersten paar Wochen so eine große Rolle spielen wird. Intel verkauft ja in erster Linie an OEMs. Der DIY Markt ist da nur ein sehr kleiner Teil.
Es könnte sogar der gegenteilige Effekt auftreten, dass die OEMs weniger bestellen weil sie auf Grund der Chipknappheit nicht genug Boards bekommen, Intel aber in ihren eigenen Fabs keine Probleme hat und so eine Ladung OEM CPUs in den DIY Markt kippt. Kann sein, dass es vielleicht wenig 12400F gibt aber gewöhnliche 12400 sollten auf jeden Fall lieferbar sein.
Wo ich mir eher Sorgen mache ist ob die Mainboards alle so lieferbar bleiben.

aufkrawall
2021-11-05, 20:42:52
Ich denke nicht, dass die Nachfrage bei Intel abgesehen von den ersten paar Wochen so eine große Rolle spielen wird.
War bei RKL aber so. Nachdem nach ein paar Wochen die ersten Chargen weg waren und erstmal etwas Knappheit herrschte, haben sich die Preise bis dato dauerhaft höher eingependelt.
Den 11700F gab es auch nur ~Day 1 für 300€ im Tiefstpreis-Angebot.

iamthebear
2021-11-05, 21:04:05
Der Listenpreis liegt auch bei 317 Euro nach aktuellen Dollarkurs + 19% USt und das ist eigentlich ein Preis bei Abnahme von 1000 Stück direkt von Intel.

Wenn ich mir den Geizhalstrend ansehe hat er abgesehen von den ersten 6-7 Wochen nach der ersten Listung immer in etwa diesen Preis:
https://geizhals.at/intel-core-i7-11700f-cm8070804491213-a2492654.html?hloc=at&hloc=de

dildo4u
2021-11-06, 05:34:52
Die i5 bleiben liegen was Sinn macht würde mir keine Sorgen machen, da sollte sich was ansammeln bis es in 3 Monaten passende Boards gibt.


https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1700.html

OgrEGT
2021-11-06, 11:31:21
Please delete

Tobalt
2021-11-06, 12:29:17
nur weil eine spieleengine jetzt zB 10 kerne nutzt heißt nicht dass sie 10 threads hat. So eine Engine hat sehr viel mehr threads.. aber ein großer anteil davon sind halt sehr sehr anspruchslos und würden auch auf dem arduino gut laufen.. am ende gibt es nur sehr wenige oder oft nur einen dicken thread der halt dann den kern total auslastet und alle anderen threads warten lässt.

also reichen wenige schnelle Kerne für solche Software sicher gut aus. Es müssen nur genug sein um alle threads unterzubringen, die gerade in der Performancelücke zwischen P und E core liegen. 8 dicke Kerne sollte wohl ziemlich immer ausreichen

davidzo
2021-11-06, 14:40:02
Da hast du natürlich Recht. Allerdings reichen 25% mehr Big Cores nicht aus um den Energiebedarf von 125W auf 65W zu senken.

Beispiel 11700 (65W) vs. 11600K (65W) in CB23 (+33% Kerne):
11700: 9127
11600K: 11251 (+23%)



Das ist natürlich die Rosine die nicht gemeint war als von "bis über die Kotzgrenze übertaktete" SKUs die rede war.

Bei 241Watt ist es relativ egal ob man 10 P-Cores hat oder 8+8, da in beiden Fällen unabhängig der µArch P und E-Cores weit außerhalb des jeweiligen sweetspots getaktet sind und damit extrem ineffizient agieren.
Das ist natürlich workloadabhängig was besser skaliert, aber 10 P-Cores wären nicht weit entfernt von 8+8 sowohl was die perf als auch die Effizienz angeht.
10 P-Cores würden nämlich eine Taktstufe niedriger fahren als 8 P-Cores, also auch effizienter sein. Und von den Wattsekunden her sind die P- und E-cores nicht viel anders wenn man ihnen freien lauf lässt wie Intel das per default konfiguriert hat.

Mein Argument war ja eher, dass die Intel Ansetzung für den Desktop eben ein bisschen too little too late ist, genau wie die vergangenen drei Architekturen.

Wenn man in die Vollen gegangen wäre, also mehr Diesize gewagt hätte, dann hätte man jetzt ein in allen Workloads konkurrenzfähiges Produkt. So hat man nur eines was in gaming und ST workloads konkurrenzfähig ist, in allem anderen, insbesondere Effizienz zurückliegt. Und für genau diese workloads die man jetzt gewinnt ist Zen3D ein hard-counter.

Trotzdem ist Alderlake-S in der jetzigen Form wohl auch on der supply-frage her das sinnvollere Produkt. Aber es ist halt kompetitiv nicht dass was Gelsinger uns angekündigt hat. Raptor-lake mit gleichem Ansatz aber mehr Diefläche wäre wohl rundum kompetitiv bis überlegen gewesen, aber hätte die Fabs zum jetzigen Zeitpunkt wohl überfordert.


Verstehe mich nicht falsch, ich sehe Intel mit Alderlake als architekturell vollständig kompetitiv zu AMD. Und selbst mit 10SF+ könnte man absolut konkurrenzfähige Produkte bauen zu AMD, wenn auch man gegenüber Apple immer noch den kürzeren ziehen würde.
Aber technologisch kompetitiv war man auch schon bei Cometlake und Icelake. Was man da aber ebenfalls versemmelt hat war die Markpositionierung, bzw. die Ansetzung. Man hat in beiden Fällen zu gering geplant.

Das hat man auch bereits intern früh erkannt, aber da war der Zug für Planänderungen schon lange abgefahren. Die interne Memo von Brian Krzanich an die Intel Mitarbeiter hat speziell "AMDs unerwartete Highend-Strategie" als problem erkannt, nicht etwa dass man technologisch oder architekturell hinten liegt. Die haben Zen1 einfach nicht mit 2x CCX erwartet und Zen2 nicht mit 2x CCD. Die damalige Fabstrategie war langfristig auf 90-150mm2 Chips im Consumerbereich abgestimmt, eine fatale Fehleinschätzung welche die Produktstrategie für ein halbes Jahrzehnt vorherbestimmt hat. Erst AMDs wachsender Marktanteil hat da für ein bisschen mehr Flexibilität gesorgt.

Hätte man bei Cometlake, Icelake, Alderlake frühzeitig größere DIEs gehabt, müsste man diese nicht übertakten, nur um damit letztendlich nur eine gamingCPU zu bauen die in der Anwendungsleistung nur AMDs zweitbeste SKU 3900x, 4500u, 5900x,... erreicht.

Ich bin mir sicher dass sich diese Strategie mit Gelsinger ändert. Er ist der erste der großflächig Fabkapazitäten aufbaut und hat bereits angekündigt dass er keine Rücksicht auf die Marge nimmt im Rennen um Technologieführerschaft und Marktanteile.
Raptorlake wird der Strategieschwenk sein, Meteorlake die erste vollständig mit diesem Mindset geplante µArch.

Die Anleger bestrafen Gelsinger aktuell für diese Pläne, aber die langfristigen Zahlen geben ihm recht: Intel hat eine Gross margin von 55%, unter Krzanisch war sie lange Jahre sogar über 60%. - Das ist königlich, selbst Apple kommt nur auf 42,5%.
Komischerweise kommt der tatsächliche Gewinn dann aber um die 20% ins Ziel, weit unter Apples 28%. Intels Services und support, sowie ein extrem teurer Vertriebskanal haben also einen größeren Anteil an den Kosten als bei anderen Firmen. Dieser Wasserkopf muss langsam weg, man muss überzeugende Produkte anbieten, nicht nur überzeugende Salesleute haben.
Um es mit anderen Worten zu sagen:
High Advertising costs are the penalty for a bad product



Gamer brauchen P Cores, denn Spiele bieten meistens nur 6-8 Threads. Allerdings denke ich, dass 8

Content Creator hingegen haben Anwendungen die viele Threads nutzen (bzw. mehr als man normalerweise P Cores hat) und die profitieren dann in erster Linie von mehr E Cores.

Ja, erzähl das mal Intel vor 3 Jahren als man SR geplant hat.

iamthebear
2021-11-07, 00:02:31
Bei 241Watt ist es relativ egal ob man 10 P-Cores hat oder 8+8, da in beiden Fällen unabhängig der µArch P und E-Cores weit außerhalb des jeweiligen sweetspots getaktet sind und damit extrem ineffizient agieren.
Das ist natürlich workloadabhängig was besser skaliert, aber 10 P-Cores wären nicht weit entfernt von 8+8 sowohl was die perf als auch die Effizienz angeht.
10 P-Cores würden nämlich eine Taktstufe niedriger fahren als 8 P-Cores, also auch effizienter sein. Und von den Wattsekunden her sind die P- und E-cores nicht viel anders wenn man ihnen freien lauf lässt wie Intel das per default konfiguriert hat.[/quote]

Derzeit sind die E Cores bei max. Takt so getaktet, dass 4 E Cores die Leistungsaufnahme von 1 Big Core mit SMT haben also ca. 20W vs. 5W. Das macht kühlungstechnisch Sinn da beide dieselbe Fläche haben über die sie die Wärme abführen können.
Was den maximalen Takt angeht so hat der8auer das mit LN2 auch schon ausgetestet und ist stabil auf 5.3GHz für die E Cores bzw. 6.5GHz für die P Cores gekommen als P Cores vertragen 23% mehr. Runtergerechnet auf Luft bedeutet die wenn die P Cores bei 5.2GHz Schluss machen vertragen die E Cores 4.2GHz. Die E Cores sind also ca. 300 MHz unter dem Limit getaktet, was dann auch die ca. 10% Differenz zu den Intel Folien erklärt. Die waren ja auf den Kern an sich bezogen und nicht den 12900K als Produkt.

Performancetechnisch liefern die Little Cores jedoch nicht 1/4 der Leistung eines Big Cores sondern ca. die Hälfte. Ein 12900K mit 8+8 ist also in etwa so schnell wie ein 12 P Cores.

Was bedeutet dies nun für die Energieeffizienz wenn du bei gleicher Performance testest:
.) Entweder übertaktest du deine 10 P Core CPU noch mal um 20% (also von 5 auf 6 GHz). Da müsstest du die CPU schon mit 2V grillen was für die Energieeffizienz nicht so toll wäre :freak:
.) Oder du taktest den 12900K um 16% zurück. Dann bist du beim 12900K wieder bei 125W während dein 10 Kerner 240W zieht.

Je näher an der Kotzgrenze man sich befindet desto mehr schlägt der Vorteil von mehr Kernen durch.

Mein Argument war ja eher, dass die Intel Ansetzung für den Desktop eben ein bisschen too little too late ist, genau wie die vergangenen drei Architekturen.

Wenn man in die Vollen gegangen wäre, also mehr Diesize gewagt hätte, dann hätte man jetzt ein in allen Workloads konkurrenzfähiges Produkt. So hat man nur eines was in gaming und ST workloads konkurrenzfähig ist, in allem anderen, insbesondere Effizienz zurückliegt. Und für genau diese workloads die man jetzt gewinnt ist Zen3D ein hard-counter.

Du solltest dich nicht so sehr von den 240W verwirren lassen. Alder Lake ist eine sehr effiziente Architektur selbst ohne Nutzung der E Cores.
Schau dir mal den Gaming Verbrauch im Test von igor an. Unter realistischen Auflösungen wie 1440p (bei einer 6900 XT) zieht der 12900K ca. ein Drittel weniger als der 5950X:
https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/9/

Der 5950X an sich ist deutlich stromhungriger als der 12900K. Der Unterschied ist nur, dass der 5950X bei starker MT Last auf 4GHz runter taktet weil er auf 140W gelockt ist während der 12900K noch munter mit 4.9GHz weiter läuft.

Abgesehen davon: Es kann doch jeder bei PL1 und PL2 einstellen was er will. Die 240W sind halt lediglich der Defaultwert. Mit 125W ist der 12900K im CB Anwendungsrating gerade mal 9% langsamer. Beim Gaming merkt man gar nichts.

Trotzdem ist Alderlake-S in der jetzigen Form wohl auch on der supply-frage her das sinnvollere Produkt. Aber es ist halt kompetitiv nicht dass was Gelsinger uns angekündigt hat. Raptor-lake mit gleichem Ansatz aber mehr Diefläche wäre wohl rundum kompetitiv bis überlegen gewesen, aber hätte die Fabs zum jetzigen Zeitpunkt wohl überfordert.

Der 12900K kann mit allem bis zum 5900X sehr gut mithalten. Lediglich vom 5950X wird er geschlagen und das auch nur in Anwendungen je nachdem welcher Benchmarkparkour verwendet wird.
Und jetzt mal ehrlich: Wie hoch ist der Anteil der 5950X Käufer?
Generell sind alle die dieses Jahr noch ADL kaufen die Versuchskaninchen. Nächstes Jahr Q1 gibt es dann die ersten Boards/CPUs abseits des OCing Bereichs. Q2 dürften dann die ersten OEM Geräte in nennenswerten Stückzahlen auf den Markt kommen und Q3 iwt sowieso schon Raptor Lake da.

Verstehe mich nicht falsch, ich sehe Intel mit Alderlake als architekturell vollständig kompetitiv zu AMD. Und selbst mit 10SF+ könnte man absolut konkurrenzfähige Produkte bauen zu AMD, wenn auch man gegenüber Apple immer noch den kürzeren ziehen würde.
Aber technologisch kompetitiv war man auch schon bei Cometlake und Icelake. Was man da aber ebenfalls versemmelt hat war die Markpositionierung, bzw. die Ansetzung. Man hat in beiden Fällen zu gering geplant.

Ice Lake ließ sich einfach nicht vernünftig takten. Das war das Hauptproblem. Deshalb hat es sich abseits von ein paar 15W Notebooks nicht durchgesetzt. Das war ein reines 10nm Fertigungsproblem.

Was hätte Intel denn mit Comet Lake machen sollen? Mit 14nm war einfach nicht mehr Performance auf der Fläche möglich und die Die Size ist bei Intel durch ihre fixen Preisstufen und die geplanten Margen vorgegeben.

Das Problem das Intel hat ist dass TSMC aktuell in der Fertigung etwas weiter ist und AMD schon am Sprung zu 5nm ist.
Architekturseitig hat man zwar mit Big/Little zwar das bessere und flexiblere Konzept allerdings kämpft Intel damit dass ihre P Cores deutlich größer als die Zen3 Cores sind ohne dass man sich leistungsmäßig wirklich absetzen kann und wenn AMD mit Zen4 IPC pusht wird es düster.

Das hat man auch bereits intern früh erkannt, aber da war der Zug für Planänderungen schon lange abgefahren. Die interne Memo von Brian Krzanich an die Intel Mitarbeiter hat speziell "AMDs unerwartete Highend-Strategie" als problem erkannt, nicht etwa dass man technologisch oder architekturell hinten liegt. Die haben Zen1 einfach nicht mit 2x CCX erwartet und Zen2 nicht mit 2x CCD. Die damalige Fabstrategie war langfristig auf 90-150mm2 Chips im Consumerbereich abgestimmt, eine fatale Fehleinschätzung welche die Produktstrategie für ein halbes Jahrzehnt vorherbestimmt hat. Erst AMDs wachsender Marktanteil hat da für ein bisschen mehr Flexibilität gesorgt.

Das Ziel von Intel ist es den Kunden mit möglichst geringen Kosten möglichst viel Geld aus der Tasche zu ziehen. Wenn man mehr Performance bietet zahlen die Kunden deswegen auch nicht mehr. Man verkauft deswegen eine Generation ein paar Geräte mehr, dafür die nächste Generation dann wieder weniger (siehe alle 2600K die ewig verwendet wurden).

Intel wird wie bei Rocket Lake nur dann die Die Size erhöhen wenn es keinen anderen Ausweg mehr gibt. Lieber lässt man AMD 10-20% des Marktes. Im OEM Bereich hat AMD sowieso noch keine Chance.

Hätte man bei Cometlake, Icelake, Alderlake frühzeitig größere DIEs gehabt, müsste man diese nicht übertakten, nur um damit letztendlich nur eine gamingCPU zu bauen die in der Anwendungsleistung nur AMDs zweitbeste SKU 3900x, 4500u, 5900x,... erreicht.

Dann hätte man alle Jahre weniger Gewinn gemacht und wofür? Nur damit AMD ein paar % weniger Marktanteil hat? Gegen den 5900X bzw. 5950X hätte man sowieso kein Rezept gehabt mit 14nm und das langfristige Problem mit Apple hätte das auch nicht gelöst. Desktop ist sowieso nur ein Nebenkriegsschauplatz für Intel. Die richtige Musik spielt im Server bzw. Notebookmarkt.

Ich bin mir sicher dass sich diese Strategie mit Gelsinger ändert. Er ist der erste der großflächig Fabkapazitäten aufbaut und hat bereits angekündigt dass er keine Rücksicht auf die Marge nimmt im Rennen um Technologieführerschaft und Marktanteile.
Raptorlake wird der Strategieschwenk sein, Meteorlake die erste vollständig mit diesem Mindset geplante µArch.

Ich denke nicht dass es Intel an Produktionskapazitäten mangelt. Die Probleme gab nur nur 1 Jahr und waren nur dadurch bedingt, dass man schon zu viele 14nm Fabs auf 10nm umgerüstet hat aber 10nm noch keine vernünftigen Yields und Taktraten geschafft hat.

Die Anleger bestrafen Gelsinger aktuell für diese Pläne, aber die langfristigen Zahlen geben ihm recht: Intel hat eine Gross margin von 55%, unter Krzanisch war sie lange Jahre sogar über 60%. - Das ist königlich, selbst Apple kommt nur auf 42,5%.
Komischerweise kommt der tatsächliche Gewinn dann aber um die 20% ins Ziel, weit unter Apples 28%. Intels Services und support, sowie ein extrem teurer Vertriebskanal haben also einen größeren Anteil an den Kosten als bei anderen Firmen. Dieser Wasserkopf muss langsam weg, man muss überzeugende Produkte anbieten, nicht nur überzeugende Salesleute haben.

Ich weiß nicht ob es Sinn macht diese Zahlen zu vergleichen.
Intel hat Fabs. Die kaufen Wafer Rohlinge um 2$ pro Chip ein und verkaufen dann die CPUs and OEMs.
Apple kauft fertige Chips von TSMC ein und verkauft dann das fertige Iphone im eigenen Shop.
Bis auf das Design der Chips überlappen sich die Lieferketten gar nicht. Das ist so als würde ich die Marge von Media Markt mit der von TSMC vergleichen und dann daraus Rückschlüsse ziehen wer besser wirtschaftet.

basix
2021-11-07, 10:52:41
Firmen mit viel F&E haben immer eine deutlich reduzierte Nettomarge.

Zossel
2021-11-07, 15:36:43
Bis auf das Design der Chips überlappen sich die Lieferketten gar nicht. Das ist so als würde ich die Marge von Media Markt mit der von TSMC vergleichen und dann daraus Rückschlüsse ziehen wer besser wirtschaftet.

Intel kauft keine Vorprodukte/Verschleißteile/Investionsgüter die auch TSMC/Samsung/GF beim gleichen Zulieferer kaufen?

iamthebear
2021-11-07, 15:56:22
Natürlich tun sie das aber ich wüsste jetzt nicht was das über den Gewinn von Intel vs. Apple aussagen würde. Das sind komplett andere Branchen.

Generell liegen die Hauptkosten weder bei Intel noch bei Apple in der Chipfertigung.
Grobe Faustregel: 100mm² 7nm Chips kosten in der Produktion 10$.

PatkIllA
2021-11-07, 17:01:50
Welche Chipsätze kommen denn jetzt noch?
Also nicht nur die Namen sondern Unterschiede im Featureset und Datum.

Und warum steht bei Intel HDMI 2.1 aber nur Max Resolution (HDMI) 4096x2160@60Hz.
https://ark.intel.com/content/www/us/en/ark/products/134599/intel-core-i912900k-processor-30m-cache-up-to-5-20-ghz.html

iamthebear
2021-11-07, 22:59:40
Anscheinend werden 4K120 nicht unterstützt, sondern lediglich einige der anderen Features wie VRR, ALLM, eARC, HDCP 2.3 etc. Theoretisch würde es reichen wenn nur HDCP 2.3 unterstützt wird.

Theoretisch verletzt Intel jedoch die Kennzeichnungsvorschriften, da sie HDMI 2.1 angeben ohne die unterstützten Features zu nennen aber solange man die vollkommen überzogenen Gebühren an das HDMI Konsortium abdrückt kommt man mit so gut wie allem durch.

Beim 12900K ist es wohl mehr egal, da man unter 4K sowieso in den meisten Fällen keine flüssigen Frameraten bekommen wird und mit 1440p geht sich 120Hz aus. Was mehr stört ist, dass man anscheinend keinen 8K Fernseher ansteuern kann.

Ich will mal hoffen, dass das bei den diskreten GPUs besser wird.

Unicous
2021-11-08, 16:15:35
Speicher für Alder Lake: DDR5-RAM für die 12. Gen Intel Core ist quasi ausverkauft (https://www.computerbase.de/2021-11/speicher-fuer-alder-lake-ddr5-ram-fuer-die-12.-gen-intel-core-ist-quasi-ausverkauft/)


Was für ein Schock!!!!:eek:

Wer hätte das nur voraussehen können.:frown:

Birdman
2021-11-08, 18:17:00
War ziemlich klar dass bei dem Run auf Alder Lake die verfügbaren RAM Module schnell weg sein würden.
Hatte wohl keiner der Hersteller damit gerechnet, dass ADL den aktuellen Zen3 CPUs das Fell derart über die Ohren ziehen wir, sodass jeder so ein System haben will.

Unicous
2021-11-08, 18:20:36
;D

Das wird es sein. Es kann natürlich nicht sein, dass die RAM-Hersteller wie im Artikel erwähnt, zu wenig DDR5 produzieren und bislang eher stiefmütterlich behandeln.

Das war absehbar

Es ist das eingetreten, wovor zuvor bereits gewarnt wurde: Die Versorgungslage bei DDR5 ist alles andere als ausreichend, erste Lieferchargen sind laut Preisvergleich deutschlandweit ausverkauft. Auch der direkte Blick in die Shops von Caseking*, Mindfactory* oder Alternate* zeigt: Nur Alternate will kurzfristig DDR5-5600 von G.Skill liefern können - das war's.

Der Nachschub scheint sich darüber hinaus hinzuziehen, viele Shops geben mehrere Wochen als möglichen Liefertermin an, einige sagen lieber erst einmal gar nichts mehr. Caseking verspricht immerhin für Module von Adata den Wareneingang innerhalb einer Woche.

Mainboardhersteller hatten vor dem Start von Alder Lake auf Rückfrage von ComputerBase schon gewarnt, dass die angekündigten Liefermengen der Hersteller wohl viel zu gering ausfallen würden, weshalb auch der Start von DDR4-Mainboards entsprechend forciert wird.

Schnell etwas an der Situation ändern, dürfte sich nicht, denn die großen Hersteller wie Samsung und Micron fahren DDR5 erst einmal noch auf relativ kleiner Flamme – sogar Microns eigener Shop der Marke Crucial sitzt auf dem Trockenen.

Linmoum
2021-11-08, 18:20:54
Was eine sinnlose Aussage. Im Übrigen wissen Hersteller vorher schon, wie die Produkte performen. Sie müssen ihre eigenen entsprechend damit testen können.

Es gab lächerlich wenig verfügbaren DDR5-RAM. Natürlich ist das bisschen direkt vergriffen, ADL hat das Pech, zu früh in der Hinsicht im Markt anzukommen.

ChaosTM
2021-11-08, 18:27:33
Das konnte wirklich niemand ahnen. ;)
AL kam ein paar Monate zu früh imho. Gibts eigentlich Bretter die 4 und 5 unterstützen ?

Linmoum
2021-11-08, 18:33:57
Nein, du hast nur die Wahl nach entweder oder. Beides gibt's nicht.

Birdman
2021-11-08, 18:50:29
Im Übrigen wissen Hersteller vorher schon, wie die Produkte performen. Sie müssen ihre eigenen entsprechend damit testen können.
Gerade zum testen ist es überhaupt nicht notwendig, dass die finalen Specs bekannt sind. Für das sind Vorserien Modelle und Beta Treiber/BIOS da, welche mitunter deutlich und mit Absicht langsamer sind.

iamthebear
2021-11-08, 22:37:36
War ziemlich klar dass bei dem Run auf Alder Lake die verfügbaren RAM Module schnell weg sein würden.
Hatte wohl keiner der Hersteller damit gerechnet, dass ADL den aktuellen Zen3 CPUs das Fell derart über die Ohren ziehen wir, sodass jeder so ein System haben will.

Also ich würde davon ausgehen, dass jeder in der Industrie schon einigen Monaten sehr genau Bescheid gewusst hat wo ADL in etwa landen wird.
Es ist fraglich ob es einen echten Engpass gibt. Die Quellen von MLID haben gemeint, dass sie als OEMs nur um die 10-15% mehr zahlen als DDR4. Ich vermute einfach, dass wieder einmal der DIY Markt gemolken wird.
Um ehrlich zu sein verstehe ich den ganzen Stress nicht ganz. Dann holt man sich eben ein DDR4 Board. So richtig große Upgradepläne kann man mit Intel Boards sowieso nicht haben. Raptor Lake wird noch laufen und dann braucht man sowieso neue Boards und den lahmen DDR5 4800 will man im nächsten System sicher auch nicht haben.

HOT
2021-11-08, 23:01:14
Seh ich auch so. Einfach hemmungslos DDR4 nehmen und fertig. Es gibt hier schnelle Module und in den meisten Tests zählt eh die Latenz mehr als die Bandbreite.

Platos
2021-11-09, 10:15:48
Ist ein reines Gedankending. Jetzt ist das neueste Verfügbar (oder auch nicht), also muss man es haben.

Gerade bei den ganzen Leuten, die sowieso alle 3-4 Jahre upgraden, ist es absolut unverständlich, dass sie so rum jammern. Denn die haben schliesslich alle schon DDR4 RAM und in 3-4 Jahren ist so oder so ein neues Mainboard nötig und von daher ist es sogar noch günstiger, da man den "alten" RAM einfach mitnehmen kann. Bei Leuten, die das für viele Jahre kaufen, kann ich es ja verstehen, wenn man nicht "das alte" behalten will, aber es bleibt trotzdem ne Gedankensache. Es gibt schliesslich sowieso noch keinen schnellen DDR5 RAM.

Das ist ne reine Kopfsache, nur bei wenigen Nutzern hat das wirklich argumentative Gründe. Alder Lake braucht kein DDR5. Wer "zukunftssicher" kaufen will, der kauft sowieso nicht jetzt, am Anfang einer neuen Speichergen, wo alles no teuer und langsam ist.

Meridian12
2021-11-09, 11:03:24
War ziemlich klar dass bei dem Run auf Alder Lake die verfügbaren RAM Module schnell weg sein würden.
Hatte wohl keiner der Hersteller damit gerechnet, dass ADL den aktuellen Zen3 CPUs das Fell derart über die Ohren ziehen wir, sodass jeder so ein System haben will.


Bist du eigentlich ein Intel Fanboy oder was ist für dich genau "Fell über die Ohren ziehen"??

Beim Tennis wäre für dich ein 7:6, 7:6 Sieg wohl dann auch Fell über die Ohren ziehen :confused:

w0mbat
2021-11-09, 11:13:55
Vor allem will niemand ein ADL-System haben, die neue Intel CPUs verkaufen sich extrem schlecht. In Programmen schafft man es nicht den ein Jahr alten Zen3 zu schlagen und in Spielen ist man einstellig schneller. Dazu die ganzen Probleme mit DRM, AVX-512, TDP, scheduler, etc.

Total realitätsferner Kommentar :ugly:

Freestaler
2021-11-09, 11:20:34
Ach kommt, es muss auf beiden Seiten platz haben für Fanboys. Euch lässt man ja auch. Und ADL ist im Gaming nun wirklich TopDog. Lasst die freude. Erst recht im ADL Thread.

maximus_hertus
2021-11-09, 11:50:11
War ziemlich klar dass bei dem Run auf Alder Lake die verfügbaren RAM Module schnell weg sein würden.
Hatte wohl keiner der Hersteller damit gerechnet, dass ADL den aktuellen Zen3 CPUs das Fell derart über die Ohren ziehen wir, sodass jeder so ein System haben will.

Welcher Run? 1% vom DIY MArkt und 0,1% vom OEM Markt?

robbitop
2021-11-09, 11:52:59
Bist du eigentlich ein Intel Fanboy oder was ist für dich genau "Fell über die Ohren ziehen"??

Beim Tennis wäre für dich ein 7:6, 7:6 Sieg wohl dann auch Fell über die Ohren ziehen :confused:
Ist wohl eher ein 10:9 Sieg. Richtig hart das "Fell über die Ohren gezogen". :D
Insbesondere im typischen GPU Limit in der Praxis.

Ja ADL ist schneller. Aber nicht viel und auch fast 1 Jahr später. Ist IMO nicht beeindruckend. Die VCache Modelle werden den Status Quo relativ bald wieder herstellen.

IMO wird mittelfristig keiner in der Lage sein, dem anderen "das Fell über die Ohren zu ziehen". Das scheint ein Schlagabtausch zu werden. Je nach Zeitpunkt ist mal der andere ein wenig vorn und mal der eine. Und das ist für uns Endkunden ideal. Hoffentlich passiert das so schnell nicht wieder -> Wettbewerb ist super.

ceed
2021-11-09, 17:33:37
In Programmen schafft man es nicht den ein Jahr alten Zen3 zu schlagen und in Spielen ist man einstellig schneller.

https://www.3dcenter.org/artikel/launch-analyse-intel-alder-lake/launch-analyse-intel-alder-lake-seite-2

Wenn 100% die höchste gemittelte Performance ist? Dann sind die mit weniger also schneller? Ich frage nur aus meiner Realität heraus, weil sie scheint ja eine andere zu sein..

Wieviel bezahlt ihr eigentlich mehr dafür dass euer favorisiertes Produkt schon länger am Markt ist? Ist das einfach ein Fixbetrag oder wird das pro Monat mehr? Oder zieht man pro später gestarteten Monat Alder Lake 1 Prozentpunkt Leistung ab in der Gesamtbetrachtung? Ich frage weil ich mir jetzt gern ein System kaufen will, aber dabei nicht das schlechtere erwischen möchte..

Wenn ihr lieber ein AMD System haben wollt- dann kauft euch halt eins, hält euch doch niemand davon ab. Aber den anderen Leuten einreden zu wollen das Intel momentan schlechter ist- bei objektiv ganz anderen Ergebnissen, ich weiß nicht wo diese Motivation her kommt.

Der 12600k hat gleich viel (nach der Mittelung durch Leonidas sogar n kleines Stück mehr) Spieleperformance wie der 5950X und das zu einem Drittel!! (Listen)Preis und geringerem Verbrauch. Finde ich ziemlich stark dieses Produkt und meiner Meinung nach Preis/Leistung bei weitem das am Markt Beste momentan.

basix
2021-11-09, 17:47:12
Jop, der 12600K ist wirklich top. Momentan halt aber durch die teuere Plattform gehemmt, bis B660 kommt.

Robot
2021-11-09, 17:54:59
Bin eher auf AMD-Seite eigenltich, aber muss auch sagen finde den 12600k und den 12700k ziemlich gut, mit dem 12900k kann ich mich irgendwie nicht so anfreunden, ist mir zu "hochgezüchtet" das ding. Sehe da irgendwie den Mehrwert für mich nicht gegenüber dem 12700k.

QUERSCHLÄGER
2021-11-09, 18:49:26
[url]Finde ich ziemlich stark dieses Produkt und meiner Meinung nach Preis/Leistung bei weitem das am Markt Beste momentan.

Ich habe über die 12er bisher nicht alles gelesen und auch nicht alles verstanden: bringen die kleineren Kerne etwas beim spielen? Im Grunde kommt es mir nur darauf an, was professionelles mache ich mit dem PC nicht und youtube gucken kann ich auch mit einem 2500k.

Also Frage wäre demnach: kaufe ich einen derzeit zwar einen /für mich als Spieler) 6Kerner und habe nicht viel vom Anhang? Oder spielen die kleinen Dinger später noch eine größere Rolle, wenn Win11 und auch Entwicklerstudios Zeit hatten, alles besser zu nutzen? Weil theoretisch ist es eben so, daß du mit einem 11400 auch die nächsten 5 Jahre gut da stehst (hatten wir ja erst letztens das Thema hier).

][immy
2021-11-09, 19:22:58
Ist wohl eher ein 10:9 Sieg. Richtig hart das "Fell über die Ohren gezogen". :D
Insbesondere im typischen GPU Limit in der Praxis.

Ja ADL ist schneller. Aber nicht viel und auch fast 1 Jahr später. Ist IMO nicht beeindruckend. Die VCache Modelle werden den Status Quo relativ bald wieder herstellen.

IMO wird mittelfristig keiner in der Lage sein, dem anderen "das Fell über die Ohren zu ziehen". Das scheint ein Schlagabtausch zu werden. Je nach Zeitpunkt ist mal der andere ein wenig vorn und mal der eine. Und das ist für uns Endkunden ideal. Hoffentlich passiert das so schnell nicht wieder -> Wettbewerb ist super.
Ich glaube nicht, das der VCache noch so viel bringen wird. Bei den Server-CPUs kann der jede Menge bringen, weil dort die Bandbreite durch die hohe Anzahl an Cores doch relativ gering ist. Gut bei 16 Kernen sollte das auch noch einiges bei Multithreading-Benchmarks raus holen. Aber die meisten Spiele sind eher von 1-2 Kernen wirklich abhängig die Stark sein müssen und die anderen nehmen sie halt einfach mit.
Aber ein paar Prozent sind mit so einem "Refresh" (ist schon irgendwie ein bissel mehr als nur ein simpler Refresh) sind sicherlich drin.
Nach wie vor macht mir bei ADL eher sorgen, das Kopierschutz-Maßnahmen inkompatibel sind und die entsprechenden Spiele eventuell (mit hoher Wahrscheinlichkeit) nicht gepatched werden. Hier sollte man die Publisher mal wirklich dazu "überreden" Kopierschutzmaßnahmen die so Tief im System sitzen, einfach mal nach ein paar Monaten (oder einem Jahr) per Patch raus zu nehmen.

robbitop
2021-11-09, 19:51:20
Zumindest in Spielen bringt mittlere Latenz (durch hohe Hitrate in diesem Fall durch den großen Cache) einiges.
Man erinnere sich wie schlecht SKL-X als SKL war in Spielen aufgrund höherer mittlerer Latenz (in dem Fall durch die langsamere Fabric).
Zumal der Vorsprung nicht gerade groß ist.

basix
2021-11-10, 10:48:54
Bei Spielen und einigen Applikationen (wie Packern) wird V-Cache sicher einiges bringen. Läuft man aber schon zum grössten Teil im L2$ wie bei Cinebench, wird sich da nicht viel tun.

Das Argument bezüglich Server-CPU und Bandbreite sehe ich aber nicht. EPYC hat 8x Speicherkanäle bei 64 Cores. Desktop hat 2x Speicherkanäle bei 16C. Das Verhältnis ist also gleich. Klar, bei Desktop kann man schnelleren RAM verwenden und die Latenz ist durch das und den weniger komplexen IOD schonmal geringer. Da sind aber keine Faktoren an Unterschied dazwischen. Deswegen denke ich, dass Anwendungen, welche auf Milan-X gut profitieren, dies auch am Desktop relativ stark tun. Einfach etwas abgeschwächt. Das hängt aber zum Grossteil von der Anwendung ab. Ein Word oder Excel gehören vermutlich nicht dazu ;)

robbitop
2021-11-10, 11:59:50
Das beste Beispiel für Caches und Games habe ich ja völlig vergessen. Der i7 5775c. Der ist auch heute noch in Spielen sehr gut dank seinen Caches und hat Skylake trotz älterer uArch und deutlich weniger Takt zu schaffen gemacht in Spielen.
https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it

Da zeigt er Hochtakt Haswells (4790K) und Skylake (6700K) die Rücklichter auch in modernen Spielen.


Intel’s eDRAM enabled Broadwell processors accelerated a significant number of memory bandwidth and memory latency workloads, in particular gaming. What eDRAM has enabled in our testing, even if we bypass the now antiquated CPU performance, is surprisingly good gaming performance. Most of our CPU gaming tests are designed to enable a CPU-limited scenario, which is exactly where Broadwell can play best. Our final CPU gaming test is a 1080p Max scenario where the CPU matters less, but there still appears to be good benefits from having an on-die DRAM and that much lower latency all the way out to 128 MiB.

VCache sollte für Spiele nicht unterschätzt werden. +15-25% (je nach Spiel) sind nicht unrealistisch - insbesondere wenn man sich obigen Broadwell mit eDRAM anschaut.

BlacKi
2021-11-10, 12:19:09
Das beste Beispiel für Caches und Games habe ich ja völlig vergessen. Der i7 5775c. Der ist auch heute noch in Spielen sehr gut dank seinen Caches und hat Skylake trotz älterer uArch und deutlich weniger Takt zu schaffen gemacht in Spielen.
https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it

Da zeigt er Hochtakt Haswells (4790K) und Skylake (6700K) die Rücklichter auch in modernen Spielen.



VCache sollte für Spiele nicht unterschätzt werden. +15-25% (je nach Spiel) sind nicht unrealistisch - insbesondere wenn man sich obigen Broadwell mit eDRAM anschaut.

das ist zwar alles richtig und beeindruckend gegenüber stock, aber gerade mit guten timings und mit viel taktrate minimieren sich diese vorteile gegenüber stock. und wer von den leute hier, die die letzten %te aus der cpu quetschen betreiben keinen manuell optimierten ram.

und es wird auch keine objektiven tests dazu geben, weil immer alles gegen stock getestet wird.

Platos
2021-11-10, 12:26:13
Aber wenn es keine objektiven Tests dazu gibt, woher nimmst du denn die Kenntnis her, dass sich der Einfluss bei viel Taktrate stark minimiert ;)

Irgendwie stehen die zwei aussagen im Widerspruch gegeneinander. Einerseits gibts keine Datenlage dazu, du weisst aber trotzdem den Ausgang der Situation ;)?

robbitop
2021-11-10, 19:31:08
das ist zwar alles richtig und beeindruckend gegenüber stock, aber gerade mit guten timings und mit viel taktrate minimieren sich diese vorteile gegenüber stock. und wer von den leute hier, die die letzten %te aus der cpu quetschen betreiben keinen manuell optimierten ram.

und es wird auch keine objektiven tests dazu geben, weil immer alles gegen stock getestet wird.

Das stimmt definitiv. Aber man muss konstatieren, dass bedingt durch die immer langsameren (weil skalierbareren) Fabrics die Memorylatenz wirklich den Bach runter gegangen. Beim 7700K konnte man mit richtig gutem RAM und Tuning 36 ns erreicht. Zen 3 und ADL liegen in den 80er ns Werten und man ist schon super wenn man durch Tuning in die 70er kommt.

Crystallwell lag bei 40 ns. Zen 3 VCache liegt bei 10 ns.

Die Differenz ist also sogar deutlich größer geworden. VCache ist in einer ganz anderen Liga was Latenz angeht als edram oder getunter ddr ram.

BlacKi
2021-11-11, 01:44:09
Aber wenn es keine objektiven Tests dazu gibt, woher nimmst du denn die Kenntnis her, dass sich der Einfluss bei viel Taktrate stark minimiert ;)

Irgendwie stehen die zwei aussagen im Widerspruch gegeneinander. Einerseits gibts keine Datenlage dazu, du weisst aber trotzdem den Ausgang der Situation ;)?
beides cache und ram haben denselben zweck, die bereitstellung von benötigter daten. und die latenz ist wichtig für die performance, da hat cache einen großen vorteil. umso größer der cache ist, umso weniger muss man den ram abfragen. wenn das spiel schon mit 32mb einen großteil bedienen kann, dann wird der speicher kaum noch abgefragt, und damit spielt die latenz des speichers fast keine rolle mehr. das hat vorteile und nachteile: vorteil, die performance ist auch mit schlechtem ram gut. nachteil schneller ram kann keine vorteile mehr bringen.


es ist nur logisch, das ein größerer l1 schnell mal l2 skalierseffekte zunichte macht. und ein l2 die l3 skalierung ruiniert, wenn man jenen stark vergrößert. und l3 nimmt skaliereffekte vom ram, der nichts anderes ist als erwerterbarer cache.
https://cms.capframex.com/api/assets/capframex-com/3859055a-f6c2-480e-9fb7-5a7064738c83/grafik.png
https://www.capframex.com/tests/Alder%20Lake-S%2012900K%20is%20the%20new%20Gaming%20King


in spielen, in denen mit 3dvcache zum großteil nicht ausreicht, dort wird schneller speicher weiterhin viel bringen. aber das hw unboxed video mit den verschiedenen cache abstufungen zeigt zum teil schon, das nicht jedes spiel gleichgut mit mehr cache skaliert und das es eine sättigung gibt.


ich bin gespannt ob nicht für viele spiele 96mb zuviel des guten sind. und ich erwarte in den spielen die gut mit dem extra cache skalieren höhere kerntemperaturen, weil einfach mehr arbeit in kurzer zeit geleistet werden kann.

basix
2021-11-11, 08:08:06
Ich verstehe deinen Punkt nicht. Mehr Cache haben und dadurch die RAM-Geschwindigkeit irrelevant machen ist doch gut? Das habe ich deutlich lieber als wenig Cache und dafür bringt RAM-Tuning was. Die Lösung mit dem grossen Cache wird immer die schnellere von beiden sein, da dessen Bandbreite und Latenz besser als beim RAM ist. Ich sehe da also nirgends einen Nachteil bezüglich Cache vs. RAM. Bei mehr Cache kann es "zu viel des Guten" also gar nicht geben, solange andere Dinge wie Cache-Latenz, Chipfläche und Energieverbrauch nicht zu stark beeinträchtigt werden.

BlacKi
2021-11-11, 10:32:01
ich hab ja geschrieben das es vor und nachteile hat. ich wollte ihm lediglich erklären, das eben ein ungewisser teil der performance durch ram tuning und oc wegfällt, weil er es nicht so sieht.

wenn die cpu dadurch nicht massiv teurer würde, dann ist eine massive cache vergrößerung wünschenswert, dann könnte man geld sparen. aber im fall zen3 bezahlt man das teuer als aufpreis, oder amd will einfach nur gut geld verdienen. oder es gibt einfach nur nicht genug cpus.

warum das niemand wirklich wissen und testen will ist doch logisch. du kaufst doch nicht eine neue teure cpu, um dann bestätigen zu wollen, dass das ram tuning nun weniger bringt. das ist ein wissen, das man sich höchstens selbst aneignet, aber weniger dazu geneigt ist zu teilen.

mich würde das echt mal interessieren. mit gutem ram oc bei tuning konntest du bei zen1 fast 30% extra rausholen. ich frag mich echt, wieviel davon noch bei zen 3 und dann mit v cache übrig geblieben ist.

basix
2021-11-11, 11:46:19
Ja, RAM Tuning sollte inkl. V-Cache weniger bringen. Alles andere wäre unlogisch. Ich sehe das aber eben nicht als Nachteil, sondern als eine gute Eigenschaft des Produkts. Inkl. RAM-Tuning müssten nun natürlich die Produkte mit und ohne V-Cache etwas näher zusammenrücken als bei Standard-RAM.

Und du sagst es richtig: Solche Tests wären interessant. PCGH, CB, Golem, ...? :)

Lehdro
2021-11-11, 15:53:14
Beim 7700K konnte man mit richtig gutem RAM und Tuning 36 ns erreicht. Zen 3 und ADL liegen in den 80er ns Werten und man ist schon super wenn man durch Tuning in die 70er kommt.Ich gehe mal davon aus dass du von AIDA Werten redest:
Für Zen 3 stimmt das so nicht, selbst ich erreiche mit nicht einmal auf Kante genähten Setting knapp über 55ns mit Zen 3. Auch ADL schafft ohne viel Aufwand extrem gute Werte (https://cxblobs.blob.core.windows.net/images/Alder_Lake_review/pics/MemoryBenchmarks/12900K_Cachemem.png).
Nicht vergessen, zum Beispiel Anandtech testet eigentlich immer JEDEC, also absoluter Worstcase was Latenzen angeht. Da haut Crystalwell natürlich extra rein.

Die Differenz ist also sogar deutlich größer geworden. VCache ist in einer ganz anderen Liga was Latenz angeht als edram oder getunter ddr ram.
Das auf jeden Fall, selbst bei getunten DRAM ist da locker Faktor 3 dazwischen - komplett andere Verhältnisse als Broadwell.

Platos
2021-11-11, 16:50:04
@Blacki: Ich dachte, du meintest CPU Takt.

robbitop
2021-11-11, 17:20:17
Naja 58 ns ggü 36 ns sind aber immerhin noch +22 ns. Die 55 ns in Zen 3 sind sicherlich mit CL14 RAM 3200-3600 MHz. Was schon richtig richtig guter RAM ist.

Jedenfalls ist das alles Kinkerlitzchen verglichen mit den 10 ns des VCache.

VooDoo7mx
2021-11-12, 16:15:40
Es gibt jetzt schon genauere Daten von den großen mobilen Die und deren SKUs

Der Core i7 12700H wird schon die volle 6P+8E+96EU Konfiguration haben. L3 Cache ist 24MiB. Also 2 L3 Slices weniger als der Desktop Die
Der Core i9 wird wohl weiterhin nur ein besser gebinntes Modell mit höheren Takt und ggf. offenen Multi bleiben. Meiner Meinung nach wie in den letzten Jahren nur ein sinnlos Upgrade.

Mulitcore Performance doppelt so hoch wie 8C Comet Lake.

https://videocardz.com/newz/intel-core-i7-12700h-cpu-is-twice-as-fast-as-core-i7-10750h-in-multi-core-test

iamthebear
2021-11-12, 17:32:47
Das beste Beispiel für Caches und Games habe ich ja völlig vergessen. Der i7 5775c. Der ist auch heute noch in Spielen sehr gut dank seinen Caches und hat Skylake trotz älterer uArch und deutlich weniger Takt zu schaffen gemacht in Spielen.
https://www.anandtech.com/show/16195/a-broadwell-retrospective-review-in-2020-is-edram-still-worth-it

Da zeigt er Hochtakt Haswells (4790K) und Skylake (6700K) die Rücklichter auch in modernen Spielen.



VCache sollte für Spiele nicht unterschätzt werden. +15-25% (je nach Spiel) sind nicht unrealistisch - insbesondere wenn man sich obigen Broadwell mit eDRAM anschaut.

Also ich würde die Ergebnisse von Anandtech unter Vorbehalt betrachten.

HWU hat auch einen Test gemacht jedoch auf höheren Taktraten:
https://youtu.be/XJaSCnVcCdQ

Der 5775C und der 10105F liefen mit 4.2GHz, alles darüber auf 4.5GHz.

Hier war der 5775C durchgehend langsamer selbst gegen den 10105F mit demselben Takt/L3/Kernen

Möglich, dass es am Spielemix liegt (HWU hatte doch deutlich modernere Titel).

Es könnte aber aber an den verwendeten GPUs liegen. Während Anandtech mit einer 2080 Ti getestet hat haben HWU mit einer 6900 XT getestet. Könnte es vielleicht sein, dass der Nvidia Treiber Overhead gerade noch in den eDRAM passt, nicht aber in den L3?

robbitop
2021-11-12, 18:09:36
Tja oder HWU hat Broadwell mit security mitigations ausgebremst, die bei der 10er Serie nicht notwendig waren. Und dann wurde der 10er Serie auch noch DDR4-3200er CL14 RAM spendiert und soweit ich das Video verstanden habe sogar noch die Timings getunt (was ja zu SKL Zeiten utopisch war und Broadwell gurkt mit DDR3 rum). Das verzerrt das Bild. Wahrscheinlich holt man damit so viel Latency raus, dass man auf grob Crystalwell latency kommt oder sogar darunter. Klar ist dann der Vorteil weg. Und dem entsprechend auch der Punkt, den ich versucht habe zu machen. Hohe Hitrate mit deutlich besserer Latency bringt in Spielen was. Der Latency Vorteil wurde ja hier weg-verzerrt. ;)
Aber das hat nichts mehr mit den Voraussetzungen von 2014/15 zu tun. Ansonsten müsste man ja auch mit heutigem Machbaren was LLC angeht testen (was nicht geht). 40 ns sind aus Sicht des VCaches gerade zu schnarchlahm.


Dass hohe Hitrate bei besonders geringer Latenz was bringt zeigen ja auch a) schon AMDs vorläufige Werte zum VCache und b) wenn man sich mal die Zen APUs gegen die CPU Varianten anschaut im Desktop. Die APUs haben weniger L3 und das schlägt in Spielen deutlich durch und c) die Performance Korrelierung von L3 seit Zen 1 bis Zen 3.
Zen 1: 8 MiB
Zen 2: 16 MiB
Zen 3: 32 MiB

Hitrate bringt in Spielen in der Regel einiges. Nicht in allen Spielen und auch nicht immer gleich stark.

Die Zen 3 APU ist ISO Takt und ISO Ram gerade mal knapp auf Zen 2 CPU Niveau. Unterschied ist der deutlich geringere L3.

ceed
2021-11-12, 18:39:14
Die Zen 3 APU ist ISO Takt und ISO Ram gerade mal knapp auf Zen 2 CPU Niveau. Unterschied ist der deutlich geringere L3.

Wenn dem so ist dann frage ich mich wieso man nicht ZEN2 schon soviel Cache spendiert hat? Die können doch die Steigerung im Vorfeld schon abschätzen?

HOT
2021-11-12, 19:15:24
Man hat Zen2 soviel Cache spendiert, nur in 2 Teilen (2 CCX), was ihn effektiv halbiert.

HPVD
2021-11-16, 09:04:51
schöner Test was DDR4 vs DDR5 vs DDR5 OC in verschiedenen Scenarien/Anwendungen bei nem 12900K heute bringt:

https://www.golem.de/news/ddr5-overclocking-im-test-was-schneller-ddr5-speicher-bringt-2111-161099.html

Rancor
2021-11-16, 10:57:45
Bevor man jetzt nen neues System kauft würde ich einfach die 3D Cache Ryzens abwarten... So viel krasser ist ADL jetzt nicht, das man unbedingt wechseln muss.

dildo4u
2021-11-16, 11:17:39
AMD kann nicht mal genug Zen 3 ohne 3D Cache herstellen du wartest nur auf noch teuere Modelle.
Es wird meiner Meinung nach auch erstmal kein Rabatt für alte Modelle geben, der Ryzen 3600 lohnt sich z.b überhaupt nicht da AMD seine Kapazitäten so umgestellt das sie mher 300€ Sixcores verkaufen können.
Und Intel hatte 2021 gute 200€ CPUs (11400) mit billigen Boards die Ram OC und PCI-E 4.0 können alles hat nix am Marktpreis von Zen 3 geändert.

MSABK
2021-11-16, 12:04:22
AMD kann nicht mal genug Zen 3 ohne 3D Cache herstellen du wartest nur auf noch teuere Modelle.
Es wird meiner Meinung nach auch erstmal kein Rabatt für alte Modelle geben, der Ryzen 3600 lohnt sich z.b überhaupt nicht da AMD seine Kapazitäten so umgestellt das sie mher 300€ Sixcores verkaufen können.
Und Intel hatte 2021 gute 200€ CPUs (11400) mit billigen Boards die Ram OC und PCI-E 4.0 können alles hat nix am Marktpreis von Zen 3 geändert.

In der aktuellen Chip-Krise würden mich Rabatte sehr überraschen. Die Chips werden denen aus den Händen gerissen und da ist 0 Bedarf nach Preisreduktionen.

HOT
2021-11-16, 12:15:57
AMD kann nicht mal genug Zen 3 ohne 3D Cache herstellen du wartest nur auf noch teuere Modelle.
Es wird meiner Meinung nach auch erstmal kein Rabatt für alte Modelle geben, der Ryzen 3600 lohnt sich z.b überhaupt nicht da AMD seine Kapazitäten so umgestellt das sie mher 300€ Sixcores verkaufen können.
Und Intel hatte 2021 gute 200€ CPUs (11400) mit billigen Boards die Ram OC und PCI-E 4.0 können alles hat nix am Marktpreis von Zen 3 geändert.
Seh ich auch so. Trotz steigender Stückzahlen werden die alles los und können noch höherpeisiger mit dem VCache zuschlagen. Die Billigmodelle bleiben da schlichtweg auf der Strecke, das kannibalisiert eher die restlichen Zen2 noch weg. Wer ne CPU für < 250€ will muss zwangsläufig Intel kaufen.

KarlKastor
2021-11-16, 12:45:15
schöner Test was DDR4 vs DDR5 vs DDR5 OC in verschiedenen Scenarien/Anwendungen bei nem 12900K heute bringt:

https://www.golem.de/news/ddr5-overclocking-im-test-was-schneller-ddr5-speicher-bringt-2111-161099.html
Interessant. Andere Tests zuvor hatten mitunter mehr Vorteile für DDR4-3200 CL14 gezeigt.
Total War ist auch ziemlich Extrem.

Was dem Test eindeutig fehlt ist DDR4-3800 G1 zum Vergleich.

Nightspider
2021-11-16, 14:23:42
ich bin gespannt ob nicht für viele spiele 96mb zuviel des guten sind. und ich erwarte in den spielen die gut mit dem extra cache skalieren höhere kerntemperaturen, weil einfach mehr arbeit in kurzer zeit geleistet werden kann.

Ich glaub hier liegt ein Denkfehler vor.

Berechnungen sind im physikalischen Sinne keine Arbeit. Die Spannung liegt ja trotzdem an und während der Arbeit liegt der Takt ja trotzdem an.
Die Nanosekunden in denen die Recheneinheiten normalerweise auf den L3 oder RAM warten taktet die CPU wohl kaum runter weil ja stetig gerechnet wird. Nur das dazwischen deutlich weniger Leertakte laufen wegen Wartezeiten wenn der L3 drei mal so groß ist.

Es ist eher so das weniger Energie für den Transport der Daten benötigt wird.

Nur das die Energie bisher zwischen CPU und RAM verloren geht und mit V-Cache weniger Energie benötigt wird, die aber in der CPU in Wärme gewandelt wird. Aber ob Cache da viel Abwärme erzeugt weiß ich jetzt auch nicht so genau.

Das die Recheneinheiten selbst wegen höherer Last mehr Abwärme erzeugen glaube ich erstmal nicht. Wie oft ein Transistor pro Sekunde schaltet ist glaube bei der Energiebilanz egal, solange die Spannung konstant anliegt.

Ja, RAM Tuning sollte inkl. V-Cache weniger bringen. Alles andere wäre unlogisch. Ich sehe das aber eben nicht als Nachteil, sondern als eine gute Eigenschaft des Produkts. Inkl. RAM-Tuning müssten nun natürlich die Produkte mit und ohne V-Cache etwas näher zusammenrücken als bei Standard-RAM.

Vor allem kann man Geld sparen beim RAM kauf. Scheiß halt auf arschteure 32GB Kits wenn du dir den günstigsten 64GB RAM holen kannst.

Und stromsparender ist es auch noch.

AMD kann nicht mal genug Zen 3 ohne 3D Cache herstellen du wartest nur auf noch teuere Modelle.
Es wird meiner Meinung nach auch erstmal kein Rabatt für alte Modelle geben, der Ryzen 3600 lohnt sich z.b überhaupt nicht da AMD seine Kapazitäten so umgestellt das sie mher 300€ Sixcores verkaufen können.
Und Intel hatte 2021 gute 200€ CPUs (11400) mit billigen Boards die Ram OC und PCI-E 4.0 können alles hat nix am Marktpreis von Zen 3 geändert.

V-Cache ist einfacher zu fertigen als ein Compute Chiplet.

https://pics.computerbase.de/1/0/1/1/7/1-5a62160e092dad4e/article-1260x709.38fe8e7e.jpg

Wenn ich das richtig einschätze belegt ein V-Cache Die nur grob 40% der Fläche eines 7nm Chiplets. Vielleicht 35mm² ?
Dazu kommt das AMDs Waferkapazitäten zu steigen scheinen und eventuell kommen mit N6 nochmal Kapazitäten dazu.

Und für eine Navi21 GPU die AMD cancelt können sie grob 14 V-Cache Dies zu geringeren Kosten herstellen. [~500mm²/35m²]
Ratet mal was passieren könnte.
Damit könnte AMD wohl mindestens sieben 12-16 Kerner versorgen und dementsprechend mehr Umsatz machen.

Die Preisfrage wird aber wirklich interessant.

BavarianRealist
2021-11-16, 15:28:54
Die V-Cache-Chiplets haben etwa die doppelte Cell-Dichte: auf der Fläche, wo die Zen3-Chiplets 32MB-L3 haben, liefern die V-Chiplets dann zusätzliche 64MB.

Die Dichte der V-Cache-Chiplets dürfte schon daher kommen, dass man den "einfacheren" HD-Prozess nehmen kann, weil man ja hier keine CPU-Cores drauf hat. Der HP-Prozess hat nicht nur dichteren SRam; er benötigt auch weniger Metal-Layer, d.h. der jeweilige Wafer ist auch noch etwas billiger.

Siehe hier zu TSMCs 7nm-SRams (https://fuse.wikichip.org/news/2408/tsmc-7nm-hd-and-hp-cells-2nd-gen-7nm-and-the-snapdragon-855-dtco/)

BlacKi
2021-11-16, 15:39:49
Ich glaub hier liegt ein Denkfehler vor.

Berechnungen sind im physikalischen Sinne keine Arbeit. Die Spannung liegt ja trotzdem an und während der Arbeit liegt der Takt ja trotzdem an.
Die Nanosekunden in denen die Recheneinheiten normalerweise auf den L3 oder RAM warten taktet die CPU wohl kaum runter weil ja stetig gerechnet wird. Nur das dazwischen deutlich weniger Leertakte laufen wegen Wartezeiten wenn der L3 drei mal so groß ist.

Es ist eher so das weniger Energie für den Transport der Daten benötigt wird.

ich glaube schon dass das so ist, das die cpu warten muss. es liegen zwar weiterhin ca 1,4v an, aber erst der rechenvorgang lässt strom fließen, und damit erzeugt ein rechenvorgang tatsächlich hitze. wenn du nun die fps um 30% steigerst, weil 30 % weniger gewartet wird, dann werden 30% mehr rechenoperationen durchgeführt pro zeiteinheit. was den verbrauch erhöht und damit auch die temperatur.


genau deshalb brauchen spiele auch wesentlich weniger energie als anwendungen. dort wo der extra cache skaliert, dort wird der verbrauch auch nach oben gehen.

Die V-Cache-Chiplets haben etwa die doppelte Cell-Dichte: auf der Fläche, wo die Zen3-Chiplets 32MB-L3 haben, liefern die V-Chiplets dann zusätzliche 64MB.

Die Dichte der V-Cache-Chiplets dürfte schon daher kommen, dass man den "einfacheren" HD-Prozess nehmen kann, weil man ja hier keine CPU-Cores drauf hat. Der HP-Prozess hat nicht nur dichteren SRam; er benötigt auch weniger Metal-Layer, d.h. der jeweilige Wafer ist auch noch etwas billiger.

Siehe hier zu TSMCs 7nm-SRams

guter punkt. vl gibts cache bald immer extra, weil billiger und man damit kapazitäten spart. vl auch L4 genannt wie bei broadwell.

Nightspider
2021-11-16, 15:51:17
guter punkt. vl gibts cache bald immer extra, weil billiger und man damit kapazitäten spart. vl auch L4 genannt wie bei broadwell.

Reden wir darüber nicht schon seit Anfang an? ^^

HOT
2021-11-16, 16:08:12
Beim VCache ist es auch total egal, ob der in N7 oder N6 gefertigt wird. Man kann das einfach dort fertigen, wo mehr Kapazität verfügbar ist.

amdfanuwe
2021-11-16, 17:31:37
Ich glaub hier liegt ein Denkfehler vor.
...
Wie oft ein Transistor pro Sekunde schaltet ist glaube bei der Energiebilanz egal, solange die Spannung konstant anliegt.

Ja klar, im Leerlauf wird die gleiche Energie Verbraucht wie unter Vollast :freak:
Nur wenn der Transistor schaltet fließt Strom und erzeugt Wärme.
Höherer Takt, mehr Strom.
Dazu kommt noch eine Taktunabhängige Leakage. Deshalb werden ganze Prozessorbereiche abgeschaltet (von der Spannung getrennt), wenn sie nicht benötigt werden.

ich glaube schon dass das so ist, das die cpu warten muss.

Da wird nicht gewartet. Dazu gibt es die Pipes, alternative Berechnungen, , vorgezogene Berechnungen, Caches etc. Das die Pipe leer läuft wegen eines RAM-Zugriffs ist eher selten.
Wirklich gewartet wird eher bei I/O Zugriffen ( Festplatte, Tastatur, GPU ). Da wird dann aber eben mal auf einen anderen Thread gewechselt.

BlacKi
2021-11-16, 17:34:44
Da wird nicht gewartet. Dazu gibt es die Pipes, alternative Berechnungen, , vorgezogene Berechnungen, Caches etc. Das die Pipe leer läuft wegen eines RAM-Zugriffs ist eher selten.
Wirklich gewartet wird eher bei I/O Zugriffen ( Festplatte, Tastatur, GPU ). Da wird dann aber eben mal auf einen anderen Thread gewechselt.
in games, ja?

amdfanuwe
2021-11-16, 18:24:45
Da mehr Cache wohl hilft, dürfte es da öfters zu einem leerlaufen der Pipeline kommen, weshalb der Prozessor runtertaktet.
Es ist halt nicht so, dass der Prozessor dauernd ein paar Takte aussetzt weil er auf RAM warten muß.

Zossel
2021-11-16, 20:03:47
Da mehr Cache wohl hilft, dürfte es da öfters zu einem leerlaufen der Pipeline kommen, weshalb der Prozessor runtertaktet.
Es ist halt nicht so, dass der Prozessor dauernd ein paar Takte aussetzt weil er auf RAM warten muß.

Ein paar Takte würde ich das nicht nennen, das ist dreistellig. Hier mal für 50ns Latenz und 4Ghz Takt gerechnet:


$ python3 -c "print ( (50.0*10**-9 ) / (1.0/(4*10**9)) )"
200.0

Nightspider
2021-11-16, 21:21:59
Wenn ich das hier richtig verstehe kann Zen3 innerhalb von 1ms in den C6 deep sleep wechseln.


https://www.hardwareluxx.de/images/cdn01/2C63E118B2A74D84849E0B4C949382AB/img/C465B2597CDB4DC1B34C586BE7AE5D0A/AMD-Ryzen-5000-Platform-Theorie-00008_C465B2597CDB4DC1B34C586BE7AE5D0A.jpg

https://www.hardwareluxx.de/images/cdn01/2C63E118B2A74D84849E0B4C949382AB/img/53810314DE9C43BB843050AA992D9DD6/AMD-Ryzen-5000-Platform-Theorie-00009_53810314DE9C43BB843050AA992D9DD6.jpg

Wenn da Recheneinheiten 50ns auf Daten warten müssen wird da wohl nichts heruntergetaktet oder von der Spannung genommen.

Wobei hier von ganzen Kernen die Rede ist. Wie schnell kleinste Teile eines Kerns in irgendwelche Sparmaßnahmen wechseln werden wir wohl nie erfahren.

iamthebear
2021-11-16, 21:59:13
Der Energieverbrauch kommt ja (von ein paar Leckströmen abgesehen) nicht von der Spannung an sicht sondern davon, dass Transistoren schalten. Ist die CPU Idle (da sie auf etwas wartet) schalten sehr wenige Transistoren. Wenn sie etwas berechnet schalten viele Transistoren. Deshalb ist die Verlustleistung ja je nach Anwendung sehr unterschiedlich.

Was jedoch stimmt ist, dass die Energieeffizienz deutlich zunimmt. Wenn AMD die CPU dazu bringt, dass sie 10% weniger wartet, so können im Worst Case nur 10% mehr Energieverbrauch anfallen während die Performance um 10% steigt. Würde man die 10% mehr Performance durch höheren Takt erreichen wollen müsste man die Verlustleistung mindestens verdoppeln (also in etwa das was Intel mit ADL gemacht hat). Bei Spielen wo ohnehin schon sehr hohe Boosttaktraten anliegen wird man die 10% zusätzlich gar nicht schaffen.

Zossel
2021-11-16, 22:12:09
Wenn da Recheneinheiten 50ns auf Daten warten müssen wird da wohl nichts heruntergetaktet oder von der Spannung genommen.

Clockgating gibt es auch noch, die Verteilung vom Takt säuft auch ordentlich.

BlacKi
2021-11-16, 22:52:49
wenn ich aber durch den cache bis zu 30% mehr fps erhalte, dann hab ich aber auch bis zu 30% mehr rechendurchläufe und damit auch 30% mehr verbrauch. thats what i said. davon abziehen muss man dann nur noch den geringeren verbrauch, weil eine cache abfrage effizienter ist als eine ram abfrage. zu dumm, das der verbrauch des rams leider nicht zur cpu zählt. es ist sogar eine weiteres hinschaufeln von hitze richtung cpu, da nun die cpu die abfrage intern bewältigt und der ram wegfällt.

das ist sowieso nur in einzelnen spielen der fall, da der schnitt bei nur 15% liegen soll, und in games sowieso nie spitzentemperaturen anfallen werden. aber mit einem stock kühler könnten nun anstatt 90° ohne 3d v cache nun 95° erreicht werden mit 3dv. was dann in 25-50mhz weniger takt resultieren könnte.

Nightspider
2021-11-16, 23:26:01
Bei gleicher Spannung skaliert der Takt aber viel weniger mit dem Verbrauch.
Es hieß doch auch mal das mittlerweile ein ziemlich großer Teil des Verbrauchs darauf zurückzuführen ist die vielen Datenpakete kreuz und quer über die Chips zu jagen.

Dazu besteht der Chip aus riesigen Cache Arealen die ununterbrochen Saft ziehen, du hast die Taktgeber und die ganzen Einheiten warten alle die paar Nanosekunden bis die angeforderten Daten da sind.
Es werden am laufenden Band irgendwelche Daten angefordert, es nicht so das dauernd im Chip alles an und aus geht wenn du unter Last bist.

Es würde mich wundern wenn das mehr als 2-3°C ausmacht. Und das muss man erstmal präzise ermitteln, denn da kommt man ja schon in den Bereich der Messungenauigkeit.

Wenn man den V-Cache einzeln ein und ausschalten kann wäre es toll wenn wir es hinbekommen diese Verbrauchsmessungen zu machen.

In einem Artikel hab ich auch mal gelesen das in den 90ern Prozessoren im Idle und unter Last gleich viel verbraucht haben, als es noch nicht die ganzen Stromsparmechanismen gab.
Ich hab dazu vorhin noch einen anderen Elektro-Ingenieur befragt aber bei dem Thema konnte er auch nur mit den Schultern zucken.

amdfanuwe
2021-11-17, 00:07:35
Eher in den 80ern.
Schau mal einen Z80, 8502, 80(2|3)86 etc an.
Die bestanden fast nur aus einer ALU. Später kamen dann Hardware Integer Multiplikation/Division dazu.
Keine Pipes, kein Out of Order, Takt und Spannung immer auf einem Level.
Cache gabs später auf dem Board zum zustecken.
FPU gab es als zusätzlichen Chip 80(2|3)87.
Erst 80486, ab 1989, hatte die FPU eingebaut. Dann gings auch los mit CPU Kühlern.
Schau mal hier https://de.wikipedia.org/wiki/Intel_i486

Windi
2021-11-17, 00:14:22
V-Cache ist einfacher zu fertigen als ein Compute Chiplet.

Ja, aber die Compute Chiplets brauch man weiterhin und die bleiben weiter knapp.

Nur wiel die CPUs mit V-Cache erscheinen, hat AMD nicht plötzlich mehr CPUs zur Verfügung.

Nightspider
2021-11-17, 00:42:54
Zu den highend Zen3D CPUs werden eh nur die greifen, bei denen das Geld etwas lockerer sitzt.

Und einen Engpass hat AMD gerade nicht bei CPUs. Vor allem nicht mit der aufkommenden Konkurrenz durch Intel.

Zur Not zweigt AMD paar Wafer aus der GPU Produktion ab. Ob jetzt ein paar GPUs mehr oder weniger an Miner und Scalper gehen und sich hier im Forum nicht manche ihre 10. GPU zur UVP bestellen können ist zur Zeit eh scheiß egal. Der GPU Markt ist eh gerade im Arsch.

CPUs haben die höhere Priorität für AMD. Es würde mich wundern wenn AMD den höheren Waferbedarf durch V-Cache nicht schon vor 2-3 Jahren mit eingeplant hätte.

Dazu schwenken jetzt viele Produkte bei AMD auf N6 um und in grob einem halben Jahr gehen die ersten N5 Chips in Produktion.

Noch bisschen durchhalten.

Platos
2021-11-17, 09:56:16
Zen3 (Listenpreise) sind ja ohnehin schon überteuert, also wird Zen3D nochmals 10-20% mehr kosten (das Zen3D teurer wird, wurde ja schon angemerkt).

Die Strassenpreise werden aber nicht (wie Zen3) schon etwas tiefer wie Listenpreise sein. Also wird das ein teurer Spass.

dildo4u
2021-11-17, 10:06:26
Der 5950X 3D wird den selben Preis wie der 5950X haben, die CPU liegt offizell 200$ über Intel i9.
Sie sind jetzt dichter zusammen da der Intel neu und der AMD alt ist, mal sehen ob es im High-End überhaupt noch modelle ohne 3D geben wird.

basix
2021-11-17, 10:10:03
Reden wir darüber nicht schon seit Anfang an? ^^
Da hast du den falschen Benutzer beginnend mit "B" zum Quoting erwischt :D

Vor allem kann man Geld sparen beim RAM kauf. Scheiß halt auf arschteure 32GB Kits wenn du dir den günstigsten 64GB RAM holen kannst.

Und stromsparender ist es auch noch.

Genau darauf wollte ich hinaus. Ich habe lieber mit jedem Kack-RAM fast optimale Leistung. Bei teurem DDR5 ist das dann nochmals relevanter.


V-Cache ist einfacher zu fertigen als ein Compute Chiplet.

Richtig. Und wie der BavarianRealist gesagt hat, benötigt man vermutlich weniger Metal-Stacks und allgemein weniger Prozessschritte. Dadurch sind die Kosten nochmals tiefer.


Wenn ich das richtig einschätze belegt ein V-Cache Die nur grob 40% der Fläche eines 7nm Chiplets. Vielleicht 35mm² ?
Dazu kommt das AMDs Waferkapazitäten zu steigen scheinen und eventuell kommen mit N6 nochmal Kapazitäten dazu.
Sind 36mm2 (6x6mm), offiziell von Lisa Su so gesagt: https://www.anandtech.com/show/16725/amd-demonstrates-stacked-vcache-technology-2-tbsec-for-15-gaming

Beim VCache ist es auch total egal, ob der in N7 oder N6 gefertigt wird. Man kann das einfach dort fertigen, wo mehr Kapazität verfügbar ist.
AMD wird das nehmen, was aus Timeline-Sicht am meisten Sinn macht. Und das wird 7nm gewesen sein. Zukünftige V-Caches könnten natürlich auf 6nm umschwenken. Aber auch hier: Kosten und Verfügbarkeit sind relevant. 6nm verwendet EUV, da ist evtl. ein non-EUV Prozess in dieser Hinsicht besser.

CPUs haben die höhere Priorität für AMD. Es würde mich wundern wenn AMD den höheren Waferbedarf durch V-Cache nicht schon vor 2-3 Jahren mit eingeplant hätte.

Dazu schwenken jetzt viele Produkte bei AMD auf N6 um und in grob einem halben Jahr gehen die ersten N5 Chips in Produktion.

Noch bisschen durchhalten.

Soweit ich mich erinnere, hat AMD seit Anfang 2021 bis heute eine deutlich erhöhte Wafer-Menge zugesagt bekommen (50k -> 80k Wafer per Month): https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-maerz-2021

Anfang 2020 das selbe Lied: 30kwpm, Verdopplung bis Ende Jahr. Stimmen diese Zahlen, hätte AMD heute fast 3x so viele 7nm Wafer zur Verfügung wie noch Anfang 2020 (https://wccftech.com/amd-7nm-wafer-production-set-to-double-in-2h-2020-7nm-capacity-at-tsmc-currently-fully-booked/)

Diese Steigerung würde ohne Probleme für den V-Cache und mehr reichen. Das Problem ist, dass die Nachfrage einfach so extrem hoch ist und immer noch einige Materialien schwer zu beschaffen sind, um genügend produzieren zu können. Nvidia spricht nun bereits davon, dass über das ganze Jahr 2022 die Nachfrage das Angebot übersteigen wird. Bei AMD wird das nicht viel anders aussehen, eher sogar noch schlimmer.

Mit Zen 4 und RDNA3 schwenkt zwar ein guter Teil auf 5nm. Diese Produkte benötigen aber alle noch gleichzeitig 6nm (IOD, V-Cache, Infinity Cache / MCD bei RDNA3, N33 soll sogar noch komplett in 6nm kommen). AMDs Gesamtbedarf an 6/7nm Produkten wird dementsprechend nicht oder nur kaum abnehmen.

Edit:
Hier gibt es eine Artikel zur Abschätzung der Wafermengen usw. https://www.hardwaretimes.com/amd-used-90k-7nm-wafers-for-the-ps5-xsx-socs-just-under-20k-for-ryzenradeon-chips-in-the-last-6-months-approx/

PS5/XBSX&S würden somit pro Jahr ca. 180-200k Wafer benötigen. Das sind gerade Mal ~15-17kwpm. AMD hätte als noch 60-65k wpm für CPUs und GPUs übrig.

Die Zahlen im Artikel zu den Zen 2/3 Stückzahlen sind mMn viel zu gering. Man wird sicher mehr CPUs verkaufen. Pro Jahr werden irgendwie 200 Mio x86 CPU verkauft (diese Zahl habe ich von irgendwoher im Kopf). AMD hat einen Anteil von 15-20%. Wären also 30-40 Mio CPUs im Jahr.

40 Mio * 3 CCD (Abschätzung Fläche von 3x CCDs im Schnitt für Desktop, APUs und Server) ergäben ca. 460-480k Wafer pro Jahr oder ~40kwpm. Das hört sich anteilsmässig viel realistischer an als die im Artikel berechneten 10kwpm. Der Rest wäre dann GPUs. Ca. 20kwpm. Damit liessen sich ca. 1 Mio N21 und 1 Mio N22 pro Monat herstellen (sehr grob abgeschätzt).

HOT
2021-11-17, 10:42:02
Kostentechnisch dürfte N6 einigermaßen billiger sein, weil die EUV-Belichtung schlichtweg Zeit spart. Kostentechnisch müsste es also N6 sein, aber wie gesagt, es wird allein an der Kapazität hängen. Das Die lässt sich jedenfalls in beiden Prozessen ohne neue Maske fertigen, ist ja nur SRAM und die Packdichte ist gleich.

Platos
2021-11-17, 10:43:21
Der 5950X 3D wird den selben Preis wie der 5950X haben, die CPU liegt offizell 200$ über Intel i9.
Sie sind jetzt dichter zusammen da der Intel neu und der AMD alt ist, mal sehen ob es im High-End überhaupt noch modelle ohne 3D geben wird.

Quelle ? Bisher hiess es doch, dass Zen3D teurer wird.

amdfanuwe
2021-11-17, 13:05:27
ZEN 3D wird so teuer, wie es der Markt hergibt.
Werden wohl etwas teurer als ohne 3D.

basix
2021-11-17, 13:42:32
Ich denke auch, dass AMD die Preise etwas nach oben zieht.

- 5950XV = 899-949$
- 5950X = 799$
- 5900XV = 649-699$
- 5900X = 549$
- 5800X = 449$

amdfanuwe
2021-11-17, 14:26:56
Da kauf ich lieber in Deutschland:
5950XV -> 799€
5950X - 719€
5900XV -> 699€
5900X - 533€
5800X - 369€
5600X - 295€

BavarianRealist
2021-11-17, 15:52:53
Wozu braucht es noch einen 5950X, wenn ein 5900XV diesen vermutlich weit übertrupft? Warum den 16-Corer nicht nur noch mit 3D-Cache anbieten?

Wenn ich mir die Verkaufszahlen von Alderlake auf Mindfactory so ansehe, geht da nicht mehr viel. Solange es nur die teuren Z690-Boards gibt, braucht AMD preislich nicht zu reagieren.

Anfang 2022 werden aber die billigeren Boards und auch Alderlakes kommen. Aber auch da wird AMD vermutlich nicht groß reagieren, weil AMD aktuell kein Interesse an günstigen CPUs hat: der 5600X wird ja auch eher teurer als billiger.

MSABK
2021-11-17, 16:13:56
Ich denke Amd wird erst billiger wenn sie auf den CPUs sitzen bleiben. Aktuelle wird wie es aussieht alles verkauft.

HOT
2021-11-17, 16:17:16
Die werden eh nicht in die 5k-Serie eingepflegt und es fehlt der 8C+VCache, auf das Produkt kann man schlichtweg nicht verzichten.
Ich würd eher sagen, die 5K-Serie geht komplett EOL und man wird schon für den 8C 450€+ abrufen. Alles weitere, 6600 und 6700X mutmaßlich, pflegt sich halt darunter ein. 6900 und 6950 ohne VCache kann man ja dennoch als reine OEM-Varianten mit 65W bringen.

VooDoo7mx
2021-11-17, 16:39:50
Ich denke Amd wird erst billiger wenn sie auf den CPUs sitzen bleiben. Aktuelle wird wie es aussieht alles verkauft.

Selbst dann nicht. Dann ordert man eben bei TSMC mehr Navi 2 statt Zen 3 Wafer. Die bringen wahrscheinlich aktuell eh mehr Geld pro mm². ;)

BlacKi
2021-11-17, 16:43:08
Selbst dann nicht. Dann ordert man eben bei TSMC mehr Navi 2 statt Zen 3 Wafer. Die bringen wahrscheinlich aktuell eh mehr Geld pro mm². ;)cpus haben so oder so deulich höhere margen als gpus. so billig würden cpus nicht werden, das sich gpus mehr rentieren. auch zu aktuellen preisen nicht. dazu müsste eine 5800x cpu für 150€ verramscht werden. was nie passieren wird.

Nightspider
2021-11-17, 16:44:55
Selbst dann nicht. Dann ordert man eben bei TSMC mehr Navi 2 statt Zen 3 Wafer. Die bringen wahrscheinlich aktuell eh mehr Geld pro mm². ;)


Dir ist schon klar das AMD an CPUs mehr verdient als an GPUs oder?

Und das AMD nix davon hat wenn Scalper die Karten für 2000 Euro verkaufen?

VooDoo7mx
2021-11-17, 16:48:53
Dir ist schon klar das AMD an CPUs mehr verdient als an GPUs oder?

Und das AMD nix davon hat wenn Scalper die Karten für 2000 Euro verkaufen?

Das iost das Märchen was sich viele einreden, dass nur die Scalper dran schuld sind.
Das ist nur ein teil der Wahrheit. Sowohl AMD als auch nVidia haben schon mehrfach alleine dieses jahr die BOM und Chipkosten angehoben so das auch die Kartenhersteller ihre MSRP angehoben haben.
Warum sollten sie es auch nicht tun? Der Markt ist bei weitem nicht gesättigt also warum sollte man die Teile so billig verkaufen?

Nightspider
2021-11-17, 16:52:15
Dann ist dir vielleicht nicht klar das 6,5 Chiplets in die Fläche einer Navi21 GPU passen.

Damit kann AMD 2000 bis 2400 Euro Umsatz machen.

So viel verdient AMD nie und nimmer an den GPUs.

HOT
2021-11-17, 18:02:28
Ganz davon abgesehen, dass der Yield und der Verschnitt viel besser ist bei den Chiplets :freak:. Die CPUs sind erheblich lukrativer. Aber den GPU-Markt aufgeben ist keine Option.

dildo4u
2021-11-17, 18:08:40
AMD konnte aber bei den GPU die Preise verdoppeln, das ging bei den CPU nicht einfach nur noch 6900XT liefern und keine 6800 mehr.
Ich würde alles was wirklich Abfall ist nur noch an OEM ausliefern.

BlacKi
2021-11-17, 18:21:34
du meinst, also eine 6900xt für 2000€ verkaufen, nicht darunter? wegen gewinnmaximierung pro wafer? glaub nicht, das man den marktanteil so einfach aufgibt. auch intels gpu sparte aufzugeben und wafer für cpus freizumachen wäre für intel lukrativer. aber man will damit auch etwas erreichen.

amdfanuwe
2021-11-17, 19:15:31
Wozu braucht es noch einen 5950X, wenn ein 5900XV diesen vermutlich weit übertrupft? Warum den 16-Corer nicht nur noch mit 3D-Cache anbieten?

Weil der Cache nicht bei allen Anwendungen boosted.
Man kann sich dann aussuchen ob mehr Kerne oder mehr Cache für den eigenen Anwendungsfall sinvoller sind. Ist beim 3800X und 5600X doch ähnlich.
auch intels gpu sparte aufzugeben und wafer für cpus freizumachen wäre für intel lukrativer. aber man will damit auch etwas erreichen.
Jup, man will den Markteintritt erreichen damit man nach dem aktuellem Nachfrageboom zukünftig die Fabs auslasten kann.
Neue Fabs sind teuer und wenn die nicht ausgelastet werden führt das schnell zu verlusten. Daher ist eine Diversifizierung des Produktangebots notwendig und die Öffnung der Fabs für Semicustom Chips steht ja auch schon auf dem Plan für 2025.
Wenn Intel nicht die Kurve kriegt, können sie in ein paar Jahren ihre Fabs, wie IBM, verschenken. Das bisherige Geschäftsmodell, im bestem Fertigungsnode High End Produkte mit satten Margen zu liefern, funktioniert nicht mehr.

Thunder99
2021-11-18, 16:59:08
Nicht bei Intel, die sind zu groß. Die werden ihre Fabriken halten.

Und GPU anzubieten macht man um alles aus einer Hand anzubieten.

iamthebear
2021-11-18, 19:47:45
Wozu braucht es noch einen 5950X, wenn ein 5900XV diesen vermutlich weit übertrupft? Warum den 16-Corer nicht nur noch mit 3D-Cache anbieten?

Ein 5950X mit VCache braucht dann aber 2x36mm² mehr. Das ist in etwa so viel wie ein ganzer Compute Die. Zusätzlich sind die Packagingkosten vermutlich auch höher.

Der VCache bei Gaming bringt 15% mehr IPC, die man mit noch mehr Kernen nicht erreichen kann. Bei Multimediaanwendungen (die primäre Zielgruppe des 5950X) wird der Performancegewinn jedoch deutlich niedriger ausfallen. Ich denke mehr als 5% werden es da nicht sein. Es ist also nur etwas für die Zielgruppe Gamer + Conent Creator.

Der 5900X mit VCache wird es noch härter haben sich gegen den 5950X ohne VCache zu behaupten.

Ganz davon abgesehen, dass der Yield und der Verschnitt viel besser ist bei den Chiplets :freak:. Die CPUs sind erheblich lukrativer. Aber den GPU-Markt aufgeben ist keine Option.

Man sollte den Yield/Verschnitt nicht überschätzen. TSMC gibt für 7nm ca. 0.09 Fehler pro 100mm² an d.h. von 14 Compute Dies hat einer einen Defekt. Dann könnte man in der Regel aber immer noch einzelne Kerne/Cache Lanes deaktivieren.
Verschnitt ist auch immer relativ. Ob man von einer 300x300mm Scheibe 80mm² (8x10mm) Stücken oder 200mm² (z.B. 14x14mm) Stückchen raus schneidet wird da nicht so viel Unterschied machen. An den Schnittkanten hat man ja auch wieder Verluste.

BavarianRealist
2021-11-18, 21:00:40
Der VCache bei Gaming bringt 15% mehr IPC, die man mit noch mehr Kernen nicht erreichen kann. Bei Multimediaanwendungen (die primäre Zielgruppe des 5950X) wird der Performancegewinn jedoch deutlich niedriger ausfallen. Ich denke mehr als 5% werden es da nicht sein. Es ist also nur etwas für die Zielgruppe Gamer + Conent Creator.

Der 5900X mit VCache wird es noch härter haben sich gegen den 5950X ohne VCache zu behaupten.

Diese Überlegung ging mir auch schon durch den Kopf. An sich würde ein höher (z.B. 5Ghz) getakteter 5850X mit 8 Cores und nur einem Chiplet mit V-Cache vermutlich den perfekten Gaming-Chip ergeben. Warum also nicht nur einen 5850XV und einen 5950XV anbieten und die restlichen weitgehend unverändert lassen (evtl. 100-200Mhz höher takten)?

Complicated
2021-11-18, 21:32:06
Man sollte den Yield/Verschnitt nicht überschätzen. TSMC gibt für 7nm ca. 0.09 Fehler pro 100mm² an d.h. von 14 Compute Dies hat einer einen Defekt. Dann könnte man in der Regel aber immer noch einzelne Kerne/Cache Lanes deaktivieren.
Verschnitt ist auch immer relativ. Ob man von einer 300x300mm Scheibe 80mm² (8x10mm) Stücken oder 200mm² (z.B. 14x14mm) Stückchen raus schneidet wird da nicht so viel Unterschied machen. An den Schnittkanten hat man ja auch wieder Verluste.
Man sollte es aber auch nicht unterschätzen. Hinter den kleineren Dies steht ein Rattenschwanz an Kosten- und Performancevorteilen die sich summieren bis zum fertigen Endprodukt.


https://forum.planet3dnow.de/index.php?attachments/soc_speed_comparsion-jpg.34748/


https://forum.planet3dnow.de/index.php?attachments/soc_yield_comparsion-jpg.34749/

y33H@
2021-11-19, 09:33:15
Was dem Test eindeutig fehlt ist DDR4-3800 G1 zum Vergleich.Ich weiß, war mit meinem Speicher und meinem 12900K aber nicht zum Laufen zu kriegen.

iamthebear
2021-11-20, 15:13:15
Man sollte es aber auch nicht unterschätzen. Hinter den kleineren Dies steht ein Rattenschwanz an Kosten- und Performancevorteilen die sich summieren bis zum fertigen Endprodukt.


https://forum.planet3dnow.de/index.php?attachments/soc_speed_comparsion-jpg.34748/


https://forum.planet3dnow.de/index.php?attachments/soc_yield_comparsion-jpg.34749/

Welcher Rattenschwanz? Wenn man 2 kleine Chips verbaut, so hat man einen höheren Yield, dafür hat man höhere Packaging Kosten (da ja 2 Chips statt 1) bzw. höheren Design/Forschungsaufwand, damit man überhaupt in die Situation kommt die CPU sinnvoll auf 2 Chips aufzuteilen.

Nehmen wir einmal dein Beispiel oben:
1 Chip: 162 SOCs/Wafer
2 Chips: 181 SOCs/Wafer

Ein 7nm Wafer kostet bei TSMC kostet ca. 6000$ (Preis vor 3 Jahren also nagelt mich nicht auf den genauen Betrag fest, ist nur eine grobe Richtung).

Die reinen Kosten für die Chips wären also:
.) 1 Chip Variante: 37$
.) 2 Chip Variante: 33$

Wir reden also nicht um Unsummen zumindest nicht im Bereich von 300mm².

Was dabei noch nicht berücksichtigt wurde ist, dass je nach Chip ein Defekt ja nicht gleich automatisch ein unverkäufliches Produkt bedeutet, da ja in der Regel einzelne Teile deaktiviert werden können.

Was das Binning der CPUs auf bestimmte Taktfrequenzen angeht:
Das kann natürlich ein Thema sein, muss es jedoch nicht zwingend. Man könnte auch einfach die schlechteren Kerne weniger hoch takten. Das ist ja beim 12900K heute schon Realität, dass die 5.2X SC Turbo nur für die 2 besten Kerne freigegeben wird.

Diese Überlegung ging mir auch schon durch den Kopf. An sich würde ein höher (z.B. 5Ghz) getakteter 5850X mit 8 Cores und nur einem Chiplet mit V-Cache vermutlich den perfekten Gaming-Chip ergeben. Warum also nicht nur einen 5850XV und einen 5950XV anbieten und die restlichen weitgehend unverändert lassen (evtl. 100-200Mhz höher takten)?

In der Theorie würde das schon Sinn machen. Die Frage ist nur, ob man in der Praxis einen 5800X mit VCache wirklich um den Preis eines 5900X verkaufen kann. Wie will man das sinnvoll argumentieren: Alles außer Games läuft gleich oder schneller auf dem 5900X. Aktuelle Spiele laufen in realistischen Auflösungen gleich da sowieso nur im GPU Limit. Zukünftige Spiele mit neuer GPU in 2-3 Jahren laufen dann vermutlich auch schon besser auf dem 5900X da diese dann schon mehr Threads haben werden.

Complicated
2021-11-21, 10:49:26
Welcher Rattenschwanz? Wenn man 2 kleine Chips verbaut, so hat man einen höheren Yield, dafür hat man höhere Packaging Kosten (da ja 2 Chips statt 1) bzw. höheren Design/Forschungsaufwand, damit man überhaupt in die Situation kommt die CPU sinnvoll auf 2 Chips aufzuteilen.
Du fragst welcher Rattenschwanz und beschreibst selbigen dann selber. Deine Theorie mit 1 vs. 2 Chips ist auch irrelevant, da es eher 4 oder 8 Chips sind. Was sinnvoller ist, ist der Vergleich der Diegrößen und nicht der Kernzahl.

10% Waferersparnis ist ein Haufen Holz zudem und real sind es eher 15+%. Auch die Takterhöhungen für die SKUs durch binning sind massiv und Deine Ausführungen nicht zutreffend. Wenn Du sagst "kann man heute schon beim [monolithischer Chip Deiner Wahl]" Dann ist der dargestellte Binning-Effekt zusätzlich durch Chiplets, zu dem schon möglichen zu verstehen - das ist ein Vorteil der nur durch Chiplets entstehen kann. Und den Turbo-Takt hier zu vergleichen führt Dich nicht zum richtigen Ergebnis - Der Basistakt wird gebinnt.

ryan
2021-11-23, 12:02:08
https://www.computerbase.de/2021-11/intel-alder-lake-p-neue-high-end-notebook-cpus-werden-ausgeliefert/


ADL-P wird seit heute an Kunden ausgeliefert, also OEMs.

Zossel
2021-11-23, 20:28:38
DDR4 vs. DDR5:

https://www.phoronix.com/scan.php?page=article&item=ddr4-ddr5-alderlake&num=1

Das Videoencoder so auf RAM Geschwindigkeit ansprechen ist mir bisher entgangen.

Thunder99
2021-11-24, 12:10:58
Die Messlatte ist seit dem M1Pro/Max extrem hochgelegt. Wie soll da Intel dran kommen in der Performance und Leistung/Watt? Das wird spannend zu sehen wie die Notebooks auf Intel Basis gegen die neuen MacBook Pro werden.

BlacKi
2021-11-24, 12:43:19
läuft doch nur ios nativ drauf. kann man nicht vergleichen.

Thunder99
2021-11-24, 12:57:46
läuft doch nur ios nativ drauf. kann man nicht vergleichen.
Anwendungsbenchmarks. Klar, Vergleichbarkeit ist nicht 100%tig gegeben, da der Ressourcenverbrauch vom OS auch einen Einfluss hat.

robbitop
2021-11-24, 17:32:20
läuft doch nur ios nativ drauf. kann man nicht vergleichen.
Du meinst MacOS

//differentRob
2021-11-24, 18:13:21
Also in Affinity Photo zieht der M1/M1 Pro/M1 Max gerne mal mit der bisherigen Desktop Riege gleich. Einzig AlderLake kann sich Leistungstechnisch mit einem grösseren Powertarget noch als erster ins Ziel retten.

hier ein M1 Max:
https://twitter.com/andysomerfield/status/1452623920721448963/photo/1

mein 3600 + RTX 2070 Super (alles STOCK):
https://abload.de/image.php?img=affinityphoto_bench363dkh5.png

andere Vergleichswerte mit Alderlake:
https://www.hwcooling.net/en/intel-core-i9-12900k-megatest-amd-in-2nd-place-again/29/

Apple ist drauf und dran sich den Markt für kreativ Schaffende wieder zu "monopolisieren"... diesmal nicht wegen der Software, sondern weil die Leistung eines MacBooks einen fetten Desktop locker ersetzen kann.

Und das ist primär die Zielgruppe von Apple. Die haben Geld, weil sie mit den Geräten Geld verdienen nicht "aus Spass an der Sache" darauf rumspielen.

Savay
2021-11-24, 19:30:24
In DXO PhotoLab kann er es wiederum nicht wirklich...und die sind nicht bekannt dafür Apple außen vor zu lassen.
Das ist absolut Hit or Miss was die Software angeht mit den M1 bisher!

BTW sind diese Benchmark zahlen zur M1 Max GPU und dem N21 absurd.
Die Bottlenecken da irgendwas...aber nicht die Execution.

BlacKi
2021-11-25, 01:01:18
12700kf wieder unter 400€ https://geizhals.de/?cat=cpu1151&xf=16687_Core+i-12000

dildo4u
2021-12-07, 12:44:03
Mobile i5 kommen mit 4P+8E Cores auch im 45H Bereich.


https://videocardz.com/newz/intel-i7-12650h-10-core-alder-lake-p-cpu-to-feature-fewer-cores-than-i5-12500h-12-core

Hakim
2021-12-07, 19:04:01
Die B660 sollen nur RAM OC ermöglichen, CPU UV/OC nur mit Z690? Ich glaub ich werde Alder Lake diesmal wirklich überspringen und auf Raptor/Meteor oder Zen4 warten. Dann könnte ich auch direkt auf DDR5 aufrüsten, wenn sich bis dahin die Ram preise beruhigen.

Zossel
2021-12-07, 21:36:12
Sie können es nicht sein lassen:

https://www.phoronix.com/scan.php?page=news_item&px=Intel-SDSi-v2
Back in September Intel originally posted Linux patches for "Software Defined Silicon" for being able to activate extra CPU features present in the processor's silicon but not exposed by default unless the cryptographically secure process with this SDSi driver was performed.

Genau für sowas hasse ich Intel!

dildo4u
2021-12-16, 11:44:46
Igor simuliert ein 12400 er erwartet 50 Watt unter Gameing Last.


https://www.igorslab.de/en/upcoming-game-changer-in-the-middle-class-intel-core-i5-12400-in-gaming-tests-saving-without-e-cores/9/

ryan
2021-12-26, 13:04:30
Igor simuliert ein 12400 er erwartet 50 Watt unter Gameing Last.


https://www.igorslab.de/en/upcoming-game-changer-in-the-middle-class-intel-core-i5-12400-in-gaming-tests-saving-without-e-cores/9/


Beim i5-12400F/i5-12400 ist Vorsicht angesagt. Diese SKU kann entweder nativ vom 6+0 Die sein oder auch von einem teilkaputten 8+8 Abfall Die. Das native 6+0 Die läuft besser. Erkennen kann man das immer am stepping: C0 stepping ist immer 8+8 Die.

https://abload.de/img/124003vkwz.png
https://www.bilibili.com/read/cv14409405?spm_id_from=333.999.0.0

Das ist zwar kein riesiger Unterschied, mit einem gelockten power budget auf 65W würde die Leistung zwangsläufig dann aber schon ein paar Prozent variieren.

Es kann Sinn machen gleich den 12500 zu nehmen, angenommen der ist immer 6+0 nativ. Würde ich fast von ausgehen, erstens liegt der Basistakt 500 Mhz höher bei dem und zweitens ist nicht jeder 12400 ein 8+8 Die ist, so viel Abfall vom 8+8 kann es also nicht geben.

y33H@
2021-12-26, 14:08:03
Die Frage ist, ob Intel den 12400(F) von beiden Dies sourct oder eben nicht - bei Comet Lake etwa wurde der 10400(F) ja in zwei Varianten gebaut.

BlacKi
2021-12-26, 15:50:08
Die B660 sollen nur RAM OC ermöglichen, CPU UV/OC nur mit Z690? Ich glaub ich werde Alder Lake diesmal wirklich überspringen und auf Raptor/Meteor oder Zen4 warten. Dann könnte ich auch direkt auf DDR5 aufrüsten, wenn sich bis dahin die Ram preise beruhigen.naja, du kannst das powerlimit wohl dauerhaft mit software maximieren, was dir dann einen allcoreboost beschaffft, also das powerlimit basierende runtertakten deaktivieren. für mich ist das schon halbes oc. im fall eines 12400 sind das dann 4,6 ghz. vl geht auch noch was mit der baseclock auf ca 4,7.

y33H@
2021-12-26, 17:04:42
P-Core Max des 12400F sind 4,4 GHz - sprich der All (P) Core Turbo liegt daher wohl bei rund 4 GHz, und mehr geht auch bei 4096 Watt nicht.

VooDoo7mx
2021-12-27, 10:30:14
Ich hab auch mal einen spekulierten i5 12400 mit meinen 12700K simuliert.
Also nur 6P Cores, E Cores deaktiviert, 4GHz 6 Core Boost.
Zusätzlich noch Undervolting -125mV drauf gepackt.

Cinebench R23 MT war genau 63W maximal, ~12000 Punkte.
Also im Cinebench R23 ungefähr 20% mehr Leistung bei in etwa 40% weniger Verbrauch ggü. einen 11400.
Shadow of The Tomb Raider mit echten Game Settings (also kein 720P) so die meiste Zeit zwischen 30-40W Verbrauch. 40W wurden nie überschritten und manchmal auch unter 30W.
Bei weniger CPU intensiven Spielen, sollte der Verbrauch nochmal niedriger sein.

Ein H0 Die wird wohl nochmal etwas weniger verbrauchen.
Also der spekulierte 12400 wird nicht nur eine sehr gute Performance abliefern, sondern auch sehr sparsam sein. Der kleine boxed Kühler sollte locker ausreichen. Dazu ein günstiges DDR4 B660 Board und ab geht´s.

ryan
2021-12-27, 11:03:19
Die schreiben von 4.1 Ghz, bislang war immer von 4.0 Ghz allcore die Rede beim i5-12400. Problem wäre nur, wenn man vorm Kauf nicht sehen kann ob C0 oder H0. Dann würde ich gleich zum 12500 greifen, wenn der nur 20€ oder so mehr kostet.

iamthebear
2021-12-27, 19:42:42
Was man beim Simulieren nicht außer Acht lassen sollte ist der L3 Cache, den man ja nicht abschalten kann.
Der 12400 hat 18MB L3. Wenn man nun mit einem 12600K mit 20MB testet wird die Performance noch ziemlich gleich sein (bzw. igor hatte ja den 12400 als Vergleich unter dem Tisch stehen. Mit einem 12700K und 25MB kann ich mir aber schon gut vorstellen, dass da ca. 5% Unterschied sind.

BlacKi
2022-01-07, 01:25:24
P-Core Max des 12400F sind 4,4 GHz - sprich der All (P) Core Turbo liegt daher wohl bei rund 4 GHz, und mehr geht auch bei 4096 Watt nicht.in den games liegen aber trotzdem 4,4ghz an. durchgehend.

y33H@
2022-01-07, 08:30:25
Kommt auf's Spiel a, meine Logs aber zeigen bisher max 4,0 GHz.

BlacKi
2022-01-07, 10:47:57
alles fake auf youtube?

dildo4u
2022-01-07, 11:27:33
Hängt vermutlich vom Board ab igor hat hier nur 44 Watt beim Gamieng gemessen, dort ist das Ding auch ein bissel langsamer als 5600X.


https://www.igorslab.de/intel-core-i5-12400-review-effiente-gaming-cpu-fuer-die-breite-masse-teil-1/11/

y33H@
2022-01-07, 11:33:43
alles fake auf youtube?Kannst ja mal paar Videos zeigen, ich kann nur für meine Werte sprechen ... sowas wie CB R23 @ 1T sehe ich 4,4 GHz.

ryan
2022-01-07, 12:10:47
alles fake auf youtube?


Vermutlich ja. Multithread geht nicht mehr als 4,0 Ghz beim 12400. Wenn man explizit 1C anwählen kann, wie im Cinebench R23 1T Test, greift der ST Turbo. in Spielen aber werden in aller Regel mehrere Kerne belastet.

Und selbst wenn man ein ST Spiel hat, verteilt sich das trotzdem. Das kenne ich aus Erfahrung, entscheidend für die Taktfrequenz in Spielen ist letztlich der MT Turbo und nicht der ST Turbo, der ist mehr Augenwischerei. Der 12900K läuft in den Spielen auch immer nur mit dem MT Turbo.

Wenn wirklich 4400 Mhz anliegen würde, wäre der Abstand in den Spielen größer zum 5600x, es ist ja quasi ein Unentschieden zwischen 12400 und 5600x.

BlacKi
2022-01-08, 18:07:15
mir gehts halt wirklich nicht um cinebench takte, sondern um anliegender gaming takt. der ist schließlich auch ausschlaggebend für die leistung in den spielen.

vl bestelle ich einfach eine cpu^^

ryan
2022-01-08, 19:21:52
Kennen wir den MT Boost vom i5-12500? Logisch wären 4200 Mhz ausgehend vom i5-12400.

y33H@
2022-01-08, 21:00:27
Ich vermute 4200, checke das aber - denke man sollte den Aufpreis zahlen, Intel hat den 1x400F dieses Jahr zu sehr kastriert.

aufkrawall
2022-01-08, 21:10:57
mir gehts halt wirklich nicht um cinebench takte, sondern um anliegender gaming takt. der ist schließlich auch ausschlaggebend für die leistung in den spielen.

Was ist "Gaming"? Anno 1800 schwankt hier auch zwischen 4,2 bis 4,3 Ghz. Die meisten anderen Spiele sind aber konstant 4,2GHz.

BlacKi
2022-01-08, 22:10:33
in sottr skaliert der core takt irgendwie garnicht. in cities skyline fast 1zu1. 4ghz vs 5,2.

Thunder99
2022-01-08, 22:23:50
in sottr skaliert der core takt irgendwie garnicht. in cities skyline fast 1zu1. 4ghz vs 5,2.
Eventuell API limitiert das Spiel?

BlacKi
2022-01-08, 22:38:25
skyline ist auf 2 cores begrenzt, skaliert gut mit memory tuning als auch mit core clocks.

shadow of the tomb raider api limitierungen zu unterstellen grenzt an einem sakrileg für aufkrawall^^

aufkrawall
2022-01-08, 22:59:58
Würde erstmal empfehlen, den integrierten Benchmark beiseite zu legen und nur Paititi-Tempelbezirk ohne Bewegung in 720p niedriger RS zu testen, will man CPU oder RAM abklopfen. Ggf. auch Schatten auf medium etc (aber natürlich nicht Objekt-LOD).

Edit: Altes Bild von executer aus den PMs rausgekramt:
https://abload.de/img/sottr_2020_10_10_18_3j1kzi.png
Den Zielpunkt im Zoommodus auf den Knubbel der Holzkonstruktion unter den Bäumen ausrichten und GPU-Auslastung am besten <90% drücken.

dildo4u
2022-01-14, 07:09:21
Paar 12900HK Benches


wsx6glYBKyo

dildo4u
2022-02-24, 05:26:42
Alderlake U Folien.

https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/58184-alder-lake-mit-9-15-und-28-w-intel-nennt-zum-start-weitere-details.html

M4xw0lf
2022-04-25, 08:36:42
https://www.notebookcheck.net/Intel-Alder-Lake-efficiency-Intel-s-newest-CPUs-might-cut-down-the-battery-life.615383.0.html

Von Lenovo kommen wohl erste Datenblätter die nahelegen, dass Alder Lake schlechtere Akkulaufzeiten hat als seine eigenen Vorgänger. Wenn sich das bestätigt wäre es ein Ecorepic fail für den Hybridansatz.

For example: The Lenovo ThinkPad X13 G2 (available from Amazon, affiliate link). This 2021 model was supposed to achieve a battery life of 14.5 hours with the bigger 54.7 Wh battery in the MobileMark 2018 test. Its successor, the ThinkPad X13 G3 that is identical to the G2 except for the new processor Intel Core i5-1240P, is rated for 11.8 hours in the same test.

This is not an exception: The ThinkPad X1 Nano G2 has a battery life rating of 11 hours in MobileMark 2018, less than the X1 Nano G1 (13.6 hours), even though the new model has a slightly larger battery (49.5 Wh instead of 48 Wh). Same goes for the X1 Carbon G10: 15 hours in MobileMark 2018 are significantly less than the 16.7 hours for the X1 Carbon G9.

BlacKi
2022-04-25, 10:51:42
ja, durch die steigerung von leistung. was ziemlich logisch ist.

das die e cores nicht so funktionieren wie es der name sagt, ist schon länger bekannt. vl bringt es intel mit raptor auf die kette die e cores endlich mal effizient zu nutzen statt die gewonnene performance auszunutzen.

Dampf
2022-04-25, 10:56:15
https://www.notebookcheck.net/Intel-Alder-Lake-efficiency-Intel-s-newest-CPUs-might-cut-down-the-battery-life.615383.0.html

Von Lenovo kommen wohl erste Datenblätter die nahelegen, dass Alder Lake schlechtere Akkulaufzeiten hat als seine eigenen Vorgänger. Wenn sich das bestätigt wäre es ein Ecorepic fail für den Hybridansatz.

Der Hybridansatz ist nicht schuld. Es läuft nur nicht alles so rund wie es sein sollte.

Vielleicht sollte man dem Design noch 4 ultra-effiziente Cores hinzufügen und sicherstellen, dass die anderen Cores beim normalen Surfen und Office Zeugs auch nicht anspringen.

Dann könnte Intel eventuell deutlich längere Akkulaufzeiten bieten als derzeit möglich.

Der Hybridansatz von Intel steckt sowieso noch in den Kinderschuhen, mit Alder Lake war erstmal Multicore Performance Prio.

Mit Meteor Lake denke ich werden wie die Früchte des Designs für die Energieeffizienz sehen.

dildo4u
2022-04-25, 11:03:51
Dort wurde einfach ein P statt U Modell verbaut, der interresante Test ist der neue 10 Core(Nur 2P Cores) vs 6800U.

https://www.intel.de/content/www/de/de/products/sku/226452/intel-core-i51240u-processor-12m-cache-up-to-4-40-ghz/specifications.html

Könnte sein das AMD deutlich besser performt und bessere Laufzeiten hat.

dildo4u
2022-04-30, 09:01:25
Dells Lösung sieht ok aus über 10 Stunden Laufzeit, die ganzen Herstellerangaben mit 20 Stunden+ sind eh Unsinn egal welche CPU.(Nicht mal M1 läuft 15)


https://youtu.be/6fPj6mj-M_k?t=454

Loeschzwerg
2023-12-30, 16:14:45
Copy&Paste von meinem Twitter/X Posting:
https://twitter.com/Loeschzwerg_3DC/status/1741110716071891339
Power from wall

N6000 (Asus PN41; 6W PL1)
Standby: 1.0W
Idle: 7-8W
YT 4K60: 11.5-12.0W
CBR23MT: 12.0-13.1W

N100 (MeLE Quieter4C; 8W PL1)
Standby: 1.1W
Idle: 5-6W
YT 4K60: 7.5-8.6W
CBR23MT: 11.3-12.0W
CBR23MT (10W PL1): 14.0-14.5W
Cinebench R23 score

N6000 PL1 6W (2x 4GB DDR4-2400)
1T: 540
4T: 1281

N100 PL1 8W (Default; 1x LPDDR4x-4267)
1T: 604
4T: 1278

N100 PL1 10W (PL1 locked in UEFI)
1T: 661
4T: 1917

Wie man sieht kann ADL-N bzw. Intel bei niedrigem Power-Budget nicht zaubern und die N100 Leistungswerte u.a. bei Notebookcheck sind immer im Kontext zu eben jenem Budget zu betrachten. Soweit nix neues, I know, aber nachdem man keine Werte mit niedrigem PL findet...

KarlKastor
2023-12-31, 05:26:45
Irgendwas ist da ja offensichtlich fishy, wenn bei 2 W mehr auf einmal 50% mehr Performance rauskommt.