PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18

Ex3cut3r
2021-07-21, 17:03:49
Ja, nen steigenden Marktanteil von nvidia ;D

Aber ja, die Leistung von RDNA2 hat mich sehr positiv überrascht.
Im November bin ich dann noch davon ausgegangen, dass das preislich für die Konsumenten positiv wird.
Also lag ich gleich zweimal falsch.

Bei Zen3 lag ich auch nur teilweise richtig - ich ging davon aus, dass wir da sehr attraktive CPUs bekommen werden.
Technisch stimmte das auch, die Apothekenpreise hatte ich nicht erwartet.
Also lag ich mit meiner positiven Euophrie für Zen 3 ebenfalls falsch.

Von daher hast du recht, meine Prognosen waren unterm Strich ziemlich schlecht.

Naja, zur deinem Schutz, dass Zen 3 zu diesen Preisen erscheint vor allem im Vergleich zu den Zen 2 Preisen hatte ich auch nicht erwartet, aber anscheinend alles möglich, Zen 3 wurde ja auch wie blöde gekauft, also für den Nachfolger geht nochmal was bei den Preisen. ;D

Der_Korken
2021-07-21, 17:12:47
Naja, zur deinem Schutz, dass Zen 3 zu diesen Preisen erscheint vor allem im Vergleich zu den Zen 2 Preisen hatte ich auch nicht erwartet, aber anscheinend alles möglich, Zen 3 wurde ja auch wie blöde gekauft, also für den Nachfolger geht nochmal was bei den Preisen. ;D

Im Gegensatz zu Zen 3 wird Zen 4 wohl voraussichtlich von Anfang an Konkurrenz haben und nicht gleichzeitig in eine weltweite Pandemie und einen Mining-Boom reingelauncht werden. Alder Lake könnte Intel sich dagegen ver-gold-en (ihr wisst schon, mit Golden Cove und Goldmont :D) lassen, wenn die ST-Performance stimmt.

Edit: Das Teil heißt ja Gracemont, Goldmont ist was anderes ...

Blediator16
2021-07-21, 17:13:28
Naja, zur deinem Schutz, dass Zen 3 zu diesen Preisen erscheint vor allem im Vergleich zu den Zen 2 Preisen hatte ich auch nicht erwartet, aber anscheinend alles möglich, Zen 3 wurde ja auch wie blöde gekauft, also für den Nachfolger geht nochmal was bei den Preisen. ;D

Es liegt eher daran, dass man ein Produkt, was besser als sein eigenes und der Konkurrenz dementsprechend auch bepreist. Leider hatte AMD keinen Grund die CPUs billiger anzubieten. Sind ja mittlerweile in humane Preisbereiche gekommen

Ex3cut3r
2021-07-21, 17:18:19
Eben. Und gekauft wird sowieso, da kann man sich noch auf einiges gefasst machen in den nächsten Jahren. Für den typischen Preis/Leistungskäufer dürften die Zeiten wohl endgültig vorbei sein. 6/12 CPUs mit 3D Cache für 400€ erscheinen mir durchaus realistisch. Und heißen wird er wohl 6600X.

Leonidas
2021-07-21, 17:21:17
Hat jemand einfach Leos Spekulationen genommen und gezählt wie oft die richtig waren? Gut, immerhin bessere Quote als AdoredTVs "Quellen" ;D.

Der hat leider nicht zwischen Leak und Repostings der Leaks von anderen unterschieden. Deswegen steht da auch 3DC in der Liste drin.

Ich nehme es nicht tragisch.

Zurück zum Thema:

1. OneRaichu ist ein bekannter Twitterer mit echten Quellen in Fernost.

2. Könnte das CB-Ergebnis von 12900K durch den Einsatz von AVX512 verfälscht sein? Auffällig ist, das man CB20 benutzt (mit AVX512-Unterstützung), aber nicht CB23 (ohne AVX512-Unterstützung).

Unicous
2021-07-21, 17:32:19
Dann macht das auch mit der Wasserkühlung Sinn.:freak:

aufkrawall
2021-07-21, 17:39:43
Jetzt kann ADL auf einmal wieder AVX512, oder was?

Der_Korken
2021-07-21, 17:39:43
2. Könnte das CB-Ergebnis von 12900K durch den Einsatz von AVX512 verfälscht sein? Auffällig ist, das man CB20 benutzt (mit AVX512-Unterstützung), aber nicht CB23 (ohne AVX512-Unterstützung).

Dann müssten Rocket Lake und Skylake X in CB20 auch sehr gut abschneiden. Tun sie aber nicht, ersterer liegt auf Zen 3 Niveau, zweiterer (trotz full speed AVX512) nur auf Zen 2 Niveau.

CrazyIvan
2021-07-21, 17:45:38
Jetzt kann ADL auf einmal wieder AVX512, oder was?
Du hast recht. Da hat Leo sich vermutlich vertan. Dass ADL kein AVX512 hat ist IMHO sicher.

Leonidas
2021-07-21, 17:48:01
Rocket Lake kann es. Wieso sollte Intel das Feature dann wieder kippen? Dann hätte man es gleich aus RKL herauslassen können.

Und RKL und SKL-Y werden bei AVX512 durch abgesenkte Taktraten ausgebremst. Was wenn Intel das bei ADL nicht mehr nötig hat?

Nichtsdestotrotz: Danke für die Hinweise, hatte das nicht mehr auf dem Radar.

Schnoesel
2021-07-21, 18:02:19
Hat man dann bei Intel Cinebench wieder lieb oder wie war das mit der real world? Ich dachte CB is irrelevant laut Intel noch dazu eine Bloatware? Ich bin gespannt :-)

Locuza
2021-07-21, 18:08:46
Ob Alder Lake AVX512 unterstützt, hängt von der aktiven Konfiguration ab.
Die großen Kerne, Golden Cove, unterstützen AVX512, die kleinen Gracemont-Kerne tun dies nicht.
Sind beide Kerntypen simultan aktiv, dann wird AVX512-Support deaktiviert und AVX2 ist das Maximum was man bekommt.
Deaktiviert man die kleinen Kerne, dann steht AVX512-Support zur Verfügung.

Aber das 8x große Golden Cove-Kerne 16x Zen3-Kerne in Cinebench20 schlagen, ist natürlich höchst unwahrscheinlich.
Edit: Außer AVX512 würde einen mächtigen boost bringen, was anscheinend nicht der Fall ist.

reaperrr
2021-07-21, 18:08:52
Rocket Lake kann es. Wieso sollte Intel das Feature dann wieder kippen? Dann hätte man es gleich aus RKL herauslassen können.

Bei Lakefield war es doch so, dass die in den kleinen Kernen nicht unterstützten Befehle auch im ICL-Kern deaktiviert werden mussten, damit es keine Probleme gibt.
Also dass AVX512 bei den Consumer-GoldenCove zumindest nicht aktiv ist, halte ich daher für gut möglich.

ChaosTM
2021-07-21, 18:10:41
Der wirkliche Gradmesser werden wie immer die Spiele sein. Wenn man vorne liegt, mag man das jeweilige Programm natürlich ganz doll, das versteht sich von selbst. ;)

Leonidas
2021-07-21, 18:18:01
Hat man dann bei Intel Cinebench wieder lieb oder wie war das mit der real world? Ich dachte CB is irrelevant laut Intel noch dazu eine Bloatware? Ich bin gespannt :-)


Wenn Du so fragst ...
https://twitter.com/BitsAndChipsEng/status/1417744752599085056

https://i.imgur.com/OOYIc1X.png

CrazyIvan
2021-07-21, 19:47:21
@Locuza
+1
Das meinte ich mit meinem sehr knappen Kommentar.

Freestaler
2021-07-21, 20:01:23
Wieso sollten acht fette Cores mit 228W+ (evtl auch unbegrenzt) unter Wasser nicht 16 Cores mit 142 Watt unter Luft schlagen können? Ohne OC heisst ja nicht ohne spielerei im AutoBoost . Kleine Rechnung, +25% pro Core (siehe ST result), macht aus dem 8 einen 10 Core. 10core dürfen nun 60% mehr verbrauchen 16 Core. Jetzt gehen noch davon aus das der Teil des IO usw. im CPU immer gleich gross heisst es sind noch mehr als die 60%. Ungefähr 11%? Dann sind wir beim resultat. 8 core adl schlägt 16 cores zen3. Unter Wasser und ohne W limits. So unrealitisch ist das dann nicht mehr und qäre endlich ne Antwort auf Augenhöhe, wenn auch noch nicht sonderlich ein Fortschritt. Dafür geht zuviel übers Powerbudget.

KarlKastor
2021-07-21, 20:10:30
Zu erwarten man würde auf dem Taktlevel für 60% mehr TDP auch 60% mehr Performance erhalten ist komplett abwegig. Man ist da am Maximum der Architektur und sehr weit weg vom Sweetspot.

Freestaler
2021-07-21, 20:29:00
Abwegig im Vergleich finde ich das nicht. Erstens ist auch der 5950 an der Grenze (mehr TDP bringt praktisch nichts mehr), Zweitens ist diese Grenze je nach Architektur. Evtl ist sie bei ADL eben hoch. Selbst heute Core/Watt max bereits bei Intel deutlich höher.

KarlKastor
2021-07-21, 21:07:25
Der 5800 hat bei der Hälfte an Kerne die gleiche TDP. Dort liegt die Grenze.
Der 5950 taktet etwa 400 MHz niedriger bei halber Leistung pro Kern. Da sieht man die Effizienz flöten gehen.
Das gleiche passiert wenn der Alderlake auf 5.3 GHz all-core geht. 125 statt über 200 W und man verliert vielleicht 20% Performance.

Der_Korken
2021-07-21, 21:40:43
Das Sample hat nicht höher als 5,3Ghz getaktet. Wenn man damit einen 5950X schlagen will, der vielleicht noch 4Ghz im CB schafft, müsste Golden Cove +50% IPC auf Zen 3 haben und die 5,3Ghz komplett halten. Das ist einfach total unrealistisch.

Ein weiterer Punkt, der dagegen spricht ist der ST-Score. Der müsste dann auch über 50% höher sein als beim 5950X, also mindestens so um die 1000. Und das MT-zu-ST-Verhältnis spricht imho klar dafür, dass die kleinen Kerne gut mitgeholfen haben müssen (siehe meinen Post https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12741455#post12741455).

robbitop
2021-07-21, 22:25:09
MT arbeiten doch die Little Cores mit?

Der_Korken
2021-07-21, 22:33:12
Ja eben :)

Dass die 8 großen Kerne es alleine mit einem 5950X aufnehmen sollen, ist imho Quatsch.

robbitop
2021-07-21, 22:39:22
Das denke ich auch. Zumindest wenn die Kerne vernünftig ausgelastet werden.

Tralalak
2021-07-21, 23:37:56
8 + 8
8GC + 8GM
8x P-Cores + 8x E-Cores
8C / 16T + 8C / 8T

The question that interests me. Power saver states.
Idle, Office work, youtube, 4K / FHD video etc.
OC / OT + 1C~8C / 1T~8T

fondness
2021-07-22, 08:45:44
Was auf jeden Fall auch noch dagegen spricht, ist, dass ja Intel selbst nur 20% mehr ST Performance versprochen hat. Und die Angaben von Intel waren bisher eher optimistisch.

Thunder99
2021-07-22, 09:23:30
8 + 8
8GC + 8GM
8x P-Cores + 8x E-Cores
8C / 16T + 8C / 8T

The question that interests me. Power saver states.
Idle, Office work, youtube, 4K / FHD video etc.
OC / OT + 1C~8C / 1T~8T
They should be fine due to the small cores. Lets see.

Die CB Werte sind zu gut, das muss was getrickst worden sein.

basix
2021-07-22, 09:26:40
Was auf jeden Fall auch noch dagegen spricht, ist, dass ja Intel selbst nur 20% mehr ST Performance versprochen hat. Und die Angaben von Intel waren bisher eher optimistisch.

Zwischen Rocket Lake und Alder Lake liegen allerdings zwei Architekturen. Und IPC ist immer so eine Sache, je nach Anwendung sind es mehr oder weniger. Evtl. ist es bei Cinebench eher mehr.

Die CB Werte sind zu gut, das muss was getrickst worden sein.

CB20 mit dem 11900K * 1.25 = 7500 Punkte -> Evtl. noch etwas mehr, wenn der 12900K einen höheren All Core Boost halten kann.

Fehlen also noch 4000 Punkte. Dazu müssten die Little Cores aber schon recht stark sein, da sie kein SMT mitbringen. Das wäre schon nahe an Rocket Lake IPC. Ich denke, dass die 11500 Punkte mit AB realisiert wurden und dementsprechend einer Leistungsaufnahme jenseits von Gut und Böse.

Freestaler
2021-07-22, 09:39:27
Also, noch 4000 Punkte, ca. 53% über offener TDP mit AB und Wasserkühlung + little Cores in CB und evtl verbesserung HT effizients (ST ist ja ohne HT, MT dann wohl mit)? Mal schauen wie sich das zwischen little und Big Cores noch auflösen wird.

basix
2021-07-22, 09:45:28
Erhöhte MT Effizienz würde helfen (siehe Zen). Ganz undenkbar ist es nicht, ein solch hoher Score ist aber eher am oberen Limit des erwartbaren.

Edit:
Erhöhte MT Effizienz könnte aufgrund des grossen L2$ evtl. zutreffen. CB läuft typischerweise in den Caches. Sind es 8000 Punkte für die Big Cores ist es mMn eingermassen realistisch, dass die kleinen dann 3500 Punkte liefern. Ein 9700K (8C/8T) @ 4.8GHz liefert 3670 Punkte und anscheinend sind die Tremont Cores in CB20 relativ stark: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12739473#post12739473. Ist immer noch viel aber nicht ganz unmöglich.

Daredevil
2021-07-22, 12:52:51
Was auf jeden Fall auch noch dagegen spricht, ist, dass ja Intel selbst nur 20% mehr ST Performance versprochen hat. Und die Angaben von Intel waren bisher eher optimistisch.

Bestimmt mit 420er Subzero WaKü ;D

BlacKi
2021-07-22, 14:49:18
ihr seid nicht auf fondnesses ST performance eingeganen.

tigerlake, auf die sich die 20% ipc beziehen, schafft bei 5ghz 608 punkte. damit wären bei alderlake und 5,3ghz eigentlich nur 773pt möglich. es sei, denn cinebench sticht halt irgendwie raus.
11980hk in r20
https://images.idgesg.net/images/article/2021/05/11980hk_cinebench_r20_1t-100889207-orig.jpg

inwiefern war jetzt avx raus?

Freestaler
2021-07-22, 14:52:48
Bestimmt mit 420er Subzero WaKü ;D

Intel "neuer Boxed".. auch bekannt als Cryo Cooler auf voller Leistung. ;-)

fondness
2021-07-22, 18:37:42
ihr seid nicht auf fondnesses ST performance eingeganen.

tigerlake, auf die sich die 20% ipc beziehen, schafft bei 5ghz 608 punkte. damit wären bei alderlake und 5,3ghz eigentlich nur 773pt möglich. es sei, denn cinebench sticht halt irgendwie raus.
11980hk in r20
https://images.idgesg.net/images/article/2021/05/11980hk_cinebench_r20_1t-100889207-orig.jpg

inwiefern war jetzt avx raus?

Intel spricht von 20% ST performance, nicht IPC wie noch bei RKL. Ergo sollte da der Takt bereits berücksichtigt sein.

basix
2021-07-22, 19:21:52
Wie schon gesagt. 20% sind der Durchschnitt und eine Prognose. Prognosen können übertroffen werden, IPC in bestimmten Anwendungen über- oder unterhalb des Durchschnitts landen.

Ich denke immer noch, dass der gezeigte Wert das maximal mögliche ist. Auch wenn es dann 10% weniger in CB20 werden sollten, wäre es immer noch ziemlich stark.

BlacKi
2021-07-22, 19:45:52
up to

ich will nicht sagen das es fake ist, aber es wäre halt deutlich mehr.
https://cdn.videocardz.com/1/2021/03/Intel-Alder-Lake-S-Specifications.jpg

Freestaler
2021-07-22, 20:02:51
Die Folien sprechen von 2x MT. Von den 8 little alleine kann es ja schwerlich sein? Die 8 Big haben ja auch noch HT. Wie solle die 8 kleinen 100% drauflegen? Ich bin mir ziemlich sicher, das auch die Bigcores im MT einen gewaltigen Schritt gemacht haben (was sehr gut wäre mMn. in vielen Reallifeszenarien ua. Auch Gaming).

fondness
2021-07-22, 20:16:56
Die Folien sprechen von 2x MT. Von den 8 little alleine kann es ja schwerlich sein? Die 8 Big haben ja auch noch HT. Wie solle die 8 kleinen 100% drauflegen? Ich bin mir ziemlich sicher, das auch die Bigcores im MT einen gewaltigen Schritt gemacht haben (was sehr gut wäre mMn. in vielen Reallifeszenarien ua. Auch Gaming).

Naja, wenn die big cores um 20% schneller sind und es noch dazu 8 Kerne dazu gibt, dann bin ich schnell auf up to 2x multi threading Performance. Gerade wo man weiß, wie schnell die little cores sind.

CrazyIvan
2021-07-22, 22:20:45
Zumal die großen Kerne dank neuerer Fertigung im AC bei offizieller TDP deutlich höher takten dürften.

basix
2021-07-22, 22:53:56
Die Folien sprechen von 2x MT.

2x MT eines 11900K wären in CB20 12k Punkte

Sunrise
2021-07-23, 00:39:45
Neue Intel Marketing-Folie und alle so:

Krass…

TheAntitheist
2021-07-23, 01:10:42
Neue Intel Marketing-Folie und alle so:

Krass…
sind's nicht eher die geleakten benchmarks?... blöder bash Versuch

Linmoum
2021-07-23, 01:41:51
"Geleakter Benchmark" ist aber auch Quatsch, ein Twitter-User hat lediglich zwei Zahlen gepostet. Angeblich Wakü und volle Lotte bei über 200W. Da CB auch kein Wunder, läuft nicht lange genug um den Durst zu stillen.

basix
2021-07-23, 08:18:54
Ich sehe das so: Die Intel Marketing Folie widerspricht dem "Leak" nicht. Und wer weiss, evtl. ist CB20 ein Best Case und Intel hat Cinebench plötzlich wieder doll lieb ;)

dildo4u
2021-07-23, 08:27:00
Je Neuer desto besser sollte es laufen CB23 nutzt AVX512, wenn sie dort nicht massiv zulegen stimmt eh was nicht.
Laut dem ist der neue 8 Core auf Level mit dem alten 10 Core in CB23.

https://www.cpu-monkey.com/de/compare_cpu-intel_core_i9_11900k-1854-vs-intel_core_i9_10900k-1139

Thunder99
2021-07-23, 11:09:58
Wenn ich das alles so lese können die CB Werte dann schon wieder Sinn ergeben.
Wenn AMD nicht das Power limitierte AM4 Sockel Problem hätte, würde der 5950X nach wie vor unerreichbar sein.

Linmoum
2021-07-23, 11:21:16
Je Neuer desto besser sollte es laufen CB23 nutzt AVX512, wenn sie dort nicht massiv zulegen stimmt eh was nicht.
Laut dem ist der neue 8 Core auf Level mit dem alten 10 Core in CB23.

https://www.cpu-monkey.com/de/compare_cpu-intel_core_i9_11900k-1854-vs-intel_core_i9_10900k-1139CB R23 nutzt kein AVX-512, R15 auch nicht. Einzig R20, also genau zufällig das, woher der "Leak" stammt. ;)

Der_Korken
2021-07-23, 11:24:57
Im MT kann AVX512 doch gar nicht gelaufen sein, weil die kleinen Kerne es nicht unterstützen und ohne kleine Kerne wäre der MT-Score gemessen am ST-Score viel zu hoch. Selbst wenn das Teil durchgehend mit 5,3Ghz Allcore gelaufen wäre.

dildo4u
2021-07-23, 11:28:08
Wieso sollte die neuere Engine Version den 512 Support droppen das ergibt Null sinn das wird von Intel gebaut.

unter der Haube weiterhin Intels Raytracing-Bibliothek Embree – beim Cinebench R23 Embree 3.11, beim alten R20 die ältere Version 2.17.7.

https://www.heise.de/news/Vergleichs-Benchmark-Cinebench-R23-unterstuetzt-ARM-MacBooks-4957396.html

The kernels are optimized for the latest Intel® processors with support for SSE, AVX, AVX2, and AVX-512 instructions. Intel® Embree supports runtime code selection to choose the traversal and build algorithms that best matches the instruction set of your CPU.

https://github.com/embree/embree

BlacKi
2021-07-23, 11:32:36
Wenn ich das alles so lese können die CB Werte dann schon wieder Sinn ergeben.
Wenn AMD nicht das Power limitierte AM4 Sockel Problem hätte, würde der 5950X nach wie vor unerreichbar sein.
ein 5950x schafft bei 4813mhz 12300. es wäre trotzdem ein hammer score, wenn intel mit 8+8 mit der fläche von 10 kernen einen 16 kerner schlagen könnte und eben der st wert einfach mal davon fliegt.

Im MT kann AVX512 doch gar nicht gelaufen sein, weil die kleinen Kerne es nicht unterstützen und ohne kleine Kerne wäre der MT-Score gemessen am ST-Score viel zu hoch. Selbst wenn das Teil durchgehend mit 5,3Ghz Allcore gelaufen wäre.
wenn du es sagst. mir fehlt die performance einordnung von avx, um da eine aussage treffen zu wollen.

Gipsel
2021-07-23, 11:35:46
Wenn der SingleCore-Score stimmt (der sieht wirklich stark aus), dürfte das schon hinkommen. Ich sage ja schon länger, daß die GraceMont-Cores in MT-Szenarien so etwa einem halben GoldenCove-Kern entsprechen werden (natürlich immer abhängig vom genauen Code usw.), das Gesamtkonstrukt also so ganz grob die Leistung von 12 GoldenCove-Kernen erreichen sollte.
Bei ~25% Vorteil im SingleThread-Run und der Annahme, daß sowohl Ryzen5k und Alderlake unter Allcore-Last in etwa gleiche prozentuale Einschränkungen bei der Taktfrequenz (um in der TDP zu bleiben) fahren müssen, kommt man auf 12C*1,25 = 15. Mache dann noch das TDP-Limit auf und fertig ist die Laube, um einen 5950X in CB20 zu schlagen.

Wie schon vor ein paar Tagen gesagt: Wenn intel mit Alderlake innerhalb der TDP (also ohne >200W oder sowas) in MT-Szenarien zuverlässig (CB20 ist ja nicht der Nabel der Welt) zwischen einem 12C und 16C Zen3 rauskommt, dann haben sie ein gutes Produkt abgeliefert (insbesondere da sie bei SingleThread-Leistung ja erwartbar bis Zen4 vorne liegen sollten).

Linmoum
2021-07-23, 11:39:44
Wieso sollte die neuere Engine Version den 512 Support droppen das ergibt Null sinn das wird von Intel gebaut.

https://www.heise.de/news/Vergleichs-Benchmark-Cinebench-R23-unterstuetzt-ARM-MacBooks-4957396.html

https://github.com/embree/embreeKeine Ahnung was Sinn ergibt und was nicht. Ian scheint damals extra nachgefragt zu haben.

CineBench R23 does not use AVX-512. Maxon has told me that the benefit of using AVX-512 is negated by the clock-down required to keep everything stable, so it isn't used. I'm told this is also why it is disabled in Intel's Embree, (which Cinema4D uses).https://mobile.twitter.com/iancutress/status/1327358373373898752?lang=de

Matrix316
2021-07-23, 12:04:51
Nach vier Jahren wirds glaube ich mal wieder Zeit zu Intel zu wechseln. :D

Also ich meine ganz frühe Alder Lake Zahlen gesehen zu haben und da waren die schon verdammt schnell. Oder ich bilde es mir nur ein. Aber der Leak hier scheint es ja anzudeuten.

dildo4u
2021-07-23, 12:07:45
Ich meine es kommt 1 Jahr nach Zen 3 und du musst schweine teuren Ram dazu kaufen das Ding sollte besser performen.

WedgeAntilles
2021-07-23, 12:12:38
Ich meine es kommt 1 Jahr nach Zen 3 und du musst schweine teuren Ram dazu kaufen das Ding sollte besser performen.
Alder Lake Läuft doch auch mit DDR4?

dildo4u
2021-07-23, 12:14:54
Ich vermute mal das es kaum DDR4 taugliche Boards geben wird da kaum einer High-End CPUs kauft um sie dann sofort zu gimpen.

BlacKi
2021-07-23, 12:55:55
Ian hat aber auch gemeint, das wohl die mehrheit der alderlake system wohl mit ddr4 laufen werden, weil ddr5 sich verspäten wird.

allerdings glaube ich, das wir sowieso nicht viele cpus erhalten werden, und deshalb der ddr5 bedarf sowieso nicht hoch sein wird.

ausserdem gab es bei skylake damals bretter die beides konnten. möglich wäre es, das sie beides können.

dildo4u
2021-07-23, 13:15:10
Ian hat aber auch gemeint, das wohl die mehrheit der alderlake system wohl mit ddr4 laufen werden, weil ddr5 sich verspäten wird.

allerdings glaube ich, das wir sowieso nicht viele cpus erhalten werden, und deshalb der ddr5 bedarf sowieso nicht hoch sein wird.

ausserdem gab es bei skylake damals bretter die beides konnten. möglich wäre es, das sie beides können.
DDR4 macht Sinn um bestimme Mainboard Budgets zu erreichen, die Frage ist ob dort dann die nötigen VRMs verbaut sind um die CPU bei 200 Watt Dauerlast laufen zu lassen.
Daher denke das man für optimale Performance zu 200€ plus Boards greifen wird und dann DDR5 drauf setzt.

BlacKi
2021-07-23, 14:30:15
ne, viele 130-170€ boards werden wohl mit ddr4 laufen und günstigen vrm ausbau haben, bei denen die dauervolllast kritisch werden könnte, und dann wirds die 200€+ boards mit ddr5 geben, bei den alles passt. und vl gibts 3-4 boards die beides können, aber auch teuer sein werden.

dildo4u
2021-07-23, 14:37:19
Ich denke das die neuen Boards mehr kosten werden wenn PCI-E 5.0 beim Midrange Chip genutzt wird.
Mal abwarten was Intel dort entscheidet.

N0rG
2021-07-23, 22:20:15
Der DDR5 den es bis jetzt zu kaufen gibt ist auch eher unterirdisch von der Performance her. Das ist ein 4800 CL40 kit von Teamgroup. Die hochgezüchteten DDR4 Kits haben nicht nur den gleichen Datendurchsatz, die machen das auch noch bei der halben Latenz. So ab DDR5 6400 CL30 wird es interessant. Und das wird wohl noch ne Weile dauern.

Daher denke ich, dass es erstmal ne ganze Weile vorwiegend DDR4 Boards geben wird. Wir werden sehen.

w0mbat
2021-07-23, 22:54:31
DDR-400 -> DDR2-800 -> DDR3-1600 -> DDR4-3200 -> DDR5-6400. Jupp, das wird der Süßepunkt.

dildo4u
2021-07-24, 12:01:10
Der DDR5 den es bis jetzt zu kaufen gibt ist auch eher unterirdisch von der Performance her. Das ist ein 4800 CL40 kit von Teamgroup. Die hochgezüchteten DDR4 Kits haben nicht nur den gleichen Datendurchsatz, die machen das auch noch bei der halben Latenz. So ab DDR5 6400 CL30 wird es interessant. Und das wird wohl noch ne Weile dauern.

Daher denke ich, dass es erstmal ne ganze Weile vorwiegend DDR4 Boards geben wird. Wir werden sehen.
Angeblich kommen 7200 CL 36 Modelle dieses Jahr.

https://www.computerbase.de/2021-05/arbeitsspeicher-von-geil-ddr5-mit-bis-zu-7.200-mhz-und-rgb-kommt-im-4.-quartal/

Ich tippe mal stark drauf das Intel solche Kits zum Testen verschickt damit das Ding richtig nach vorne geht.

Thunder99
2021-07-24, 12:20:14
Ernsthaft? Schau Mal in die Vergangenheit, Intel hat immer den untersten Standard genommen. Alles darüber ist OC.

Leonidas
2021-07-24, 12:25:29
Offiziell macht ADL nur DDR5/4800. Damit wird es wohl zum Launch getestet werden.

dildo4u
2021-07-24, 12:29:50
Da würde sich Intel dann selber ein Bein stellen AMD hat schon mal OC Ram verschickt naja mal sehen.

https://www.eteknix.com/amd-ryzen-2600x-2700x-review-kit/

Linmoum
2021-07-24, 12:34:14
Was Hersteller verschicken ist doch egal. Seiten wie Gamersnexus werden auch, wie immer, mit schnellem RAM testen. Andere testen halt grundsätzlich mit dem, was der Hersteller offiziell unterstützt.

dildo4u
2021-07-24, 12:36:07
Ich würde gute Kits verschicken CB hat beim neusten Test bis 3733 gebencht.

https://www.computerbase.de/2021-07/intel-core-i7-11700k-amd-ryzen-7-5800x-test/2/#diagramm-performancerating-1280-720-bildpunkte-fps

VooDoo7mx
2021-07-24, 13:07:33
Ich würde gute Kits verschicken CB hat beim neusten Test bis 3733 gebencht.

https://www.computerbase.de/2021-07/intel-core-i7-11700k-amd-ryzen-7-5800x-test/2/#diagramm-performancerating-1280-720-bildpunkte-fps

Wow 3% Unterschied zwischen 2933 zu 3733 in 1080p+
Bei Anwendungen 2%. Wow!

Der Unterschied ist im besten Fall messbar aber niemals spürbar. Hier wird ja geradezu getan als ob es ein Gamechanger wäre.
Für Rocketlake reicht locker der von Intel vorgegebene 3200, per Hand noch die Timings nachjustieren und alle weiteren Gewinne sind im niedrigen einstelligen % Bereich.
Dual Channel DDR5 4800 wird für Alder Lake locker reichen.
Alles drüber wird auch hier vielleicht 2-3% mehr bringen.

dildo4u
2021-07-24, 13:12:21
Ich tippe Mal drauf das Intel jedes Prozent will da sie jetzt Konkurrenz haben.
Laut CB jagen sie 300 Watt durch den 11900k für 5% Gewinn.

„Adapative Boost“ erweist sich im Alltag als eine Brechstange, wie sie im Buche steht: 5,1 statt 4,8 GHz All-Core-Turbo (+6 Prozent) haben im Cinebench R20 einen Leistungszuwachs von 5 Prozent zur Folge, während die Leistungsaufnahme der CPU um 50 Prozent von 205 auf über 310 Watt und die CPU-Temperatur von maximal 71 auf 96 °C ansteigt.

https://www.computerbase.de/2021-03/intel-core-i9-11900k-i5-11600k-test/#abschnitt_ein_neuer_turbo_50_intel_adaptive_boost

Edgecrusher86
2021-07-24, 13:13:35
Wenn die Hybrid-Architektur beizeiten gut funktioniert mit W11, könnte ich mir vorstellen, den 12900K zu holen - ursprünglich wollte ich bis mindestens Raptor-Lake warten, aber letztens hatte ich auch mit Metro Exodus EE auf Extrem-Settings in 960p (3440 -> DLSS Q) auch massive Einbrüche gegenüber den zweithöchsten Settings gesehen -
da käme ein massiver IPC-Sprung schon richtig. Als weitere Kandidaten, wo die CPU an ihre Grenzen kommt wären zu nennen W_D Legion, CP 2077 (nachladen beim Fahren - kurze, merkliche Drops) und Crysis Remaster ab High Preset - der Rest läuft noch ziemlich gut, wenn man das Alter der Plattform miteinbezieht.
5 GHz Allcore bei den Big Cores ab Werk ist schon nett. PCI-E 5.0 für eine kommende GraKa und DDR5 will ich auf jeden Fall mitnehmen beim Sockelwechsel - etwas schade ist, dass der Rest dann mit 4.0 angebunden ist bei ADL-S, aber okay - vielleicht dann mit Raptor Lake komplett oder spätestens Meteor Lake.
Etwas unverständlich erscheint mir, dass AMD mit Zen 4 noch nicht diesen Weg gehen wird, waren sie doch mit Zen 2 die Ersten, die 4.0 brachten.


Nun ja, ich hoffe, dass auch gute Performance-Boards wie das Gigabyte Aorus Master Z690 auch DDR4 unterstützen, denn die RAM-Preise werden extrem werden, wenn man mindestens 64GB fahren möchte und sofern es lohnt auch mit deutlich oberhalb 4800 - da würde ich dann auf 1000-2000€ tippen und das wäre es mir, nur für den RAM nicht wert -
von z.b. 128GB DDR5-6400+ (4x 32GB) erwarte ich dann 2000-4000€. 64GB deshalb, damit es später auch in 5-8K keine Engpässe geben wird [der Preis war damals mit 420€ auch ok, gerade in Anbetracht d ass es schon vor fünf Jahren war]. ;)

Könnte ich mein aktuelles RAM-Kit noch weiter nutzen, wären es grob geschätzt 1450€ für den Sockelwechsel (12900K ~650-700€, GB Aorus Master ~550-600€, CPU Block ~120-150€) - ich denke nicht, dass der Performance-Unterschied durch den RAM in UWQHD beim Gaming deutlich mehr als 5-10% beträgt.
DDR5 könnte man dann auch später noch holen, wenn die Preise deutlich runter gegangen sind.

Thunder99
2021-07-24, 15:41:26
Du erwartest von PCI-E 5.0 zu viel. Effektiv bringt es nichts, für die meisten. Selbst 4.0 hat man kaum Vorteile. Klar nimmt man das gerne mit, aber brauchen ist eine andere Sache ;).
Gibt es überhaupt schon Produkte die angekündigt sind?

Im Server sieht es da schon anders aus.

Edgecrusher86
2021-07-25, 10:14:30
Kurzfristig wird es nichts bringen, aber über die nächsten Jahre dürfte man schon ein paar Prozente Plus haben (GPU), ähnlich reBAR. Mal schauen, vielleicht setzt Lovelace schon auf 5.0, spätestens der Nachfolger. Wenn ich umsteige, soll die Plattform auch zumindest für fünf Jahre gefahren werden - das dürfte drin sein. Darum möchte ich auch alles bis dahin technisch Machbare mitnehmen. ;)
Für NVMe wird es sicher spürbar sein, wenn dann bis zu ~ 15GB/s sequenziell hin und her geschoben werden können - zumindest für Leute, die mit riesigen Datenmengen arbeiten. Da ist es natürlich schade, dass das zumindest mit ADL-S nicht möglich sein wird, da der Rest ja "nur" mit 4.0 angesprochen wird. Aber so ein Vorgehen hat man ja schon oft gesehen.
Zen 1 hatte noch PCI-E 2.0, Zen 2 noch PCI-E 3.0 am I/O Hub und Intel hatte das ja in der Vergangenheit im Mainstream-Segment auch immer gerne so gehandhabt. ;)

Thunder99
2021-07-25, 10:34:58
Stimmt auch wieder :). Hab daher auch selbst nicht umsonst zum X570 gegriffen wenn auch B450 gelangt hätte (550 war noch nicht angekündigt bzw verfügbar).

robbitop
2021-07-25, 12:19:04
rBar ist aber unabhängig von der Übertragungsrate. Eine neue PCIe spec brachte zu Lebzeiten der Erstprodukte eigentlich nie nennenswerte Steigerungen da kein Bottleneck. Ist aber dennoch nötig, um mittel/langfristig den Weg für mehr und dynamischere Geometrie zu bahnen.
Win paar Generationen später (wenn kein Hahn mehr danach kräht) wird der Vorteil dann sukzessive genutzt.

Kann man mitnehmen aber ein wirkliches starkes Kaufkriterium ist es eigent zum Upgrade IMO nicht zwangsweise.

Edgecrusher86
2021-07-25, 12:38:43
Der Vergleich von wenigen Prozentpunkten Leistungssteigerung (in hohen Auflösungen) hatte ich nur darum gemacht, da es zum Beispiel mit Lovelace unter 5.0, sofern es unterstützt wird wohl auch ein ähnlich geringes Plus wie mit reBAR geben dürfte (2-3% sind es ja meistens nur bei NV @ 4K); also mit dem Vergleich 4.0 zu 5.0 - würde ich zumindest tippen.


Ja, es dauert dann schon zig Generationen, dass das Interface merklich limitiert - wenn dann am ehesten in geringen Auflösungen.

https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html

Schon beachtlich, wie gut sich PCI-E 2.0 x16 (bzw. 3.0 x8) noch nach 14(!) Jahren mit SGPU im Schnitt schlägt. Selten sind es 10%(+) Differenz zu 4.0 und wenn dann eher in FHD.

Bei SLI + G-SYNC war das noch etwas Anderes - so skalierte zum Beispiel Hellblade (UE4) mit Blaire's Custom Profile und TAA nicht, wenn 3.0 x8 jeweils zum Einsatz kam (erst, wenn G-SYNC deaktiviert wurde) - aber diese Zeiten sind ja herum. Bezogen auf pre NVL,mit wurde der Bus komplett entlastet, sodass auch in 8K DSR + G-SYNC ein 2080 Ti Gespann nicht von zum Beispiel 2.0 x16 bzw. 3.0 x8 eingebremst wurde.

Gut, einen neuen Standard nimmt man dennoch gerne mit, wenn's ans Aufrüsten geht. :)

basix
2021-07-25, 13:50:41
Der Nutzen von PCIe 4.0 und neuer wird sich mit DirectStorage verschieben und noch steigern. Kann gut sein, dass man mit PCIe 3.0 dann 8sec Ladezeiten hat und mit PCIe 5.0 dann 1-2sec. Oder dass Textur- und Geometriestreaming abhängig von der PCIe Version skaliert.

Rein bezüglich FPS erwarte ich keine riesigen Unterschiede. rBAR hat hier eher das Potential, abhängig von der PCIe Version die Performance zu beeinflussen.

w0mbat
2021-07-25, 22:08:56
Kann gut sein, dass man mit PCIe 3.0 dann 8sec Ladezeiten hat und mit PCIe 5.0 dann 1-2sec. Oder dass Textur- und Geometriestreaming abhängig von der PCIe Version skaliert.
Die besten PCIe gen4 SSDs schaffen ca. 7000MB/s, die besten gen3 SSDs so 3500 MB/s. Das ist genau Faktor zwei. Wie du da von 1-2 Sekunden auf 8 Sekunden kommst (Faktor 4x-8x) kann ich nicht nachvollziehen.

BlacKi
2021-07-25, 22:19:08
dann denk mal drüber nach.

basix
2021-07-25, 22:24:12
Die besten PCIe gen4 SSDs schaffen ca. 7000MB/s, die besten gen3 SSDs so 3500 MB/s. Das ist genau Faktor zwei. Wie du da von 1-2 Sekunden auf 8 Sekunden kommst (Faktor 4x-8x) kann ich nicht nachvollziehen.

Faktor 4 = PCIe 5 vs. 3 (entsprechende SSDs werden kommen)

>4: "Grundauslastung" der PCIe Bandbreite steigt eher nicht mit der Rohbandbreite (sonst würde PCIe 2.0 nicht noch so gut mithalten)

Unicous
2021-07-25, 22:38:11
Ihr solltet mal weniger Kool-Aid trinken.:wink:

Tralalak
2021-07-27, 23:38:52
What Kind of Performance Should We Expect from Intel’s Alder Lake?
source: https://www.extremetech.com/computing/325110-what-kind-of-performance-should-we-expect-from-intels-alder-lake#comments

dildo4u
2021-07-28, 10:31:19
Fand das hier interresant vieleicht kann Dell dank Alder Lake weiterhin seine Gameing Desktops in Kalifornien verkaufen.
Mit Zen 3 würde es natürlich auch gehen wenn man drauf achtet das alles im System effizente Komponenten nutzt (Teure statt billige Stromversorgung auf dem Board)was vieleicht zu teuer ist?
Es gibt whol Ausnahmen die betreffen aber nur Systeme die man stark erweitern kann, die Dell Systeme nutzen aber oft eigene Motherboard Formate die sich kaum erweitern lassen.

N5fc5ZX6Kzk

BavarianRealist
2021-07-28, 16:43:02
Gibt es schon Spekulationen, wie groß das Die von Alder-Lake werden dürfte? Zum Vergleich: Tiger-Lake-H hat etwa 190mm². Die Golden-Cores sind sicher größer als die von Tiger-Lake und dann kommen noch die kleinen 8 Cores hinzu. Wo dürfte man dann landen?

HOT
2021-07-28, 17:07:31
https://www.igorslab.de/intel-alder-lake-s-launch-nur-enthusiasten-cpu-und-z690-chipset-zwischen-dem-25-oktober-und-19-november-2021-der-rest-kommt-spaeter/

Paperlaunch á la Coffee Lake noch in diesem Jahr, nur k-Prozessoren, PCIe5 irrelevant für lange Zeit, ATX 12V0 gestorben.

Man verschiebt "versteckt" ADL.

Unicous
2021-07-28, 17:44:20
:eek:

Intel hatte sich ja bereits öffentlich zum Ziel gesetzt, die ADL-Plattform für die Unterstützung von PCIe Gen5 auf dem CPU-Sektor großflächig zu nutzen. Diese Unterstützung ist jedoch stark abhängig von der Existenz eines passenden PCIe-Gen5-Ökosystems der Drittanbieter. Und genau da hängt es momentan wohl ziemlich stark, wenn man den Quellen in der Industrie Glauben schenken mag. Intel selbst warnte heute intern seine Partner noch einmal und ist wohl auch selbst wenig zuversichtlich, dass die PCIe Gen5-Drittanbieter den Zeitplan für die ADL-Plattform mit fertigen Produkten (TTM, Time To Market) auch nur ansatzweise einhalten können.

Ich bin schockiert.:eek:


ATX12V0 war wieder so ein Hirngespinst, das Intel ohne Industrierückhalt durchdrücken und die Mehrkosten den Mainboardherstellern aufdrücken wollte. Logisch, dass die keinen Bock haben.

BlacKi
2021-07-28, 17:55:19
atx12v0 wird kommen, es gibt garkeine echte alternative dazu, wenn man den idle verbrauch weiter senken will. intel will den standard auch subventionieren, das erhöht die profite der mainboardhersteller. ich glaube schon, das man am liebsten sofort alles umstellen will, mb herstellerseitig. das ist für die ein win win. nur den kunden wollen sie nicht wirklich verlieren. der möglicherweise verärgert sein könnte, weil er sich erst letztes jahr ein netzteil mit 11jahren garantie gekauft hat:rolleyes:

und ich garantiere euch, nv next ampere wird auch pcie5.0 haben.

w0mbat
2021-07-28, 17:56:36
Für was braucht man überhaupt noch 5V und 3,3V? Lüfter?

Loeschzwerg
2021-07-28, 19:13:37
ATX12V0 war wieder so ein Hirngespinst, das Intel ohne Industrierückhalt durchdrücken und die Mehrkosten den Mainboardherstellern aufdrücken wollte.

Die OEMs machen es ja schon länger und zwar jeder auf die eigene Art und Weise. Hier täte eine einheitliche Lösung gut, auch im Sinne der Aufrüstbarkeit von Fertig-PCs.
Die Gamer-/PC-Masterrace DIY Welt sieht natürlich nur wieder Probleme ^^ (nein, damit meine ich jetzt nicht explizit dich)

Thunder99
2021-07-28, 20:32:54
Für was braucht man überhaupt noch 5V und 3,3V? Lüfter?

USB?

Gipsel
2021-07-28, 20:36:50
USB?Und für SATA ist es noch im Stecker. Ein bißchen davon gibt es auch bei PCIe im Slot.

=====================

@BlacKi:
Warum sollte sich der idle-Verbrauch großartig ändern, wenn man die DC-DC-Regler von 12V auf 5V und 3,3V vom Netzteil auf das Mainboard verlagert? Oder sind das Effizienzsteigerungen, die prinzipiell auch im Netzteil selber möglich wären?

basix
2021-07-28, 21:18:44
Ich sehe schon ein paar Punkte:
- 12V Regler im PSU arbeitet etwas weiter oben (mehr Watt) und ist somit etwas effizienter
- Die Verluste in den Kabeln und Leiterbahnen auf dem MB könnten sich durch die höhere Spannung allenfalls etwas reduzieren. DC/DC dort auf dem MB, wo der grösste entsprechende Verbraucher sitzt.
- Weniger/niederohmigere 12V Stecker?
- Höherwertigere 3.3V/5V Regler auf dem Mainboard (Differenzierungsmerkmal der Hersteller)
- Auslegung des Supply Strangs auf das, was das MB unterstüzt. PSUs sind hier allenfalls nicht richtig auf das MB abgestimmt (z.B. wie viele USB-Ports oder 3.3V Teilnehmer), womit entsprechende Regler in einem relativ ineffizienten Arbeitsbereich liegen können

Da können je nachdem ein paar einzelne Watt rausspringen. Weltbewegendes erwarte ich da aber nicht. Effizienter ist immer gut, solange sinnvoll machbar.

BlacKi
2021-07-28, 21:27:42
Warum sollte sich der idle-Verbrauch großartig ändern, wenn man die DC-DC-Regler von 12V auf 5V und 3,3V vom Netzteil auf das Mainboard verlagert? Oder sind das Effizienzsteigerungen, die prinzipiell auch im Netzteil selber möglich wären?

weil sie dort nicht always on sind. das mainboard weiß wann sie diverse spannungen benötigt und kann sie dann bei bedarf an und ausschalten. desweiteren sind die zusätzlichen spannungen neben 12v meist überdimensioniert und dann auch always on. man kann deshalb den ausbau der spannungsversorgung je nach board anpassen. reduzierung von der spannungsversorgun, zb. dann, wenn das board nur 2xsata plätze hat, dann braucht man auch nur die spannungsversorgung für 2 sata geräte. und nicht für zb. 6 oder mehr, die normale netzteile zur verfügungstellen, ob sie gebraucht werden oder nicht.

Platos
2021-07-28, 21:31:11
Kann man denn bei (so) einem Mainboard theoretisch auch vorhandene Anschlüsse ausschalten, wenn sie nicht gebraucht werden? Also so, dass kein Strom mehr fliesst? Z.b bei 4 Sata Anschlüssen, aber nur einer ist belegt.

BlacKi
2021-07-28, 21:53:06
ja, aber wird wohl nicht gemacht.

Denniss
2021-07-29, 00:30:21
5V wohl für SATA/USB, 3.3V z.b.für M.2 Slots

Thunder99
2021-07-29, 08:21:32
Weniger ist immer Begrüßenswert beim Idle Verbrauch. Wenn aber die Komponenten immer mehr verbrauchen unter Last es es irgendwie für die "Katz". Passt nicht zusammen :freak:

Freestaler
2021-07-29, 08:36:00
Wie hoch ist den das realistische Potenzial? 1-2 Watt in höchst seltenen Systemzuständen? Dafür wird das Mainboars aufwendiger und durch die kürzeren Lebenszeit mehr rescourcen verbraucht als im Netzteil? Macht da nicht mehr Sinn, im PC alles auf 12v um zu stellen was geht und der Rest per "Smarten" Netzteil? Das Ausschaltsignal kann ja auch an ein Netzeil Signal gesendet werden. Schöne dabei, alte Netzteile bleiben kompatibel. Die haben dann halt immer on während die neuen das Schaltsignalverarbeiten. Evtl sogar auf Art zugewissenen 12v Rails. So wird dann aus dem 1000w NT ein 50w fürs Idle ;-)

Wobei, im Ernst: da aber ua. Disk und USB die 3,3 sowie 5v brauchen wirds nicht sehr oft abgeschaltet werden können. Und da man nicht weiss wieviel USB und CO noch dran kommt kann man das auch nicht kleiner bauen mMn. Und wenn ich dann noch intel sehe, welche nun die 200 Watt per se überfahren, naja. Die Idee mit dem Stromsparen kommt wohl aus einer andere Epoche. Passt nicht so ganz zu ADL.

HOT
2021-07-29, 08:47:17
Ach, das ist einfach Unfug, dass das beim Stromverbrauch große Vorteile hätte. Es ist schlichtweg ein Hirnfurz gewesen, alles auf 12V umzustellen. Es ist eben nicht alles 12V, es ist sogar ne ganze Menge eben nicht 12V. Es ergibt einfach überhaupt keinen Sinn alles auf 12V umzustellen.

BlacKi
2021-07-29, 10:19:24
ich weiß nicht warum ich hier diskutieren soll. schaut euch einfach die tests an und hört auf FUD zuverbreiten.

normales atx system 60-80w idle
https://youtu.be/heyGtgdfN7A?t=467

atx12vo 32w
https://youtu.be/heyGtgdfN7A?t=599

auch das die niedrigen spannungen einen kürzeren weg durch die kabel haben ist von vorteil
https://youtu.be/heyGtgdfN7A?t=727

Platos
2021-07-29, 10:53:37
Gibt doch nun schon länger ein paar Tests. Wurde auch schon im ultra lowpower thread mal diskutiert.

Das bringt sehr wohl sehr viel.

w0mbat
2021-07-29, 11:47:47
Waren da nicht die Testbedingungen ungleich? Ich hatte in Erinnerung, dass der Vorteil für ATX12VO in echt viel geringer ist.

davidzo
2021-07-29, 12:13:25
Für was braucht man überhaupt noch 5V und 3,3V? Lüfter?

PCI Express vergessen? :freak:

3,3v ist außerdem die logic supplyspannung für praktisch alle µsocs, spannungsregler, fancontroller etc.
Die ziehen zwar nicht viel, aber das sind eben industrie standardbauteile, da ändert sich so schnell nichts. 1,8V ist im kommen für viele logic bauteile, aber noch nicht auseichend verbreitet dass man auf 3,3v verzichten könnte.

Waren da nicht die Testbedingungen ungleich? Ich hatte in Erinnerung, dass der Vorteil für ATX12VO in echt viel geringer ist.

Unter Last ist der Vorteil sowieso gering.

Aber richtig, der Test vergleicht ein fully featured retail board mit einem OEMdesign mit minimalfeatureset und ports.

Im Falle eines sparsamen boards und eines Netzteils mit exakt auf das board abgestimten 3,3V und 5V leitungen, wäre der Unterschied wohl kaum vorhanden. Allerdings ist das eben ohne 12VO eher schwierig genau abzustimmen.
Bei OEM PCs wird das trotzdem gemacht, da diese durch die Ökodesignrichtlinie und z.B. Richtlinien der CEC (California) besondere Anforderungen für den Idleverbrauch haben.

Das Ganze ist also in erster Linie ein Tool für OEMs um die vorgeschriebene Idle Effizienz erreichen zu können ohne dass man jedes mal custom Netzteile beim OEM bestellen muss. Es senkt einfach die Komplexität und kosten.

Retailboards die weiterhin mit exzessiv vielen ports, features, LEDlich und überdimensionierten VRMs ausgestattet sind werden vielleicht marginal sparsamer, wenn überhaupt. Kabelquerschnitt und Innenwiderstand ist bei den aktuellen 3,3V und 5V ATX Leitungen kein Thema und ob die DC-DC Stufe nun im Netzreil oder onboards ist wäre damit egal.
Es gibt zwar vorteile im cable management, aber ist das genug Grund für den Markt sich zu ändern? Ich glaube (noch) nicht.

Freestaler
2021-07-29, 12:24:29
Die Tests sind Äpfel mit Birnen. Wo die "smartere" Regelung stattfindet wäre aus Leistungssicht mMn. nahezu egal. Leistungsverlust bei diesen Kabellängen ist def. kein einziges Watt. Die Ersparungen komme n hier von ganz anderen Dinge und diese sind auch sehr wohl ohne 12v0 machbar.

BlacKi
2021-07-29, 12:25:37
Es gibt zwar vorteile im cable management, aber ist das genug Grund für den Markt sich zu ändern? Ich glaube (noch) nicht.
ah, du bist auch so einer der das pflaster lieber langsam abreißt, um den schmerz maximal genießen zu können^^

Die Ersparungen komme n hier von ganz anderen Dinge und diese sind auch sehr wohl ohne 12v0 machbar.
das liegt doch ganz klar an der dimensionierung. wenn du ein netzteil mit 3,3v 26amp dimensionierst und dann ein günstiges mainboard mit wenig steckplätzen mit 10 oder 13 amps auskommt, dann halbiert sich dieser teil idle verbrauch schonmal um die hälfte. wenn die dann in 2 kreise unterteilt werden, die abschaltbar sind und nur bei bedarf mitlaufen, dann kann man den idle verbrauch noch weiter drücken.

Windi
2021-07-29, 12:56:03
Wichtig ist vor allem, das nicht der ganze Markt zersplittert und wir zehn verschiedene Standards haben.

Wenn jetzt alle OEMs auf 12VO umsteigen, dann sind fast alle Fertig-PCs und Notebooks damit ausgestattet. Selbst im DIY Bereich haben viele damit keine Probleme, da sie nicht ständig aufrüsten, sondern nur alle paar Jahre sich einen neuen PCs zusammen stellen. Wenn dann 98% des Marktes dies unterstützen, werden auch die Bauteilhersteller umschwenken und sich der neuen Realität beugen.

Problematisch ist in Zukunft eh nur PCIE, das 3,3V und 5V fordert.
SATA stirbt aus (und zur Not hilft ein kleiner Adapter)
USB braucht immer mehr flexible Spannungen und braucht deswegen einen eigenen Regler.

Freestaler
2021-07-29, 13:30:08
@Blacki, und also ist die passende Dimensionierung der Schlüssel. Kann man genau so gut im Netzteil erreichen, 2tens spartst du damit keine 30 W wie im Test. Max. 20% was bei deinem Beispiel 3-4 Watt sind. Keine 30W wie im Test also. Wo sind diese Restlichen 90%? Exakt in wesentlichen auf Stromsparen getrimmten Mainboard mit deren darauf getrimmten io und vrfs. Äpfel mit Birnen.

BlacKi
2021-07-29, 16:05:32
du verstehst es nicht oder? wir wollen weg von überdimensionierten netzteilen,hier im beispiel apfel genannt, und wollen zu birnen werden, wo die power delivery angepasst ist an den need. praktisch jedes NT da draussen ist ein apfel. und man hat eben nicht die richtige dimensionierung gewählt. mit dem auswandern aufs brett liegt eine automatisch bessere dimensionierung vor. big boards bekommen dicke 3,3v und 5v versorgung, weil sie das benötigen, micro atx/mini itx boards bekommen eine wesentlich kleinere versorgung. das macht das auswählen von netzteilen auch wesentlich einfacher.

unl34shed
2021-07-29, 16:27:29
Als Elektrotechniker, frag ich auch Mal, wo sollen die propagierten 30-50W herkommen? Bei einem vergleichbaren system?

davidzo
2021-07-29, 16:31:56
ah, du bist auch so einer der das pflaster lieber langsam abreißt, um den schmerz maximal genießen zu können^^


Falsche Frage. Für mein geplantes SFX System würde ich es jederzeit nehmen, wenn es denn verfügbar wäre. Aber zeigst du mir die Auswahl an SFX Netzteilen (am liebsten SFX-L mit 120mm Fan) und Mini ITX boards mit 12VO? Zu konkurrenzfähigen Preisen bitte, wenn schon nicht die gesamten Kostenvorteile von 12VO weitergegeben werden!

Es gibt jede Menge Auswahl an leisen, günstigen und superleistungsfähigen 80+Gold SFX netzteilen, ebenso wie an 24pin Mini ITX boards. Wahrscheinlich werde ich sogar gebraucht im Luxx kaufen. So ein Focus Gold SGX und ein B450/550 wären perfekt für mich.
Das wird eine lange Transition bis 12VO mehr als eine Randerscheinung ist.

BlacKi
2021-07-29, 16:46:52
die aussage ist richtig. ganz einfach atx support auslaufen lassen und atx12v0 forcieren. wenn der übergang zu lange dauert, erzeugt das nur unnötige probleme. auf dem neumarkt, gebrauchtmarkt, und kommender standards siehe kalifornien. es einfach laufen zu lassen wird viel unangenehmer.


nochmal ein test.
das bei cinebench mehr verbraucht wird, zeigt, dass das netzteil von corsair wohl hochwertiger ist als das "High Power HP1-P650GD-F12S"
https://overclock3d.net/gfx/articles/2021/01/27065223302l.jpg
https://www.overclock3d.net/reviews/power_supply/atx12vo_tested_-_the_future_of_power_supplies/3

Gipsel
2021-07-29, 17:13:18
die aussage ist richtig. ganz einfach atx support auslaufen lassen und atx12v0 forcieren. wenn der übergang zu lange dauert, erzeugt das nur unnötige probleme. auf dem neumarkt, gebrauchtmarkt, und kommender standards siehe kalifornien. es einfach laufen zu lassen wird viel unangenehmer.


nochmal ein test.
das bei cinebench mehr verbraucht wird, zeigt, dass das netzteil von corsair wohl hochwertiger ist als das "High Power HP1-P650GD-F12S"
https://overclock3d.net/gfx/articles/2021/01/27065223302l.jpg
https://www.overclock3d.net/reviews/power_supply/atx12vo_tested_-_the_future_of_power_supplies/3
Die hätten mal am Corsair-Netzteil (das normale ATX) die Stecker abschneiden und an die 12V-Leitungen die entsprechenden ATX12VO-Stecker löten und dann das ATX12VO-Mainboard mit dem normalen ATX-Netzteil betreiben sollen. Ich würde ja bald wetten, daß dann trotz der redundanten 3,3V und 5V-Erzeugung (im Netzteil und auf dem Mainboard) der Verbrauch nicht deutlich über dem ATX-Mainboard gelegen hätte (eventuell sogar drunter) :rolleyes:. Alternativ würde es sich eventuell lohnen, mal zu messen, was in das Board auf jeder Rail reinfließt, also den Gesamtverbrauch mal aufteilen auf Mainboard und (Verlusten im) Netzteil. Dann könnte man vielleicht wirklich Schlußfolgerungen ziehen. Das wird bestimmt demnächst mal irgendwer tun.
Ich meine, was soll man wirklich daraus lernen, wenn man ein Netzteil mit einem Mainboard gegen ein anderes Netzteil mitsamt anderem Mainboard vergleicht? Vielleicht verbraucht das ASRock-Board ja weniger als das GigaByte-Board, weil x oder y, wobei x und y ungleich ATX12VO.

Prinzipiell funktionieren alle besseren Netzteile intern wohl inzwischen so, wie das bei ATX12VO der Fall ist (Erzeugung von 12V und Erzeugung der kleineren Spannungen per DC-DC-Regler aus den 12V). Nur der Ort der Spannungswandler unterscheidet sich. Damit wird es eine Frage, was man länger benutzt (bei welcher Komponente fallen also die Kosten an und wo lohnt es sich eher), wo mehr Platz ist und wo man etwas besser kühlen kann. Verbrauchstechnisch sollte das bei zwei guten Designs maximal etwas im (niedrigen) einstelligen Wattbereich ausmachen.

Unicous
2021-07-29, 17:14:21
Ein Vergleich mit "fast identischen" Systemen und dann haben sie ausgerechnet zwei verschiedene Mainboards benutzt?;D

Gipsel
2021-07-29, 17:33:07
Ein Vergleich mit "fast identischen" Systemen und dann haben sie ausgerechnet zwei verschiedene Mainboards benutzt?;DJa.

Man sollte sich mal überlegen, was durch die Überdimensionierung der 3,3V und 5V Rails in den Netzteilen an Verlusten entstehen kann. Gute Schaltregler können 90% Effizienz bis runter auf 10% Auslastung halten (wenn die Last ständig unter 30% oder so sinkt bzw. das zu erwarten ist, kann man Phasenabschaltung vorsehen, die die Effizienz bis sehr niedrige Lastzustände recht hoch halten kann).
Eine gebräuchliche Netzteilauslegung sind 20A auf den 3,3V und 5V-Leitungen (66W und 100W Maximallast), bei 10% Auslastung und 90% Effizienz haben wir dann Wandlerverluste von 0,66W und 1W. Ist ja der Wahnsinn! Da stirbt man auch nicht, wenn die Effizienz bei einer etwas kostengesenkten Implementation dann nur noch 80% wäre. ;)

BlacKi
2021-07-29, 17:37:31
Verbrauchstechnisch sollte das bei zwei guten Designs maximal etwas im (niedrigen) einstelligen Wattbereich ausmachen.du hast die dimensionierung aussen vor gelassen. ein microatx(erst recht mini itx) und ein full size atx, beide untersützend atx12vo, werden stromversorgungstechnisch unterschiedliche verbräuche haben, weil sie stromversorgungstechnisch anders ausgestattet sind, weil sie unterschiedliche anforderungen haben. wenn du dir aber ein standard netzteil aussuchst, dann ist dir die 3,3v und 5v versorgung egal, denn ein gutes atx netzteil bringt automatisch eine überdimensionierung der kleineren spannungen mit. das heißt, in zukunft wird die 3,3und 5 v spannungsversorgung je nach board passend dimensioniert. dadurch sinkt gerade bei den kleineren günstigeren boards der idle verbrauch sehr stark, vl sogar noch stärker als in den tests.

Gipsel
2021-07-29, 17:38:06
du hast die dimensionierung aussen vor gelassen. ein microatx(erst recht mini itx) und ein full size atx, beide untersützend atx12vo, werden stromversorgungstechnisch unterschiedliche verbräuche haben, weil sie stromversorgungstechnisch anders ausgestattet sind, weil sie unterschiedliche anforderungen haben. wenn du dir aber ein standard netzteil aussuchst, dann ist dir die 3,3v und 5v versorgung egal, denn ein gutest atx netzteil bringt automatisch eine überdimensionierung der kleineren spannungen mit. das heißt, in zukunft wird die 3,3und 5 v spannungsversorgung je nach board passend dimensioniert. dadurch sinkt gerade bei den kleineren günstigeren boards der idle verbrauch sehr stark, vl sogar noch stärker als in den tests.
Nein. Siehe dem Post 4 Minuten vor Deinem. Und das sind noch die absoluten Verluste. Durch eine kleinere Dimensionierung spart man ja nur einen Teil davon, nicht Alles. Ein vernünftiger Schaltregler (selbst für 100W maximale Ausgangsleistung) produziert im idle <1W Verluste.

BlacKi
2021-07-29, 17:47:50
zur phasenabschaltung bräuchte das netzteil die informationen vom mainboard. deshalb wandert doch die versorgung aufs mainboard. weshalb sonst gibt es diese nicht jetzt schon wie du es vorgeschlagen hast? ausserdem, hast du den vo vorteil wohl hauptsächlich bei den günstigeren systemen. zb. bei den 40-60€ netzteilen. man will ja auch diese effizient in pcs nutzen, oder willst du nur noch 150€ netzteile für pcs erlauben. der vo wechsel wird für alle preisbereiche von vorteil sein, vorallendingen im günstigen bereich.

Gipsel
2021-07-29, 18:02:13
zur phasenabschaltung bräuchte das netzteil die informationen vom mainboard.Nein, nur eine Lastüberwachung (die es sowieso schon gibt, eventuell muß die etwas aufgemotzt werden).
weshalb sonst gibt es diese nicht jetzt schon wie du es vorgeschlagen hast?Bist Du da sicher, daß es das noch nicht gibt? Wie erreichen eigentlich 80+Ti-Netzteile ihre extrem hohe Effizienz bis hinunter zu niedrigen Lastzuständen (und da gibt es ja noch deutlich mehr als nur die Reglerverluste, da ist also ein sehr gutes Gesamtkonzept gefragt)? Im Übrigen bekommt man die <1W Reglerverluste im idle bei 100W maximaler Ausgangsleistung noch ohne Phasenabschaltung hin. Mit Phasenabschaltung kannst Du aber z.B. praktisch ein 2 Phasen 100W-Design bei geringer Last zu einem 50W-Design machen. ;)
Das lohnt sich zugeben vom Aufwand her dann nur bei langer Nutzungsdauer und wenn das Ding extrem auf's Optimum getrimmt werden soll. Hauptvorteil der Phasenabschaltung besteht meist daran, den Wirkungsgrad im mittleren Lastbereich zu optimieren (da sind dann 3% Unterschied in der Effizienz mehr Watt wert ;)) Im idle kann man zwar auch etwas sparen, aber das ist dann oft nicht mehr so ganz entscheidend (wenn man nicht gerade 16-Phasen CPU-Regler oder sowas betrachtet).
ausserdem, hast du den vo vorteil wohl hauptsächlich bei den günstigeren systemen. zb. bei den 40-60€ netzteilen. man will ja auch diese effizient in pcs nutzen, oder willst du nur noch 150€ netzteile für pcs erlauben. der vo wechsel wird für alle preisbereiche von vorteil sein, vorallendingen im günstigen bereich.Unklar. Gute Spannungsregler zu designen kostet nicht nur Geld und Erfahrung sondern auch etwas PCB-Space auf dem Mainboard. Ich bin nicht sicher, ob das nicht im Netzteil tendentiell besser aufgehoben ist, vor Allem wenn man das Netzteil länger benutzt als das Mainboard. Also im DIY-Bereich sehe ich das skeptisch. Bei kostenoptimierten, nicht aufrüstbare OEM-Kisten mag das anders aussehen, aber die haben ja jetzt auch schon oft Nicht-Standard-Bauteile.

Edit:
Gibt es irgendwo einen Netzteilthread zu ATX12VO? Da wäre sowas eventuell besser aufgehoben.

unl34shed
2021-07-29, 18:14:10
Blacki, du hast kein Ahnung, wovon du da schreibst. Die Verlustleistung in Netzteilen ist wie Gipsel sagt sehr gering. Irgendwelche Einsparungen im 30-50W Bereich sind einfach nur illusorisch.

Ein 80+ Gold Netzteil hat ab 20% Last eine Effizienz von ~90% einzuhalten, das heißt bei einem 600W Netzteil beträgt die Verlustleistung maximal 60W, sinkt der Verbrauch, sinkt auch die Verlustleistung. Da eine 90% Effizienz normal bei Schaltnetzteilen ist, werden die Netzteile auf dem Mainboard auch nicht nennenswert effizienter arbeiten.
Durch das auf das Board angepasste Design und kleiner dimensionierten Netzteilen erreicht man vielleicht noch 1-2% mehr Effizienz, gerade im unteren Lastbereich. Aber da hat so ein 600W Netzteil halt immer noch eine Effizienz von 70-80%, also bei 30W gerade mal 9W Verluste. Hiervon kannst du einen kleinen Teil sparen, aber bei weitem keine 30, geschweige denn 50W, wie in den von dir Verlinkten Tests.


Bzgl. Phasenabschaltung:
Für was sollte eine Phasenabschaltung Informationen vom Mainboard brauchen? Vor allem welche? Für das Netzteil ist die gezogene Leistung interessant und die kann es messen und dadurch von einem auf den nächsten Schaltzyklus 20-100kHz die Phasen zu- oder abschalten.
Und Nein, bevor du jetzt auf die Idee kommst, dass es so ja bei einem Lastwechsel zu einer Unterspannung kommt. Jedes Schaltnetzteil ob ein oder mehrphasig funktioniert so, du hast eine Schaltfrequenz, mit der ein Kondensator geladen wird die Zwischenzeit muss die dort gespeicherte Energie überbrücken.

E:
Auch wären die Temperaturen auf dem Mainboard interessant, im ATX Netzteil hast du bei guten Gehäusen direkt Frischluft für das Netzteil, auf dem Mainboard, am besten noch mit einer AiO und nahe der Grafikkarte, dürfte es deutlich wärmer werden. Was wiederum die Effizienz senken würde.

davidzo
2021-07-29, 18:27:35
Intel schafft s doch nichtmal in ihren eigenen Barebones (wo es wirklich Sinn machen würde) auf 12VO zu setzen :rolleyes:

Das Ökosystem ist eben noch sowas von unausgereift.


https://www.computerbase.de/2021-07/intel-nuc-11-extreme-beast-canyon-test/#bilder

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76315&stc=1&d=1627576047

arcanum
2021-07-29, 18:34:34
wie hier schon geschrieben spielt 12VO eher für Dell und co. aufgrund von CEC-anforderungen eine rolle. die größten einsparungen lassen sich im idle realisieren:

https://www.heise.de/news/Netzteilstandard-ATX12VO-angetestet-Hohes-Sparpotenzial-bei-Desktop-PCs-4923403.html

bringt also eher was bei bürorechnern die den ganzen tag ohne/mit geringer last laufen.

Unicous
2021-07-29, 19:02:10
Dell/Alienware "designen" seit Anbeginn ihre schrottigen Komplettrechner auf höchstmöglichste Marge und kleben Plasteplatten an billige OEM Cases damit die Kunden denken sie würden einen spacigen High-End PC kaufen und haben es gerade geschafft, als bislang einziger Hersteller (afaik), dass sie einige ihrer Intel-Rechner nicht mehr in Kalifornien verkaufen können. Dell interessiert ATX12VO meiner Meinung nach nicht die Bohne, aber sie werden sicherlich einen Trick erfinden um die Anforderungen einzuhalten, Abgasmanipulation-Style.

Monsta
2021-07-29, 19:58:31
Ich habe jetzt nicht recherhiert wo die meiste Leistung verbraten wird.

Ich hatte diverse Thinkpads, und das x220 Sandybride i5 war bei 6 Watt bei ruhenden Desktop.

Bei meinen Desktoprechner bin ich froh wenn ich unter 60 Watt komme.

Kein Plan ob es an der Stromversorung liegt oder generell mindere Komponenten, die alle mehr Spannung benötigen.

Bei meiner X99 Platform war es eher 80 Watt.

Ich finde da ist gut Luft zur Verbesserung.

aufkrawall
2021-07-29, 20:10:40
Kein Plan ob es an der Stromversorung liegt oder generell mindere Komponenten, die alle mehr Spannung benötigen.

PCIe ASPM, Package-Cstate und genügsame elektrische Komponenten (VRMs/Phasen), damit sind auch mit RKL-Lake <40W Komplettsystem möglich.
Obs hingegen stabil läuft (tut es hier mit PCIe 4.0-ASPM mit sowohl GeForce als auch Radeon nicht)... :freak:

Freestaler
2021-07-29, 20:13:15
Verbesserungspotenzial ja, neue Atx12v0 lieber nein. Finde es kein Sinnvoller weg, da ersten Mainboard tuerer werden, schneller getauscht als Netzteile und Hitze an einem Ort an dem man ihn nicht braucht. NVME reichen zum kühlen. ;-)
@Blacki, ich glaub ich verstehe sehr wohl wo die verbesserung herkommt, nicht von der Platzierung auf dem Board oder dem "genaueren" Dimensionierung. Die Ersparnisse kommen von was ganz anderem.

Wuge
2021-07-30, 11:51:05
Weiß nicht... ich hab hier ein Sub-20W-System ganz normal mit ATX NT laufen. Ne Haswell Kiste mit Z87 ITX Brett und nem 450W Sunflower NT. Selbst meine Hauptkiste mit Broadwell-e, 4x16 GB RAM (1.45V), dem dicksten Brett das man sich vorstellen kann, 3090 mit Shuntmod, 1kw Netzteil und zwei Wasserpumpen, von denen eine immer läuft komm ich problemlos unter 100W Idle. Wenn ein Mainstreamrechner mehr als 40-50W Idle nimmt sind einfach Schrottkomponenten schuld.

why_me
2021-07-30, 12:08:27
Problem ist doch, dass es:
- die Hersteller nicht juckt und sie lieber alles auf möglichst hohen takt/Leistung einstellen.
- Hardware seiten Mainboards eigentlich nicht mehr testen, und falls doch, der Idle verbrauch nicht angekreidet wird, sondern lieber die Performance, SSD geschwindigkeit oder irgendwelche features gelobt werden.
- ein großteil der Kunden einen scheiß drauf geben und lieber blinkende Mainboards kaufen, anstatt welche mit hochwertigen komponenten und niedrigem verbrauch.

Das ist aktuell der unterschied der ATX12V0 boards, da hier der verbrauch vom marketing gepusht wird, werden auch sparsamere komponenten verbaut, um auch unterschiede zu erkennen.

BlacKi
2021-07-30, 12:28:39
Die Verlustleistung in Netzteilen ist wie Gipsel sagt sehr gering. Irgendwelche Einsparungen im 30-50W Bereich sind einfach nur illusorisch.


gegen gute netzteile ist die einsparung klar geringer. ich sehe hier trotzdem 10-15w als gegeben. ich habe ein gutes titanium netzteil , zusammen mit meinem 8700k + 1080ti kam ich im idle auf 40w. ein gleichwertiges 12vo system würde hier schätzungsweise bei25-30w liegen und 15w gehen da alleine schon an die grafikkarte.



dennoch. ich hab auch ein pico itx NT hier gehabt mit einem 12v led netzteil, das hatte zusammen mit einem itx brett mit nem sandy bridge ohne grafikkarte auf 17w idle. daran ist auch das netzteil schuld. weil die komponenten geringer dimensioniert sind. ein vorgang der bei einem 12vo system bei der auswahl des mainboards vorgenommen wird.



mich wundert nichts, ihr nehmt das best case conventional atx system und vergleicht gegen 12vo. ja, richtig. da sind nicht immer 30w unterschied. aber ein günstiges 12vo system gegen ein günstiges conventional atx system kann diese idle einsparungen definitv bringen.

Freestaler
2021-07-30, 13:32:27
Ich nehme aber an, das der 12v0 nicht per se sparsamer ist. In der Realität wird, wie auch heute bereits dann zu Gross und vorallem Günstig umgesetzt (ökonomisch, nicht ökologisch). Heute wird keine Rücksicht genommen, wieso mit 12v0 dann plötzlich? Die Referenzplattformen die man getestet wurden sind doch all "perfektioniert". Wieso denkst du nochmals sollte sich das mit 12v0 ändern? Welcher Teil der spezifikation soll dies sicherstellen? Ich sehe dies nicht.

Gipsel
2021-07-30, 14:29:31
gegen gute netzteile ist die einsparung klar geringer. ich sehe hier trotzdem 10-15w als gegeben. ich habe ein gutes titanium netzteil , zusammen mit meinem 8700k + 1080ti kam ich im idle auf 40w. ein gleichwertiges 12vo system würde hier schätzungsweise bei25-30w liegen und 15w gehen da alleine schon an die grafikkarte.Definitiv nicht, falls das Board das Gleiche macht. Wenn Du 1-2W sparen würdest, wäre das vermutlich das Maximum der Gefühle. Vorgerechnet habe ich das ja schon mal. Die Schaltregler für 3,3V und 5V ziehen schlicht nicht mehr, wenn sie nicht gebraucht werden (zumal Du ein 80+Ti-Netzteil besitzt, was >90% Effizienz ab 10% Last garantiert; und die 90% sind Gesamteffizienz, beinhalten also auch die Verluste der PFC, Gleichrichter und all den ganzen anderen Kram, bevor man überhaupt zu den Schaltreglern kommt; ein komplettes 600W Netzteil landet bei geringer Last bei <12W Verlusten [dafür reicht schon 80+Gold, Platin oder Titanium ist da noch nicht mal nötig; ein 600W 80+Ti wäre bei <6W Verlusten für das komplette Netzteil im idle] und da ist Alles drin, die 3,3V und 5V Regler alleine machen davon wie gesagt vielleicht 2W aus).
Un- bzw. kaum genutzte Schaltregler ziehen echt wenig Strom. Die sind nicht die Ursache für die manchmal beobachteten Unterschiede.
mich wundert nichts, ihr nehmt das best case conventional atx system und vergleicht gegen 12vo. ja, richtig. da sind nicht immer 30w unterschied. aber ein günstiges 12vo system gegen ein günstiges conventional atx system kann diese idle einsparungen definitv bringen.Nein. Wir sagen Dir, daß solche Unterschiede nicht am ATX12VO-Standard bzw. überdimensionierten 3,3V und 5V Rails im Netzteil liegen (die ziehen einstellige Wattzahlen, selbst bei günstigeren 80+ Netzteilen), sondern zum größten Teil an einer anderen Auslegung der Boards selber.
Wie gesagt, nimm Dein 80+Ti ATX-Netzteil, schneide die Stecker ab und löte ATX12VO-Stecker dran und benutze ein ATX12VO-Board und vergleiche das dann mal mit einem nativen ATX12VO-Netzteil einer ähnlichen Leistungskategorie! Der Verbrauchsunterschied wird praktisch kaum merkbar sein. 10W und mehr Unterschiede können gar nicht am Netzteil liegen (wenn man nicht absoluten Schrott hat, der heutzutage wohl kaum noch verkauft werden dürfte).

BlacKi
2021-07-30, 14:39:06
wir werden es ja sehen. wenn der avg idle verbrauch messbar abnimmt, dann wird was dran gewesen sein.

unl34shed
2021-07-30, 14:48:30
Du wirst aber gleichzeitig auch das Board wechseln, was einen riesigen Einfluss auf den idle Verbrauch haben kann, das Netzteil oder ATX12VO ist es aber nicht.

Gipsel
2021-07-30, 15:15:12
wir werden es ja sehen. wenn der avg idle verbrauch messbar abnimmt, dann wird was dran gewesen sein.Du kannst schon heute messen, wie groß die Verluste der Netzteile sind. Oder Du verläßt Dich auf die Labels. Im Normalfall stimmt das ganz passabel überein (im ganz niedrigen Lastbereich sind die gemessenen Verluste meist noch etwas kleiner als die Labels vorgeben). Ein ganz normales 600W oder 700W Netzteil für 60€ (bei dem Preis fängt 80+Gold an) landet im idle eben nur bei ~10W Verlusten, also Eigenverbrauch. Und das inkludiert wie gesagt deutlich mehr als nur die 3,3V und 5V Regler. Die PFC, Gleichrichter und 12V Regelung läuft ja auch bei einem ATX12VO-Netzteil nicht völlig umsonst ;).
Als Regel kann man von den Labels folgendes ableiten:

80+ => idle-Verluste unter 5% der angebenen Maximalleistung des Netzteils
80+ Bronze => idle-Verluste unter 4,4% der angebenen Maximalleistung des Netzteils
80+ Silver => idle-Verluste unter 3,5% der angebenen Maximalleistung des Netzteils
80+Gold => idle-Verluste unter 3% der angebenen Maximalleistung des Netzteils
80+Platin => idle-Verluste unter 2,2% der angebenen Maximalleistung des Netzteils
80+ Ti => idle-Verluste unter 1,1% der angebenen Maximalleistung des Netzteils

Die 3,3V und 5V machen davon wie gesagt noch mal nur einen Bruchteil aus.

Und nur mal so als Beispiel zu dem von Dir verlinkten Vergleich:
https://overclock3d.net/gfx/articles/2021/01/27065223302l.jpg
Die ATX-Variante benutzt ein Corsair RM750i (80+ Gold). Messung dafür habe ich jetzt auf Anhieb nicht gefunden, aber für eine noch etwas größere Version (ebenfalls von Corsair, ebenfalls 80+ Gold), das RM850x findet sich zum Beispiel diese Messung der Netzteilverluste (Gesamtverlust des Netzteils zwischen Wechselspannungs-Eingang und den ausgegebenen Gleichspannungen):
https://images.anandtech.com/doci/13220/Cold4.png
Bei 5% Last (entspricht dann so grob 42W abgegebene Leistung, also relativ nah an den idle-Verbräuchen aus erster Abbildung) ist das Netzteil für weniger als 10W davon verantwortlich. Und es sinkt auch immer noch zu niedrigeren Lasten. Eine geänderte Erzeugung der 3,3V und 5V (die nur einen Bruchteil von den ~8W Verlusten im idle ausmachen) kann die beobachteten Unterschiede also überhaupt nicht verursachen. Insbesondere da die Unterschiede im Teillastbereich absurd groß werden (z.B. Webbrowsen: 35W vs. 84W, ein System legt zum idle 4W zu, das andere fast 40W :freak:), würde ich da mal ganz stark auf unterschiedliche Boardsettings tippen (irgendein CPU-Stromsparmechanismus, der auf dem ATX-Board aus war oder das ATX-Board boostet aggressiver?). Es ist absolut absurd zu glauben, Unterschiede dieser Größenordnung lägen am unterschiedlichen Ort der Erzeugung der 3,3V und 5V Spannungen.

Edit:
Doch noch einen RM750i-Test (https://www.tomshardware.com/reviews/corsair-rm750i-power-supply,4223-5.html) mit entsprechender Effizienzmessung gefunden (das Netzteil ist ja schon locker 6 Jahre alt, mußte also weit zurückgehen). Auch das produziert im ganz niedrigen Lastzustand (die haben bis 20W runter gemessen) etwa 10W Gesamtverluste (9,9W bei 20W Last und 10,9W bei 40W Last). Ist dort wohl minimal schlechter als das 3 Jahre jüngere Netzteil des gleichen Herstellers, aber trotzdem gibt das nie und nimmer die Unterschiede her.

basix
2021-07-30, 16:36:40
Wie gesagt, 12VO kann ein paar verquetschte Watt bringen, mehr nicht. Da ist es sinnvoller, dass das Mainboard nicht zu viel unnötigen Bling-Bling mitbringt oder man unbenutzte IO-Ports/Extension-Chips im BIOS abschaltet. Beides ist häufig für signifikanten Mehrverbrauch im Idle verantwortlich.

Platos
2021-07-30, 17:06:28
Man kann das hald auch schlecht testen. Es gibt vermutlich niemals ein Mainboard, dass genau gleich ist, einmal in 12VO und einmal normal. Das ginge nur, wenn man anfängt selbst Hand anzulegen und dafür müsste man Mainboards selbst kaufen als Testseite und dann quasi "schrotten" (dran rumbasteln). Das wird wohl niemand machen wollen.

=============================

Problem ist doch, dass es:
- die Hersteller nicht juckt und sie lieber alles auf möglichst hohen takt/Leistung einstellen.
- Hardware seiten Mainboards eigentlich nicht mehr testen, und falls doch, der Idle verbrauch nicht angekreidet wird, sondern lieber die Performance, SSD geschwindigkeit oder irgendwelche features gelobt werden.
- ein großteil der Kunden einen scheiß drauf geben und lieber blinkende Mainboards kaufen, anstatt welche mit hochwertigen komponenten und niedrigem verbrauch.

Das ist aktuell der unterschied der ATX12V0 boards, da hier der verbrauch vom marketing gepusht wird, werden auch sparsamere komponenten verbaut, um auch unterschiede zu erkennen.

Das ist leider so. Herauszufinden welches Mainboard am sparsamsten ist, ist einfach extrem schwierig. Hier und da findet man vlt. Nutzertests, aber meistens behandeln die alte Mainboards oder was weiss ich. Auf jeden Fall kann man sie an der Hand abzählen.

Mir kommt es so vor, als würde die Gamingszene immer mehr verdummen. Liegt wohl aber eher daran, dass diese immer grösser wird und somit auch immer mehr unerfahrene Nutzer dazustossen. Heute zahlt man ja für Bling Bling und die Leute kaufen in Spielen "Skins" und co ;D

(Hätte ein Post werden sollen... zu spät)

Gipsel
2021-07-30, 18:19:41
Man kann das hald auch schlecht testen. Es gibt vermutlich niemals ein Mainboard, dass genau gleich ist, einmal in 12VO und einmal normal. Das ginge nur, wenn man anfängt selbst Hand anzulegen und dafür müsste man Mainboards selbst kaufen als Testseite und dann quasi "schrotten" (dran rumbasteln). Das wird wohl niemand machen wollen.Auch ohne zerstörte Mainboards oder Netzteile kann man aber zumindest messen, wie viel auf jeder Rail zum Mainboard fließt und wieviel das Netzteil aus der Steckdose saugt. Damit kann man zumindest die gesamten Netzteilverluste quantifizieren. Und eventuelle Einsparungen können nicht über diesen liegen ;). Erst wenn man es dann noch genauer wissen will, muß man anfangen an den Netzteilen bzw. Mainboards rumzubasteln.

BlacKi
2021-07-31, 22:00:47
Bei 5% Last (entspricht dann so grob 42W abgegebene Leistung, also relativ nah an den idle-Verbräuchen aus erster Abbildung) ist das Netzteil für weniger als 10W davon verantwortlich. Und es sinkt auch immer noch zu niedrigeren Lasten. Eine geänderte Erzeugung der 3,3V und 5V (die nur einen Bruchteil von den ~8W Verlusten im idle ausmachen) kann die beobachteten Unterschiede also überhaupt nicht verursachen. Insbesondere da die Unterschiede im Teillastbereich absurd groß werden (z.B. Webbrowsen: 35W vs. 84W, ein System legt zum idle 4W zu, das andere fast 40W :freak:), würde ich da mal ganz stark auf unterschiedliche Boardsettings tippen (irgendein CPU-Stromsparmechanismus, der auf dem ATX-Board aus war oder das ATX-Board boostet aggressiver?). Es ist absolut absurd zu glauben, Unterschiede dieser Größenordnung lägen am unterschiedlichen Ort der Erzeugung der 3,3V und 5V Spannungen.

Edit:
Doch noch einen RM750i-Test (https://www.tomshardware.com/reviews/corsair-rm750i-power-supply,4223-5.html) mit entsprechender Effizienzmessung gefunden (das Netzteil ist ja schon locker 6 Jahre alt, mußte also weit zurückgehen). Auch das produziert im ganz niedrigen Lastzustand (die haben bis 20W runter gemessen) etwa 10W Gesamtverluste (9,9W bei 20W Last und 10,9W bei 40W Last). Ist dort wohl minimal schlechter als das 3 Jahre jüngere Netzteil des gleichen Herstellers, aber trotzdem gibt das nie und nimmer die Unterschiede her.[/spoiler]

gerade das was du hier in den spoiler gesetzt hast bzw. die tests haben mich überzeugt. du hast gewonnen.

eine schande, dass das ein paar hansel in einem forum alleine ausfechten müssen, nichtmal igor hat sich des themas 12vo so angenommen, obwohl ich es ihm zutrauen würde. vl macht er es nochmals zum thema.

was mich erstaunt, das selbst platin geräte kaum bessere idle effizienzen haben. bei dem Corsair HX850i kann man ja ausgang und eingangsleistung ablesen. https://youtu.be/QUk0YyBT4Mo?t=193

Gipsel
2021-08-01, 10:50:02
Na es gibt schon Leute, die da was nachmessen und es gibt auch Weiterentwicklungen bei den ATX-Netzteilen. Und da wir ja schon bei Corsair als Hersteller waren, das 2019er-Modell der RM-Serie hat offenbar noch einen neuen Trick auf Lager, um die Effizienz im niedrigen Lastbereich weiter zu erhöhen (https://www.tweakpc.de/hardware/tests/netzteile/corsair_rm_2019_650-750-850/s03.php). Die schreiben was davon, daß das nächste 80+ Label eventuell 70% Effizienz bei 2% Auslastung (oder 10W Last, je nachdem was höher ist) vorschreiben wird. Bisher gibt es ja nur Normen bis runter auf 20% Auslastung (nur 80+Ti definiert was für 10%).
Das Resultat für die 750W-Variante sieht dann so aus:
https://www.tweakpc.de/hardware/tests/netzteile/corsair_rm_2019_650-750-850/i/750/eff230v100.png
Sowas senkt den Spielraum für mögliche Einsparungen im idle mit ATX12VO nochmal weiter. Wäre das Ein 80+Ti-Netzteil (erfüllt nur 80+ Gold), müßte es übrigens 90% Effizienz bei 75W Last schaffen (also <8,3W Verlustleistung dort, es verfehlt nicht nur das, sondern auch die Effizienzvorgaben im mittleren Lastbereich, des wegen nur Gold). Diese Optimierung für niedrige Lasten kann also auch bei den etwas günstigeren Konstruktionen erfolgen (okay, das konkrete Beispiel ist jetzt nicht so billig, aber es ist auch kein 80+Ti und prinzipiell gilt das schon) und erzwingt nicht überall die Verwendung höherwertigerer Komponenten mitsamt aufwendiger Konstruktion (laut Artikel ändern die im niedrigen Lastbereich die Art der Ansteuerung der Schaltregler [Netzteile haben ja eine Leistungsüberwachung integriert, die kann man dann ja auch für sowas nutzen, auch ohne oder nur mit sehr geringem Konstruktionsaufwand]).
Wobei das 80+Ti-Label nur für 115V erreicht wird, nicht für 230V (was etwas höhere Effizienz vorschreibt als das für 115V):
https://www.tweakpc.de/hardware/tests/netzteile/seasonic_prime_titanium/i/eff230v100.png

Aber da wir jetzt Alle einer Meinung zu sein scheinen, sollten wir vielleicht wirklich wieder zu Alderlake kommen. ;)

amdfanuwe
2021-08-01, 12:16:50
Gibt es auch mal was neues zu ADL?

Tralalak
2021-08-03, 22:32:59
Arrow Lake (8x Lion Cove / 32x Skymont) Q4'23
source: https://wccftech.com/intel-next-gen-arrow-lake-lunar-lake-nova-lake-cpus-rumored-to-succeed-meteor-lake/

HOT
2021-08-03, 22:42:09
Nach den Infos sieht das eher so aus, als wäre Meteor Lake eigentlich N5 + Intel-Prozess bei den anderen Chiplets. Wahrscheinlich reines Mobilprodukt würde ich sagen. Das erklärt auch die Zeiträume. Ähnliches scheint ja für Lunar Lake zu gelten.

Damit wäre die eigentliche Desktop-Reihenfolge:
Alder Lake -> Raptor Lake -> Arrow Lake -> Nova Lake

Unicous
2021-08-06, 18:57:43
Alder Lake NUC + DG2(+ DDR4.:freak:)

https://cdn.videocardz.com/1/2021/08/Intel-NUC-12-Enthusiast-topaz.jpg

https://videocardz.com/newz/intel-nuc-12-enthusiast-to-feature-alder-lake-and-dg2-gpus-with-displayport-2-0-support


DG2 unterstützt DP 2.0. Guter Schachzug seitens Intel. Leider dauert es mal wieder ewig bis neuere Standards industrieweit unterstützt werden, bei DP sind es jetzt auch schon wieder über 2 Jahre seit spec release. Aber immerhin nicht so ein Desaster wie bei HDMI 2.1. Ende 2017 spec release, und dann hat es dennoch über 3 Jahre gedauert bis etwas passiert ist.:rolleyes:

dildo4u
2021-08-08, 12:09:54
Alderlake S will whol wieder mehr Strom.


https://www.techpowerup.com/285310/intel-alder-lake-atx12v-peak-current-recommendation-is-allegedly-higher-compared-to-rocket-lake

y33H@
2021-08-08, 13:06:48
Nö, denn PL1/PL2 bleibt gleich.

basix
2021-08-08, 16:41:49
Kann sein, dass der Boostalgorithmus etwas aggressiver funktioniert: Innert kürzerer Zeit den Takt hochfahren. Das hätte erhöhte Spikes auf der 12V Speisung zur Folge.

aufkrawall
2021-08-08, 16:58:27
Kann sein, dass der Boostalgorithmus etwas aggressiver funktioniert: Innert kürzerer Zeit den Takt hochfahren. Das hätte erhöhte Spikes auf der 12V Speisung zur Folge.
Heißt es das nicht alle Jahre wieder, und man merkt dann doch nie einen Unterschied?

basix
2021-08-08, 17:14:45
Ich sagte damit nicht, dass man es zwingend merkt. Es geht um die Auswirkungen auf die Stromversorgung ;)

Schnelles hochtakten hat aber bei "Schwuppdizität" schon einen Einfluss. Nicht umsonst fühlen sich Zen 2/3 flott an. Windows hat ein 15ms Fenster/Scheduler fürs hochtakten. 15-30ms Latenz sind für mich definitv wahrnehmbar.
Extrembeispiel ist Haswell-E, der ist ein "langsamer Clocker" ;) Dort haben Custom Energieprofile Wunder gewirkt bei der Schwupdizität (Cores gehen nicht komplett schlafen).

aufkrawall
2021-08-08, 19:02:54
Windows hat ein 15ms Fenster/Scheduler fürs hochtakten.

Das halte ich für arg unwahrscheinlich, sonst würde es mit ausbalanciert-Profil ständig Ruckler geben. In der Praxis wird aber höchstens mal selten bei dem ein oder anderen Niedriglast-Szenario ein einzelner Vblank dadurch verpasst o.ä. (ggf noch Sonderfall fps-Limiter).


Extrembeispiel ist Haswell-E, der ist ein "langsamer Clocker" ;) Dort haben Custom Energieprofile Wunder gewirkt bei der Schwupdizität (Cores gehen nicht komplett schlafen).
Schon mit Skylake-S/H bleibt allerdings das ganze Package >90% der Zeit im C6/7 in Idle, auch wenn man das Höchstleistungsprofil nutzt. Für den Desktop sind da weitere Verbesserungen also extrem unspektakulär.

basix
2021-08-08, 20:33:53
Sieh dir die Informationen zum Clock Ramping an: https://www.anandtech.com/show/14525/amd-zen-2-microarchitecture-analysis-ryzen-3000-and-epyc-rome/3

For any of our users familiar with our Skylake microarchitecture deep dive, you may remember that Intel introduced a new feature called Speed Shift that enabled the processor to adjust between different P-states more freely, as well as ramping from idle to load very quickly – from 100 ms to 40ms in the first version in Skylake, then down to 15 ms with Kaby Lake. It did this by handing P-state control back from the OS to the processor, which reacted based on instruction throughput and request. With Zen 2, AMD is now enabling the same feature.

AMD already has sufficiently more granularity in its frequency adjustments over Intel, allowing for 25 MHz differences rather than 100 MHz differences, however enabling a faster ramp-to-load frequency jump is going to help AMD when it comes to very burst-driven workloads, such as WebXPRT (Intel’s favorite for this sort of demonstration). According to AMD, the way that this has been implemented with Zen 2 will require BIOS updates as well as moving to the Windows May 10th update, but it will reduce frequency ramping from ~30 milliseconds on Zen to ~1-2 milliseconds on Zen 2. It should be noted that this is much faster than the numbers Intel tends to provide.

QUERSCHLÄGER
2021-08-08, 21:02:19
Habe nicht mehr alles verfolgt die letzten Wochen (oder vielleicht auch Monate..): kommt hier was wirklich interessantes, weil super stark oder super sparsam oder eher eine normale Weiterführung des Rennens, aber eben mit einem anderen Pferd? Oder konkreter, ist so ein Teil schon mal jemanden in die Hände gefluppt und derjenige konnte trotz eines frühen samples was handfestes daraus ableiten?

DeadMeat
2021-08-08, 21:11:57
Habe nicht mehr alles verfolgt die letzten Wochen (oder vielleicht auch Monate..): kommt hier was wirklich interessantes, weil super stark oder super sparsam oder eher eine normale Weiterführung des Rennens, aber eben mit einem anderen Pferd? Oder konkreter, ist so ein Teil schon mal jemanden in die Hände gefluppt und derjenige konnte trotz eines frühen samples was handfestes daraus ableiten?

Die aktuellen leaks deuten beim großen Modell auf : Sehr hohe Leistung bei hohem Verbrauch bei teurer Plattform (des Topmodells). Das ganze bei einem Paper Launch der großen Modelle

Und das basiert nur auf einigen wenigen Leaks, mehr gibt es bisher nicht. Also rein was die Leaks angeht gibrs nicht viel neues.

Technisch interessant ist es definitiv, ob auch in der Anwendung ist die andere Frage.

QUERSCHLÄGER
2021-08-08, 22:22:33
Was bedeutet sehr hoher Verbrauch? "Nur" höher als die Vorgänger oder gleich so hoch, daß man die Architektur anfangen könnte, in Frage zu stellen? Obwohl, das wäre ja Blödsinn, die kleineren Modelle werden ja wieder deutlich behutsamer zu Werke gehen.

Schade, hatte gehofft, es ist schon ein bisschen mehr bekannt.

BlacKi
2021-08-08, 22:46:54
Was bedeutet sehr hoher Verbrauch? "Nur" höher als die Vorgänger oder gleich so hoch, daß man die Architektur anfangen könnte, in Frage zu stellen? Obwohl, das wäre ja Blödsinn, die kleineren Modelle werden ja wieder deutlich behutsamer zu Werke gehen.

Schade, hatte gehofft, es ist schon ein bisschen mehr bekannt.gleich hoch wie rocketlake, aber idleverbrauch wird wieder sinken. effektiv könnte man sagen, der verbrauch sinkt XD

DeadMeat
2021-08-08, 23:17:11
Blacki hat recht, hoch nur im allgemeinen Sinn und im vergleich zu einem gelockten AMD bei Vollast, bei idle/teillast sollte das ganze Konzept niedriger sein, darüber gibts aber keine Leaks.

Auf hohen Vollastverbrauch deutet: leak Benchmarks wurden mit 280w angegeben (wäre ohne aktive P limits 125w/225w) und die vorserien Mainboards haben eine dicke VRM bestückung, das ist allerdings auch nicht komplett unüblich bei solchen Boards.

Wie gesagt das sind nur ein paar Leaks bisher.

mocad_tom
2021-08-09, 12:33:08
Das wird ein neuer Sockel und der wird halten von Alderlake über Raptor Lake bis hin zu Meteor Lake.

Da war vor kurzem ein Bild mit einem Alderlake-Mainboard mit 20 VRMs.

Ich gehe davon aus, dass im Idle VRMs komplett stromlos gemacht werden können und damit dann auch die Kerne, die direkt dahinter drangeklemmt sind.

Also gibt es ein Mapping VRMs zu den Kernen (oder Zweier-Cluster an Kernen).

Dann noch VRM an die GPU, VRM an den RAM, Uncore, L3-Cache.

Die höheren Ampere Angaben (stromstärke) resultieren auch daraus, dass man mit kleineren Nodes niedrigere Spannungen braucht, gleichzeitig aber höhere Stromstärke.

Dann hat Raptor Lake 16 little Cores - also hier muss ich wieder mehr Cluster stromlos schalten können (und damit auch die VRMs).

Bei Raptor Lake 8 große Cores = 8 VRM
16 kleine Cores = 4 VRM -> also verbrenne ich schonmal 12 VRM.

Der Idle-Stromverbrauch wird in Kalifornien eine wichtige Messgröße.

------------

Dann zu dem Intel Nuc 12

Da wird PCIe 5.0 Mainboard & PCIe 5.0 Grafikkarte beworben (die Konkurrenz hat da noch nix). Das wird rein von der Leistung her nix bringen. Aber in der Werbung kommt das gut.

Die Grafikkarte wird WDDM3.0 vollständig unterstützen.
(Nvidia und AMD in den aktuellen Modellen unterstützen auch schon WDDM 3.0)

https://xdc2020.x.org/event/9/contributions/610/

https://docs.microsoft.com/en-us/windows/ai/directml/gpu-accelerated-training


Die GPU kann eine virtualisierte Instanz in Linux oder Android hineinprojezieren.

In Android können dann auch ML-Applikationen genutz werden. Z.B. wird für den QR-Code-Leser, oder für Schrift-Erkennung auch ML (auf dem lokalen Gerät) genutzt.

Viele ML-Funktionen sind in AOSP gerutscht:
https://medium.com/@pkurumbudel/ml-ai-in-android-35095457df40

Und damit sind sie z.B. auch in einer Applikation nutzbar, die im Amazon App-Store veröffentlicht werden.

https://medium.com/@pkurumbudel/ml-ai-in-android-35095457df40

Auf einem Win11-Gerät kann nun das Host-OS über den WDDM-3.0-Treiber die GPU-Funktionen virtualisieren und an ML-Kit direkt durchreichen.

-----------------------

Dann gibt es noch einen extra Zungenschnalzer-Leckerbissen.
Android kann die Framerate verändern, damit scrolling in einer Liste z.B. flüssiger aussieht.
Manche Geräte können von 60Hz auf 120Hz schalten.
Da Android auf Win11 für längere Zeit geplant ist hat WDDM 3.0 auch dies berücksichtigt.
WDDM3.0 kann die Framerate rauf und runterdrehen. Gleichzeitig kann von einem Android-Fenster aus die Nachricht nach draussen weitergeleitet werden und das Host-OS dreht selbst die Framerate hoch.

Wir sehen aktuell eine Menge Gaming Monitore mit Freesync - in einem "Win 11 native"-System wird eine dynamische Frequenz über die ganze Kette hinweg gefordert.

Der Intel Nuc 12 wird das natürlich später auch richtig implementieren können.
(sorry wenn ich hier ein paar Topics gerade kreuz und quer miteinander verbinde)

Ich bin noch gespannt, wie sich das mit HDR in Einklang bringen lässt.

-----------------

Extrem spannend in diesem Zusammenhang wird Ryefield:
https://twitter.com/KOMACHI_ENSAKA/status/1155794788555165696


Ryefield scheint eng verwandt mit Lakefield zu sein, aber hat eine 12th gen Grafik.
Ich vermute bei dieser CPU wird das Compute Die bei TSMC gefertigt, das Base-Die bei Intel. Und es wird ein Microsoft premium Gerät zum Start von Win 11 geben.
https://www.heise.de/news/Intel-lagert-erstmals-Produktion-hochwertiger-CPU-aus-5023627.html

Lakefield war damals schon eine CPU, die von Microsoft so halb/halb bestellt wurde(Spezial-Auftrag), Windows 10 S hat sich dann aber zerschlagen.

HOT
2021-08-09, 12:50:50
Meteor Lake scheint mir nur ein Mobile-Chip zu sein. Arrow Lake wird wohl der Nachfolger von Raptor Lake und der bekommt sehr sicher nen neuen Sockel. 1700/1800 ist sehr sicher nur ADL und RTL.

WedgeAntilles
2021-08-09, 13:13:51
1700/1800 ist sehr sicher nur ADL und RTL.

Ja, so stand das eigentlich immer in den Übersichtstabellen in denen die kommenden CPUs der nächsten paar Jahre aufgelistet wurden.

Generell ist Intel ja auch nicht gerade dafür bekannt, einen Sockel über einen längeren Zeitraum zu verwenden.

davidzo
2021-08-09, 14:17:19
Btw, leider gibt es immer noch sehr wenig Reviews und Benchmarks zu Intels schon seit monaten erhältlichen Tremont Cores.

Hier einmal im Elkhart soc (embedded) (12W, 2-3Ghz):
https://browser.geekbench.com/v5/cpu/7927358

IPC technisch knapp hinter einer Zen1 embedded SKU (12-25Watt, 2-3,6Ghz):
https://browser.geekbench.com/v5/cpu/8806012

Sind also beides 4C SKUs, die alte AMD 14/12nm SKU hat eine etwas höhere TDP für short bursts als die Intel 10nm SKU. Ich weiß nicht verlässlich auf welcher TDP der Brix embedded bei MT loads sustained läuft, aber das wird so um die 15Watt sein wie bei den mobile designs, also nicht all zu weit weg von den 12Watt sustained der Elkhart lake CPU.

Das ist einerseits keine schlechte Leistung wenn man bedenkt das mit Gracemont noch eine erhebliche Taktverbesserung kommt (+24% auf 3,9Ghz?). Und Zen1 wäre ohne die 600mhz höheren Turbo wohl auch nicht mehr schneller (allerdings auch näher am verbrauchs-sweetspot).

Andererseits macht das MT Ergebnis ein bisschen Bauchschmerzen. Anscheinend verbrauchen die Mont Cores gar nicht mal wenig und müssen daher beim MT-Takt erheblich zurückfahren.
Wenn eine Zen1 14/12nm SKU schon nah kommt an die Effizienz einer vergleichbar konfigurierten Tremont SKU in 10nm kommt ist das kein gutes Zeichen für ein Gracemont 8C Cluster in eben derselben Fertigung vs Zen3 Cores in 7nm.

robbitop
2021-08-09, 14:21:12
Naja wenn man eine hohe IPC erreicht, ist anzunehmen, dass auch der Verbrauch steigt. Zaubern kann niemand. Wenn plötzlich hohe IPC für viel weniger Leistungsaufnahme gehen würde, müsste man sich die Frage stellen, was die Entwickler denn bis vor kurzem gemacht haben.

Jeder Vorteil hat auch immer einen Nachteil. Wenn es plötzlich nur Vorteile gibt, wurde man lange Zeit verarscht. :D (zu schön um wahr zu sein ;))

fondness
2021-08-09, 15:05:56
Naja wenn man eine hohe IPC erreicht, ist anzunehmen, dass auch der Verbrauch steigt. Zaubern kann niemand. Wenn plötzlich hohe IPC für viel weniger Leistungsaufnahme gehen würde, müsste man sich die Frage stellen, was die Entwickler denn bis vor kurzem gemacht haben.

Jeder Vorteil hat auch immer einen Nachteil. Wenn es plötzlich nur Vorteile gibt, wurde man lange Zeit verarscht. :D (zu schön um wahr zu sein ;))

Naja, das ist aber das was AMD im Vergleich zu Intel erreicht, nicht? :) Bzw. Apple selbst im Vergleich zu AMD. Ergo so einfach kann man es sich nicht machen. Da ist gerade bei Intel noch ordentlich Luft und die sollte man auch mal heben. Immerhin ist Zen1 nicht gerade taufrisch und 14nm GF auch kein konkurrenzfähiger Prozess zu Intel 10nm.

BlacKi
2021-08-09, 15:06:40
naja, das featureset unterscheidet sich zwischen den großen und kleinen kernen. aber wieviel das ausmacht stelle ich mal in frage.

Tralalak
2021-08-09, 15:28:04
Btw, leider gibt es immer noch sehr wenig Reviews und Benchmarks zu Intels schon seit monaten erhältlichen Tremont Cores.

Hier einmal im Elkhart soc (embedded) (12W, 2-3Ghz):
https://browser.geekbench.com/v5/cpu/7927358

IPC technisch knapp hinter einer Zen1 embedded SKU (12-25Watt, 2-3,6Ghz):
https://browser.geekbench.com/v5/cpu/8806012

Sind also beides 4C SKUs, die alte AMD 14/12nm SKU hat eine etwas höhere TDP für short bursts als die Intel 10nm SKU. Ich weiß nicht verlässlich auf welcher TDP der Brix embedded bei MT loads sustained läuft, aber das wird so um die 15Watt sein wie bei den mobile designs, also nicht all zu weit weg von den 12Watt sustained der Elkhart lake CPU.

Das ist einerseits keine schlechte Leistung wenn man bedenkt das mit Gracemont noch eine erhebliche Taktverbesserung kommt (+24% auf 3,9Ghz?). Und Zen1 wäre ohne die 600mhz höheren Turbo wohl auch nicht mehr schneller (allerdings auch näher am verbrauchs-sweetspot).

Andererseits macht das MT Ergebnis ein bisschen Bauchschmerzen. Anscheinend verbrauchen die Mont Cores gar nicht mal wenig und müssen daher beim MT-Takt erheblich zurückfahren.
Wenn eine Zen1 14/12nm SKU schon nah kommt an die Effizienz einer vergleichbar konfigurierten Tremont SKU in 10nm kommt ist das kein gutes Zeichen für ein Gracemont 8C Cluster in eben derselben Fertigung vs Zen3 Cores in 7nm.


SnRe7lcKOV8

link: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=607246


What benchmarks are you still missing?

ryan
2021-08-09, 16:46:56
Andererseits macht das MT Ergebnis ein bisschen Bauchschmerzen. Anscheinend verbrauchen die Mont Cores gar nicht mal wenig und müssen daher beim MT-Takt erheblich zurückfahren.
Wenn eine Zen1 14/12nm SKU schon nah kommt an die Effizienz einer vergleichbar konfigurierten Tremont SKU in 10nm kommt ist das kein gutes Zeichen für ein Gracemont 8C Cluster in eben derselben Fertigung vs Zen3 Cores in 7nm.


Dieselbe Fertigung ist nicht richtig. Jasper/Elkhart Lake wird in 10nm gefertigt, während Alder Lake in 10ESF/7 gefertigt wird. Also praktisch liegen zwei Generationen dazwischen. SuperFin hat 17-18% Performance gebracht:


The Super Fin provides a 17-18% performance improvement like a full node.
https://semiwiki.com/semiconductor-services/ic-knowledge/293521-no-intel-and-samsung-are-not-passing-tsmc/


10ESF/7 soll eine 10-15% verbesserte performance/watt über 10 SuperFin bringen.

Not to be confused with Intel’s former 7nm process, this is a rename of the 10nm Enhanced Super Fin process and offers a 10-15% performance improvement over 10SF.
https://semiwiki.com/semiconductor-services/ic-knowledge/301376-intel-accelerated/


Ich wäre auch ein wenig vorsichtig mit dem embedded Vergleich. Der MT Score liegt nur auf dem Niveau vom N6000 mit einer TDP von 6W.

y33H@
2021-08-09, 17:24:47
Nicht Performance, sondern Perf/Watt - das ist ein gewaltiger Unterschied.

Btw, leider gibt es immer noch sehr wenig Reviews und Benchmarks zu Intels schon seit Monaten erhältlichen Tremont Cores.Von mir kommt die Tage was, leider nur der Celeron N5100 (4C @ 6W) ... aber zumindest Singlecore ist spannend. Und tatsächlich sind Systeme damit nicht seit Monaten verfügbar, schon gar nicht mit den 10W-Desktop-Versionen.

CrazyIvan
2021-08-09, 17:33:15
@y33H@
Nice!
I already experimented with Tralalak a littlebit. Sadly it seems that OpenHardwareMonitor does not support Tremont based CPUs yet. Otherwise it would have been extremely interesting to run it through PES and see how it goes Efficiency wise.

robbitop
2021-08-09, 17:46:24
Naja, das ist aber das was AMD im Vergleich zu Intel erreicht, nicht? :) Bzw. Apple selbst im Vergleich zu AMD. Ergo so einfach kann man es sich nicht machen. Da ist gerade bei Intel noch ordentlich Luft und die sollte man auch mal heben. Immerhin ist Zen1 nicht gerade taufrisch und 14nm GF auch kein konkurrenzfähiger Prozess zu Intel 10nm.

Apple lebt IMO sehr stark von mehreren Sachen:
1. deren Big Cores takten relativ niedrig
2. die little cores unterstützen
3. die fahren wirklich selten alle cores voll aus
4. ist Apple auch nicht die Norm. Ja es ist ein Indikator dass da noch einiges geht - aber in die Sphären ist weder NV noch Qualcomm noch ARM noch Intel noch AMD zu kommen. Es scheint also schon eine sehr nennenswerte Schwierigkeit zu sein da hin zu kommen

ryan
2021-08-09, 18:30:03
Nicht Performance, sondern Perf/Watt - das ist ein gewaltiger Unterschied.

Von mir kommt die Tage was, leider nur der Celeron N5100 (4C @ 6W) ... aber zumindest Singlecore ist spannend. Und tatsächlich sind Systeme damit nicht seit Monaten verfügbar, schon gar nicht mit den 10W-Desktop-Versionen.


Falls du SuperFin meinst - das habe ich geschrieben. Dir sollte aber auch klar sein, dass SuperFin über die komplette range effizienter zu Werke geht. Schau dir die dynamic range Folie von SuperFin an, bei schon ab 2 Ghz ist die Spannungsreduzierung beachtlich. Tigerlake-U kann auch im ~2.5 Ghz Bereich (Prime95 Last) deutlich höher takten als es Icelake-U konnte.

BlacKi
2021-08-09, 18:41:15
Nicht Performance, sondern Perf/Watt - das ist ein gewaltiger Unterschied.
früher würde ich das auch so unterschreiben, aber gerade bei dem schwankenden boosttakten bei zen3 münzt das auch indirekt direkt in performance. wird auch bei intel im multithreading direkt in performance münzen, wenn man höheren takt bei gleicher tdp fahren kann.

davidzo
2021-08-09, 18:46:45
Meteor Lake scheint mir nur ein Mobile-Chip zu sein. Arrow Lake wird wohl der Nachfolger von Raptor Lake und der bekommt sehr sicher nen neuen Sockel. 1700/1800 ist sehr sicher nur ADL und RTL.

Wie erklärst du dir 125Watt im mobile?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76407&stc=1&d=1628527161


Dieselbe Fertigung ist nicht richtig. Jasper/Elkhart Lake wird in 10nm gefertigt, während Alder Lake in 10ESF/7 gefertigt wird. Also praktisch liegen zwei Generationen dazwischen.

Afaik sind Jasperlake und Elkhart lake ebenfalls schon 10SF. 10ESF ist nur ein step weiter, und bedeutet für Gracemont in erster Linie mehr Taktspielraum (siehe 3,9Ghz in den geleakten SKUs), nicht mehr Power/W.

Like Elkhart Lake, Jasper Lake has Tremont cores built with 10nm SuperFin fabrication technology, as well as Intel UHD Graphics with up to 32EU Intel Gen11 technology.
http://linuxgizmos.com/intels-10nm-jasper-lake-offers-6-10w-tdps/
Macht auch Sinn, ist ja ein 2020/21 Produkt, wieso sollte man dann auch nicht die Fertigung nehmen die dann gerade Aktuell ist?




What benchmarks are you still missing?

Essentially what i miss are comparision points with modern big cores like Tigerlake, Coffelake, Zen2, Zen3. The benchmark selection is quite good, maybe include Lammps, blender, pybench which are also easily scriptable. I dunno if there is any good synthetic benchmark to measure latency+dram accesses like games do.

amdfanuwe
2021-08-09, 19:15:45
Wie erklärst du dir 125Watt im mobile?

Ich würde da an dicke GPU denken.

CrazyIvan
2021-08-09, 19:37:24
[...]
4. ist Apple auch nicht die Norm. Ja es ist ein Indikator dass da noch einiges geht - aber in die Sphären ist weder NV noch Qualcomm noch ARM noch Intel noch AMD zu kommen. Es scheint also schon eine sehr nennenswerte Schwierigkeit zu sein da hin zu kommen

Das Argument verstehe ich überhaupt nicht. Meinst Du das im Sinne von "einmal ist keinmal"?
Ich sehe es folgendermaßen: AMD und Intel sind anscheinend über viele Jahre um ein lokales Optimum herumgetingelt. Apple ist in einigen Bereichen einen völlig anderen Weg gegangen und hat dadurch ein neues (ebenfalls lokales) Optimum gefunden. Nun müssen und werden die anderen nachziehen - denn reverse engineered bis aufs Mü haben AMD und Intel den M1 mit Sicherheit.

CrazyIvan
2021-08-09, 19:39:12
Ich würde da an dicke GPU denken.
Welchen Zweifel lässt die Folie an Intels Absicht zu, damit die CPU TDP zu meinen? Oder redest Du von einer iGPU dieser Größenordnung? Aber das kann ich mir erst recht nicht vorstellen.

HOT
2021-08-09, 19:46:15
Apple lebt IMO sehr stark von mehreren Sachen:
1. deren Big Cores takten relativ niedrig
2. die little cores unterstützen
3. die fahren wirklich selten alle cores voll aus
4. ist Apple auch nicht die Norm. Ja es ist ein Indikator dass da noch einiges geht - aber in die Sphären ist weder NV noch Qualcomm noch ARM noch Intel noch AMD zu kommen. Es scheint also schon eine sehr nennenswerte Schwierigkeit zu sein da hin zu kommen


5. Haben ihr OS direkt an diese eine spezielle Prozessorarchitektur optimiert und auch die Apps der Entwickler sind sicherlich sehr stark in diese Richtung gegangen.

HOT
2021-08-09, 19:49:44
Wie erklärst du dir 125Watt im mobile?

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76407&stc=1&d=1628527161

[...]
Guter Punkt, aber das heißt ja auch nicht, dass es 125W überhaupt geben wird. Man könnte sich auch einfach ein Türchen offen halten.

davidzo
2021-08-09, 20:10:06
Ich würde da an dicke GPU denken.

mit nur 192EU, noch dazu auf mobile taktraten? Wenn XE so schlecht ist wäre das echt bedauernswert. Ist es zum glück nicht. nee, da ist kein Zufall dass das genau die standard TDP ist die ein Desktopsockel hat. Meteor ist auch für Desktop geplant, höchstens noch OEMonly oder so, glaube aber eher nicht.

@HOT: Planänderungen sind immer möglich. Im Moment ist das aber keine "Option Freihalten", sondern klar Teil des aktuellen Plans. Kommt der Desktop nicht, so ist das eine Streichung bzw. eine Planänderung.

5. Haben ihr OS direkt an diese eine spezielle Prozessorarchitektur optimiert und auch die Apps der Entwickler sind sicherlich sehr stark in diese Richtung gegangen.

Das OS ist sicherlich für Laufzeit, Energieverbrauch, power states, background tasks etc. verantwortlich, aber bei Full load workloads spielt das OS eigentlich keine Rolle. Und Benchmarks sind genau solche Full Load workloads. Wenn der M1 da in einem Benchmark der auf mehreren Plattformen lauffähig ist, bedeutend schneller ist, dabei weniger verbraucht, dann hat das nichts mehr mit OS Optimierung zutun. Den niedrigeren idle und Durchschnittsverbrauch und mehr Snappyiness kriegst du dann noch oben drauf, aber der zeigt sich nicht in Benchmarks.

robbitop
2021-08-09, 20:17:45
Das Argument verstehe ich überhaupt nicht. Meinst Du das im Sinne von "einmal ist keinmal"?
Ich sehe es folgendermaßen: AMD und Intel sind anscheinend über viele Jahre um ein lokales Optimum herumgetingelt. Apple ist in einigen Bereichen einen völlig anderen Weg gegangen und hat dadurch ein neues (ebenfalls lokales) Optimum gefunden. Nun müssen und werden die anderen nachziehen - denn reverse engineered bis aufs Mü haben AMD und Intel den M1 mit Sicherheit.
Ich bin da noch skeptisch. Apple hat in 2020 mit Firestorm einen Core herausgebracht, der bei 3 GHz an die Performance eines Zen 3 mit knappen 5 GHz erreicht. Bei einem Bruchteil der TDP. Das ist ein lokal anderes Optimum - aber schon ein extrem bemerkenswertes. Und das in 2020. Die bleiben nicht stehen. Wer weiß, wer wie bald ähnliche Potenziale ausschöpfen kann. Ich bin da kurzfristig (also 2021/22) noch skeptisch. Wenn wir Glück haben, liege ich falsch mit der Skepsis. Aber dann muss man sich wirklich die Frage stellen, was CPU designer (nicht nur x86) bis zu diesem Punkt, der ein enormer Sprung gemacht haben. :D

amdfanuwe
2021-08-09, 20:25:17
Welchen Zweifel lässt die Folie an Intels Absicht zu, damit die CPU TDP zu meinen? Oder redest Du von einer iGPU dieser Größenordnung? Aber das kann ich mir erst recht nicht vorstellen.
Nur für Mobile allein wird der sicherlich nicht sein.

Dann ist da noch der GPU Die mit Angabe 96 - 192 EUs auf der Folie.
Mit leistungsfähiger iGPU wären auch 125W im Mobile akzeptabel.

Intel Typisch wird es wieder 100 verschiedene SKUs geben von 2C bis 8+8C ohne GPU bis 192EU.
Das einzigste interessante was ich der Folie entnehme, ist eigentlich Chiplettechnik für Meteorlake und ein weit einsetzbarer Bereich mit 5 - 125W.

TheAntitheist
2021-08-09, 20:49:40
Wenns am Netzteil ist, wäre es doch gut wenn man mehr Power bekommen kann, also die 125w Angabe würde ich 0 kritisch sehen.

fondness
2021-08-09, 21:05:29
Apple lebt IMO sehr stark von mehreren Sachen:
1. deren Big Cores takten relativ niedrig
2. die little cores unterstützen
3. die fahren wirklich selten alle cores voll aus
4. ist Apple auch nicht die Norm. Ja es ist ein Indikator dass da noch einiges geht - aber in die Sphären ist weder NV noch Qualcomm noch ARM noch Intel noch AMD zu kommen. Es scheint also schon eine sehr nennenswerte Schwierigkeit zu sein da hin zu kommen

Du bist jetzt ausschließlich auf Apple eingegangen, wo ich dir zumindest teilweise zustimme, hast aber völlig ignoriert, dass selbst amd eine wesentliche bessere perf per Watt oder per squaremm als Intel erreicht. Und wir reden hier nicht von ein paar lausigen Prozent, wir reden hier von Faktor 2 bis 3 je nach TDP. Und die haben einen sehr ähnlichen Ansatz wie Intel gewählt.

CrazyIvan
2021-08-09, 21:52:34
Das OS ist sicherlich für Laufzeit, Energieverbrauch, power states, background tasks etc. verantwortlich, aber bei Full load workloads spielt das OS eigentlich keine Rolle. Und Benchmarks sind genau solche Full Load workloads. Wenn der M1 da in einem Benchmark der auf mehreren Plattformen lauffähig ist, bedeutend schneller ist, dabei weniger verbraucht, dann hat das nichts mehr mit OS Optimierung zutun.

+1
Immer diese Mär von den sagenhaften OS-Optimierungen. Die Prozessor-Architektur ist einfach SO gut. Punkt.

Ich bin da noch skeptisch. [...] Ich bin da kurzfristig (also 2021/22) noch skeptisch. Wenn wir Glück haben, liege ich falsch mit der Skepsis. Aber dann muss man sich wirklich die Frage stellen, was CPU designer (nicht nur x86) bis zu diesem Punkt, der ein enormer Sprung gemacht haben. :D
Ja, das ist natürlich was anderes. Selbst wenn es nur die eine "secret sauce" geben sollte und selbst wenn AMD/Intel jetzt bereits genau wüssten, wie sie die zur Anwendung bringen würden, dann dürfte das bis zu realen Produkten noch locker bis 2025 dauern. Bis dahin müssen sie schon mit ihren eigenen Ideen arbeiten.

y33H@
2021-08-09, 22:05:49
Falls du SuperFin meinst - das habe ich geschrieben. Du hast Perf/Watt geschrieben, aber SemiWiki fälschlicherweise nur Performance.
Afaik sind Jasperlake und Elkhart lake ebenfalls schon 10SF. Nein, Elkhart und Jasper sind 10+ nm wie Ice Lake, aber kein 10++ aka SuperFin.

EDIT

76410 76411 76412

CrazyIvan
2021-08-09, 22:26:34
Nein, Elkhart und Jasper sind 10+ nm wie Ice Lake, aber kein 10++ aka SuperFin.

Stimmt, bestätigt auch Intels ARK.
Vielleicht magst Du mal was testen: Kannst Du mal schauen, ob dieser OpenHardwareMonitor Dir Package Power etc. ausspuckt?
https://1drv.ms/u/s!AjaF8pHHvUFAi-h3bDfwJEhxXXmjsQ?e=fVjxWQ

/edit: Nette CB-Werte - nahe CML (ISO-Freq.). Aber natürlich würde mich das auch im Kontext zum Verbrauch interessieren ;)

basix
2021-08-09, 22:35:47
Bei CB20 ist die IPC eher auf Sandy Bridge Niveau, wenn die 2.8 GHz gehalten werden konnten.

ryan
2021-08-09, 23:05:48
Afaik sind Jasperlake und Elkhart lake ebenfalls schon 10SF. 10ESF ist nur ein step weiter, und bedeutet für Gracemont in erster Linie mehr Taktspielraum (siehe 3,9Ghz in den geleakten SKUs), nicht mehr Power/W.


http://linuxgizmos.com/intels-10nm-jasper-lake-offers-6-10w-tdps/
Macht auch Sinn, ist ja ein 2020/21 Produkt, wieso sollte man dann auch nicht die Fertigung nehmen die dann gerade Aktuell ist?



Schau mal auf Intel ark (https://ark.intel.com/content/www/de/de/ark/products/212327/intel-pentium-silver-n6005-processor-4m-cache-up-to-3-30-ghz.html), die sind mit 10nm gelistet. Elhart/Jasper, Icelake-U sind alle in 10nm gefertigt, erst mit Tigerlake-U gab es 10ES.

Die kleinen Kerne sind schon immer ein Schritt zurück gewesen oder hatten nicht die Top Priorität. Tremont hat sich ja auch lange verschoben, die Architektur selber wurde schon Ende 2019 (https://newsroom.intel.com/news/intel-introduces-tremont-microarchitecture/) vorgestellt, also im Zeitraum von Icelake-U. Einfach mal so die Fertigung umstellen ist nicht so einfach.

10ESF bringt eine perf/watt Verbesserung von 10-15% mit. Aber die gewonnene Effizienzsteigerung kann Intel natürlich in mehr Takt investieren.

TheAntitheist
2021-08-10, 01:24:57
Dselbst amd eine wesentliche bessere perf per Watt oder per squaremm als Intel erreicht. Und wir reden hier nicht von ein paar lausigen Prozent, wir reden hier von Faktor 2 bis 3 je nach TDP. Und die haben einen sehr ähnlichen Ansatz wie Intel gewählt.Das würde ich gerne mal belegt haben ;D Hier wurde doch noch vor 1-2 Wochen auf der Hauptseite ein Artikel gepostet das die sich da kaum was nehmen...

davidzo
2021-08-10, 07:37:21
Nein, Elkhart und Jasper sind 10+ nm wie Ice Lake, aber kein 10++ aka SuperFin.
Thx, da habe ich wohl falsch abgeschrieben.


Mit leistungsfähiger iGPU wären auch 125W im Mobile akzeptabel.

Wenns am Netzteil ist, wäre es doch gut wenn man mehr Power bekommen kann, also die 125w Angabe würde ich 0 kritisch sehen.

gehts noch? Wir reden hier von TDP, nicht von PL2. Wenn die TDP schon 125watt ist (TDP= PL1 =sustained load), dann wird die Pl2 bei 250Watt oder mehr liegen.
Solche sustained loads sind in mobile einfach nicht möglich, das zieht nichtmal die CPU in nem 4cm dicken desktop replacement boliden mit Desktop CPU 10900 und 2080 super mobile.
Und sowas war auch noch nie ein von intel gepushter Formfaktor für Mobile.
Zeitgemäße mobile Formfakoren sind eher Razer Blade, Dell XPS und Macbook pro Format, mit unter 2kg. Das kann man noch gut transportieren aber selbst bei denen wäre eine IGP mit 192EU eher unterdurchschnittlich, erst recht mit einer 125Watt CPU. Da wird was mit 25-45Watt verbaut + GPU im selben TDP Bereich.

Eine 125Watt CPU ist 100% nicht für Mobile gedacht.

CrazyIvan
2021-08-10, 07:46:15
Das würde ich gerne mal belegt haben ;D Hier wurde doch noch vor 1-2 Wochen auf der Hauptseite ein Artikel gepostet das die sich da kaum was nehmen...

Kannste haben:
https://raw.githubusercontent.com/BrsVgl/PerformanceEfficiencySuite/main/Ranking/CB_ST_PES.png

Man beachte, dass überhaupt erst Tiger Lake wieder halbwegs mit Renoir und Cezanne mithalten kann - im ST wohlgemerkt. Demgegenüber liegen IceLake und erst recht die diversen Skylake-Derivate in der Leistungseffizienz um Faktor 2 und mehr zurück.

Bei Multi-Thread sieht es erst recht braun aus - da zeigt nur das eine Tiger Lake 8C Engineering Sample, dass Intel langsam wieder aufschließt:
https://raw.githubusercontent.com/BrsVgl/PerformanceEfficiencySuite/main/Ranking/CB_MT_PES.png

Weiteren Kontext findest Du hier: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12712665#post12712665

davidzo
2021-08-10, 08:07:29
Aua!

Besonders beschämend ist dabei dass die älteren Skylake-Aufgüsse zum Teil vor den neusten liegen. Der i3 6157U ist im ST zum Beispiel sehr Konkurrenzfähig (MT natürlich nicht, da hat der zu wenig cores und zu viel uncore im Verhältnis).
Das zeigt die Verzweiflungstat von Intels Ingenieuren den 14nm Prozess immer wieder auf noch höhere Taktraten (bei noch höherem Verbrauch) zu trimmen. Kein Wunder das Apple abgesprungen ist wenn sie diese Roadmap gesehen haben. Trotzdem hat man jedes mal von double digit perf/Watt Improvements gesprochen, die man wohl in dubiosen Teillastzuständen auch gemessen haben will.

Bisher ging 10nm, 10+, 10sf in eine ähnliche Richtung wie die 14nm Aufgüsse. Wollen wir mal sehen ob es mit Gelsinger noch mal einen neuen Twist geben wird oder 10ESF in dieselbe Kerbe haut.

davidzo
2021-08-10, 09:19:56
Du hast Perf/Watt geschrieben, aber SemiWiki fälschlicherweise nur Performance.
Nein, Elkhart und Jasper sind 10+ nm wie Ice Lake, aber kein 10++ aka SuperFin.

EDIT

76410 76411 76412


Die sind echt interessant, insbesondere Taktnormiert liegt Tremont tatsächlich nicht mehr weit hinten, wenn auch knapp hinter sandybridge. Kann man da den Takt fix einstellen und ggf. cfl und snb auch untertakten?
Der TDP-vergleich ist imo nicht hilfreich, weil ein 2c CFL wohl kaum 58Watt verbraucht. Und dann wäre da noch der erheblich größere uncore Bereich der großen CPUs. Ein Power vergleich über HWmonitor oder das Intel Power Gadget (unterstützt das Tremont?) hilfreicher.

Ich komme z.B. gerade auf 14Watt Core Power mit einem 4870HQ @3,3Ghz in CBR23 ST, aber 25Watt package Power und 1,9Watt DRAM. MT sind es 29-31Watt Core respektive 37-40 Package Power und 2,7-2,9Ghz CPU core clock. Also ca. 7-10Watt pro Core bei ca. 3,0Ghz, aber das ist halt auch eine uralte 22nm Haswell CPU ;D

y33H@
2021-08-10, 09:54:12
Nein, die Frequenzen von Jasper Lake kann ich nicht ändern - CFL sowie SBN lassen sich nicht unter Basistakt senken.

Platos
2021-08-10, 10:20:33
Wenn man Architekturen vergleichen will, müsste man das aber bei jeder CPU über mehrere versch. Wattzahlen (TDP) machen.

Ansonsten vergleicht man "nur" die CPUs und nicht die Architektur. Im Thread des PES wurde das vom TE auch mit irgend einer CPU gemacht.

mocad_tom
2021-08-10, 12:31:14
Weil gestern gesagt wurde, dass Meteor Lake nicht in den Sockel 1700 kommen wird:

https://wccftech.com/intel-next-gen-arrow-lake-lunar-lake-nova-lake-cpus-rumored-to-succeed-meteor-lake/


The Meteor Lake Desktop CPU family is expected to retain support on the LGA 1700 socket which is the same socket used by Alder Lake & Raptor Lake processors. We can expect DDR5 memory and PCIe Gen 5.0 support.

Meteor Lake wurde desöfteren als Desktop Prozessor bezeichnet.
Vor einem Jahr gab es überhaupt keine Frage darüber, dass Meteor Lake in den Desktop kommt.
Es wurde aber jetzt die Node-Bezeichnung geändert und die Schlagzahl, wie Nodes gerampt werden.

Im früheren Tik Tok wurde ein Node alle zwei Jahre hochgezogen im Volumen und danach wurden alle Produkte (Desktop, Mobile, Server, Atom) innerhalb dieses Nodes hochgezogen.

Jetzt will man jährlich einen Halfnode volumenmäßig hochziehen.
Das gibt Schwierigkeiten.
MMn muss man für diesen Halfnode diese Produkte machen (z.B. Mobile + Atom)
und für den nächsten Halfnode diese Produkte machen (z.B. Server + Desktop)

Gut möglich, dass wir
in Intel 4 nur Mobile + Atom
in Intel 3 Desktop + Server
in Intel 20A Mobile + Atom
in Intel 18A Desktop + Server

TSMC muss sich mit dieser Allokation nicht auseinandersetzen (da bestellt Apple, nvidia, AMD, Qualcomm, Intel in den jeweiligen Nodes).

Ich bin ja auch granular, wie ich meine Fabs bestücke (nicht fluent).
Ich will Arizona, Oregon, Israel mit diesem Node
Oregon, Irland mit diesem Node (Oregon D1X ist einfach riesig)
Oregon, Deutschland(?) mit diesem Node

y33H@
2021-08-10, 18:36:48
Wenn man Architekturen vergleichen will, müsste man das aber bei jeder CPU über mehrere versch. Wattzahlen (TDP) machen.Gewisse Designs gibt es (bisher) aber nur für bestimmte TDP-Ranges, zumal bestimmte Architekturen auch gut/schlecht mit bestimmtes Wattages skalieren. Tatsächlich wäre pro Kern/Takt am besten, aber das ist leider außerhalb von AMDs/Intels Lab selten möglich.

CrazyIvan
2021-08-10, 19:15:47
@mocad_tom
Abgesehen von "HEIß" ist das hier auch jedem klar wie Kloßbrühe - einfach nicht zu viel darauf geben ;)

dildo4u
2021-08-12, 13:29:44
Hier sieht man wie Intel gegen Apple antreten will, das 9 Watt Modell hat 2 große Cores und 8 Kleine.

https://wccftech.com/intel-alder-lake-p-alder-lake-m-mobility-cpu-power-limits-detailed-10-core-at-15w-12-core-at-28w-14-core-at-45w/

Schnäppchenjäger
2021-08-12, 16:43:26
Im früheren Tik Tok wurde ein Node alle zwei Jahre hochgezogen im Volumen und danach wurden alle Produkte (Desktop, Mobile, Server, Atom) innerhalb dieses Nodes hochgezogen.Das heißt Tick-Tock! TikTok ist das populäre Videoportal für Hängengebliebene :wink:

davidzo
2021-08-12, 17:01:41
Hier sieht man wie Intel gegen Apple antreten will, das 9 Watt Modell hat 2 große Cores und 8 Kleine.

https://wccftech.com/intel-alder-lake-p-alder-lake-m-mobility-cpu-power-limits-detailed-10-core-at-15w-12-core-at-28w-14-core-at-45w/

Überzeugt mich nicht. PL2 und PL4 sind verdammt hoch, ich bezweifle mal stark dass der M1 jemals diese Größenordnungen erreicht.
Bei Fanless Designs wie dem Macbook Air wäre die PL2 von 30Watt extrem kurz. Der 1165G7 hat aktuell 8sec (15W) und 20sec(28W).
Die Mont Cores werden zwar nicht allzuweit hinter den Icestorm Cores bei der IPC liegen, aber die Hälfte der M1 Cores sind Firestorm die rund doppelt so schnell pro Takt sind. Letztendlich scheitert es dann aber im MT auch an den dauerhaften Taktraten. Apple kann hier die 3Ghz halten, Intel wird bei 9Watt eher so zwischen 1 und 2Ghz liegen mit ihren 10 Cores (es sei denn man benutzt nur die 8 kleinen cores, dann wohl 2-3Ghz).

Die GPU ist mit nur 96EU (768Alu) eh deutlich unterlegen. Da müssten die EUs schon doppelt so schnell pro Stück werden um ansatzweise mit den 1024 TBDR Alus des M1 mit zu halten. Solche IPC oder Taktverbesserungen sehe ich einfach noch nicht bereits mit der nächsten gen XE, zumal im Mobile. Für konkurrenzfähige Leistung mangelt es eh an Bandbeite, in dieser Hinsicht ist XE sogar bisher besonders schlecht (sogar früher schon Bandbreitenmangel als Vega).
AMD Rembrandt wird da schon knapper. Wenn XE wirklich +50-70% Takt drauflegt und die Treiber konsistentere Performance zeigen, dann könnte Alderlake bei der IGP auf Augenhöhe liegen. Wie ich Intel kenne bekommen aber nur ein Bruchteil der SKUs wieder die vollen 96EUs.

Platos
2021-08-12, 17:11:49
Edit: kann gelöscht werden.

Daredevil
2021-08-12, 17:15:01
Hier sieht man wie Intel gegen Apple antreten will, das 9 Watt Modell hat 2 große Cores und 8 Kleine.

https://wccftech.com/intel-alder-lake-p-alder-lake-m-mobility-cpu-power-limits-detailed-10-core-at-15w-12-core-at-28w-14-core-at-45w/
Braucht es denn Notebooks ohne Lüfter?
Also es ist sicher Nice2have, aber niemand hat danach gefragt... und ein kleiner Lüfter der leise dreht tut niemanden Weh, wenn die Performance auf einmal über 50% steigt und es sparsamer wird.
Intel muss Apple nicht kopieren, das MacBook Air ist ein reines Luxusprodukt mit einem riesen Flex von Apple.

( Es sei denn, es geht in Tablets, dann ist das natürlich Fanless wichtig )

mocad_tom
2021-08-12, 17:36:06
Um die extrem kurze Cache Latency des M1 erreichen zu können wurden Features der Virtualisierung beim M1 in der Cache Pipeline rausgerissen.

Teils war man beim Design überoptimistisch.

https://www.phoronix.com/scan.php?page=news_item&px=Apple-M1-M1RACLES

Bei M1racles hat man schon gesehen, dass hier neu gebaut wurde.

Beim IOMMU DART driver kann man sich mit ein paar dirty hacks durchwinden:
https://lwn.net/Articles/858165/

Während die ARM-Standard-Implementierungen für Linux auch gerade noch robuster gemacht werden muss:
Race condition mutex für IOMMU
https://lore.kernel.org/linux-iommu/1623298614-31755-2-git-send-email-amhetre@nvidia.com/T/

Nested Virtualization ist seit 2016 in x86 ordentlich stabil.
Nur weil Apple gesagt hat, brauchen wir nicht, steht man hier nun vor einem Scherbenhaufen.
Win 11 im Vollausbau wird auf M1 nie laufen - und nicht aus Boshaftigkeit seitens Microsofts, sondern weil sich MS in den letzten Jahren massiv mit Virtualisierung auseinandergesetzt hat.

Project Drawbridge anybody?
https://www.microsoft.com/en-us/research/project/drawbridge/

Project Astoria?
https://www.zdnet.de/88261293/projekt-astoria-microsoft-gibt-android-bridge-fuer-windows-10-endgueltig-auf/

Microsoft hat süffisant Apple schon eingeladen Win 11 auf den M1 rüberzubringen.
Und Nested Virtualization/IOMMU ist eine Königsdisziplin und hier jetzt auch noch die vpgu mit reinzuimpfen ist schon heftig.
https://techcommunity.microsoft.com/t5/virtualization/amd-nested-virtualization-support/ba-p/1434841

Das ist nicht ein Düpieren des Düpierens willen, sondern man hatte diese Anforderung schon lange.
Man hat auch schon lange damit koketiert Edge zu virtualisieren, den Virenscanner zu virtualisieren, den OS-Core weg zu virtualisieren.

Jetzt zieht man es durch und jetzt beschweren sich hier einige, dass die Hardware-Latte so weit hochgelegt wird.

Von Drawbridge bis heute sind 10 Jahre vergangen und MS hat mit allen akteuren (ausser wohl Apple) abgestimmt, was sie vorhaben. Auf dem Snapdragon wird wohl auch nested virtualization & IOMMU laufen.

dildo4u
2021-08-19, 15:12:28
Intel Alder Lake: 19 % höhere IPC, Hardware-Scheduler, DDR5

https://i.ibb.co/Tt9W340/47-1080-d2e8afb1.png (https://ibb.co/2dGZ4vM)

https://www.computerbase.de/2021-08/intel-alder-lake-architektur/

Linmoum
2021-08-19, 15:27:07
Irgendwelche Footnotes bzgl. des RAMs, den sie für ihren IPC-Vergleich genommen haben?

mocad_tom
2021-08-19, 15:32:48
Gracemont ist ein Monster:

https://youtu.be/3jU_YhZ1NQA?t=601

Der_Korken
2021-08-19, 15:33:40
17-wide execution auf den Goldmont-Kernen. Das ist wirklich mal eine Ansage! Kein Wunder, dass die IPC hier so große Fortschritte macht. Wobei ich es erstaunlich finde, dass man trotzdem auf SMT verzichtet hat, wo so breites Backend doch predestiniert dafür wäre. Genau wie eigentlich auch bei Apple, aber die schaffen es offensichtlich auch so, ihren Kern gut auszulasten.

Edit: Und 6-fach Decode. Kein Wunder dass Jim Keller angeblich gesagt haben soll, dass Intel die big cores einstampfen soll und nur little cores bringen soll ^^

Orko
2021-08-19, 15:40:14
Der Intel Thread Director macht also einen Scheduling Vorschlag, und Windows 11 setzt das dann um. Interessant.

Ich hätte jedoch den umgekehrten Weg bevorzugt: Das Betriebssystem teilt der CPU Thread-Prioritäten etc mit, und das Scheduling erfolgt dann rein in Hardware.

Lowkey
2021-08-19, 15:44:28
Macht doch AMD heute schon mit den preferred cores. Wenn man es disabled, dann kümmert sich Windows um die Verteilung. Das klappt natürlich nicht, denn AMD hat pro CCX ideale Kerne für leichte Aufgaben.

Hakim
2021-08-19, 16:07:32
Liest sich alles sehr gut, Hardware basierende Schedular, nice. Aber bitte dafür sorgen das es nicht nur mit Win 11 vernünftig läuft

dildo4u
2021-08-19, 16:09:49
Bei Computerbase steht explizit das es Win11 braucht.

Hakim
2021-08-19, 16:13:02
Ja i know, hoffe dennoch. Ich selber hätte kein Problem mit, hab schon im Insider Programm win 11 getestet. Aber kenne viele die erstmal nicht wechseln wollen

aufkrawall
2021-08-19, 16:20:30
Wird natürlich auch mit Linux gehen. Das wolltet ihr bestimmt nicht explizit ausschließen, aber ich erwähn es trotzdem mal.

Birdman
2021-08-19, 16:37:55
Liest sich alles sehr gut, Hardware basierende Schedular, nice. Aber bitte dafür sorgen das es nicht nur mit Win 11 vernünftig läuft
Würde nicht darauf hoffen dass Microsoft die Scheduler-Anpassungen auf Windows 10 zurückportiert.

Wenn man dadurch dann einfach generell 2-3% Performance verliert/verschenkt dann find ich das nicht mal so tragisch.
Blöder wäre natürlich, wenn es zu Situationen wie bei einigen Threadripper Modellen kommt, wo gewisse Applikationen höhere 2-stellige Verluste aufweisen, weil der Scheduler nicht weiss was er tut...

Unicous
2021-08-19, 17:10:59
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/5

In order to get to this point, Intel had to cut down some of the features of its P-core, and improve some features on the E-core. The biggest thing that gets the cut is that Intel is losing AVX-512 support inside Alder Lake. When we say losing support, we mean that the AVX-512 is going to be physically fused off, so even if you ran the processor with the E-cores disabled at boot time, AVX-512 is still disabled.:freak:

But it does mean that AVX-512 is probably dead for consumers.

Intel isn’t even supporting AVX-512 with a dual-issue AVX2 mode over multiple operations - it simply won’t work on Alder Lake. If AMD’s Zen 4 processors plan to support some form of AVX-512 as has been theorized, even as dual-issue AVX2 operations, we might be in some dystopian processor environment where AMD is the only consumer processor on the market to support AVX-512.:freak:

dildo4u
2021-08-19, 17:15:59
Kann man nur hoffen das AMD die Bandbreite hat extra Zen 4 Consumer Modelle zu bauen ansonsten werden die unnötig aufgeblasen.

HOT
2021-08-19, 17:18:19
In 2 Passes ist AVX512 schlichtweg egal. In einem Pass wäre das hingegen blöd, weil es dann evtl. IPC kostet, weil alles verbreitert werden muss. ADL könnte es ja auch in 2 Passes, es wird aber absichtlich deaktiviert, wenn ich das richtig verstanden habe.
Intel gibt AVX512 für Desktop aber schlichtweg auf, im Serverbereich hingegen lebt es mit AMX ja weiter. Ich bezweifle übrigens, dass AMD AVX512 im Desktop aktiviert, das hat keinerlei Nutzen wie wir sehen.

amdfanuwe
2021-08-19, 17:18:52
Schätze eher, dass AMD auch AVX-512 für Consumer deaktiviert.

aufkrawall
2021-08-19, 17:18:57
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/5

:freak:

:freak:
Da musste ich direkt mal Krampf-Geräusche machen wie Stan in dieser Szene: https://youtu.be/9HSK9ZT-12Y?t=537
:facepalm:

Orko
2021-08-19, 17:27:09
Golden Cove Kerne in Consumer Alder Lake haben AVX-512 physikalisch implementiert aber deaktiviert, also effektiv eine sehr teure Kühlfläche. Und Alder Lake kommt im Intel-7 Prozess der früher mal 10nm geheissen hat. Warum muss ich da nur spontan an deaktivierte iGPUs bei Cannonlake denken?

dystopian processor environment ... in der Tat ...

davidzo
2021-08-19, 18:11:52
Nice, die Architekturverbeserungen klingen doch mal richtig gut!

512 reorder Buffer - beinahe Apple like oOo Window

17 issue core mit clock gated execution ports für die E-Cores. Das nenne ich mal muscle :eek:



Mein Lieblingspart ist das hier:
Intel also stated that both the P-core and E-core will be at ‘Haswell-level’ AVX2 support.

https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/5



Meiner Meinung nach ist Intel direkt nach Broadwell falsch abgebogen (gleiches featurelevel wie Haswell).
Skylake war eine reine Taktsteigerung und Kostenoptimierung: nicht breiter, weniger Effizient und hatte auch trotz Mehrtakt weniger Gamingleistung als Broadwell. Damit ein klarer Rückschritt, der sich mit jeder Iteration von 14nm++++ verschlimmert hat.

Ich habe daher aktuell auch mobile und Desktop noch Haswell (Macbook mit 4870HQ, die legendäre, stabilste Generation) und freue mich schon drauf das Bald gegen M1X mobile und und ZenX3D oder Golden Cove im Desktop tauschen zu können!
Upgrades unter 200% mache ich einfach nicht :freak:

y33H@
2021-08-19, 18:31:45
BDW ohne L4 hat gegen SKL doch keine Chance, viel zu teuer gewesen der eDRAM ... die Gracemont finde ich allerdings auch krass, laut Intel sollen die vermutlich per XTU einzeln benchbar sein, wuhu.

KarlKastor
2021-08-19, 18:36:43
Da bin ich echt gespannt was die Gracemont so hinbekommen. Irgendwie klingen die ziemlich fett, vor allem mit zusammen 4 MB L2, um nur ein Viertel der Fläche von Golden Cover zu brauchen.

HOT
2021-08-19, 19:56:37
Noch ne kleine Info, ADL kann zwar PCIe5, aber nur und ausschließlich für den PEG!
Also nix mit 5.0 m.2

https://www.techpowerup.com/285746/intels-alder-lake-desktop-processor-supports-ddr4-ddr5-only-few-pcie-gen-5-and-dynamic-memory-clock

Und noch was: Es gibt keinen Ringbus mehr! Intel nennt diese Konstruktion jetzt Compute Fabric.

KarlKastor
2021-08-19, 21:45:32
Wo liest du jetzt, dass der Compute Fabric kein Ringbus ist?

basix
2021-08-19, 21:48:33
Jepp, das ist falsch. Ist immer noch ein (Dual) Ring. Ist einfach ein neuer fancy Markenname dafür.

The Alder Lake processor retains the dual-bandwidth ring we saw implemented in Tiger Lake, enabling 1000 GB/s of bandwidth. We learned from asking Intel in our Q&A that this ring is fully enabled regardless of whether the P-cores or E-cores are being used – Intel can disable one of the two rings when less bandwidth is needed, which would save power, however based on previous testing this single ring could end up drawing substantial power compared to the E-cores in low power operation. (This may be true in the mobile processors as well, which would have knock on effects for mobile battery life.)

Darkman.X
2021-08-19, 23:20:57
Noch ne kleine Info, ADL kann zwar PCIe5, aber nur und ausschließlich für den PEG!
Also nix mit 5.0 m.2

https://www.techpowerup.com/285746/intels-alder-lake-desktop-processor-supports-ddr4-ddr5-only-few-pcie-gen-5-and-dynamic-memory-clock

Und noch was: Es gibt keinen Ringbus mehr! Intel nennt diese Konstruktion jetzt Compute Fabric.

Aber wenigstens noch vier PCIe 4.0-Lanes für vermutlich eine SSD. Immerhin etwas....

robbitop
2021-08-20, 08:03:33
ADL doch im Herbst 2021 - so wie von Intel auf der CES2021 angekündigt (obwohl das hier viele stark angezweifelt haben).

Ein bemerkenswerter Schritt bei Intel. Endlich. Die kleinen Cores sind beeindruckend breit und tief und sollen SKL IPC haben (was auch lange angezweifelt wurde). Die großen Cores sind auch breiter und tiefer geworden.
Intel scheint "aufgewacht" zu sein.

fondness
2021-08-20, 08:23:55
ADL doch im Herbst 2021 - so wie von Intel auf der CES2021 angekündigt (obwohl das hier viele stark angezweifelt haben).

Ein bemerkenswerter Schritt bei Intel. Endlich. Die kleinen Cores sind beeindruckend breit und tief und sollen SKL IPC haben (was auch lange angezweifelt wurde). Die großen Cores sind auch breiter und tiefer geworden.
Intel scheint "aufgewacht" zu sein.

Die Gerüchte sagten immer Paperlaunch im Herbst und Verfügbarkeit später. Also abwarten. Aber es spricht zumindest für ein gutes Produkt, wenn Intel die Dinger möglichst bald zeigen will.

Piefkee
2021-08-20, 08:49:20
ADL doch im Herbst 2021 - so wie von Intel auf der CES2021 angekündigt (obwohl das hier viele stark angezweifelt haben).

Ein bemerkenswerter Schritt bei Intel. Endlich. Die kleinen Cores sind beeindruckend breit und tief und sollen SKL IPC haben (was auch lange angezweifelt wurde). Die großen Cores sind auch breiter und tiefer geworden.
Intel scheint "aufgewacht" zu sein.

Ich bin was ADL-S angeht nocht etwas skeptisch.
- Gracemont Cores --> Warum kein Vergleich ggü. Tremont? Der Vergleich ggü. Skylake kannst du halt einfach komplett in die Tonne werfen.
- Golden Cove Cores --> 19% IPC ggü. RKL
- Thread scheduler --> ganz großes Fragezeichen (Win10 vs Win11)
- DDR5 vs DDR4 in 2021 --> Wird zweigleißig gefahren? Gibt es DDR5 nicht zu mondpreisen?

ADL-S ist sicherlich eine äußerst interessante Architektur. Aber für mich noch viele offene Frage die sich erst zum Review klären. Eines kann man aber sagen, sollte ADL-S floppen wird es schwierig für Intel werden wenn man sich die nächsten uArchs ansieht (noch mehr Little cores)

dildo4u
2021-08-20, 08:51:18
Hardware Unboxed hat hier mal ein Core scaling Test mit Comet Lake gemacht ist vermutlich schlau erstmal nicht über 8 dicke Cores zu gehen und lieber mit der Zeit den Cache zu erhöhen.(Für Gameing)

RQ6k-cQ94Rc


Ändert natürlich nix daran das Intel nichts gegen HEDT Modelle von AMD hat aber ich hab eh das Gefühl das Alderlake eher fürs scaling nach unten gegen Apple gebaut wurde.

HOT
2021-08-20, 09:06:12
Eher nicht. Wie lange sind die Tremont in Planung? 6 Jahre? Da war noch keine Rede von Apple als Gegner. Schon als Lakefield kam, der ja der Prototyp für die jetzigen Produkte fungierte, war noch keine Rede von einem M1. Dass man die jetzt als Erweiterung für die eigenen 8-Kerner verwendet ist mMn aus purer Not geboren, da die .cove einfach zu fett sind für mehr im Desktop. Die Dies würden riesig, der Nutzen hingegen ist eher mäßig. Also macht man aus der Not eine Tugend und erweitert für MT die 8C durch deutlich effizientere Kleinkerne. Diese fast erotisch zelebrierte Apple-Zentriertheit ist einfach total lächerlich.

dildo4u
2021-08-20, 09:09:18
ARM für Windows ist schon ewig im Gespräch Qualcomm hat nur nicht geliefert.

HOT
2021-08-20, 10:14:17
ARM für Windows ist schon ewig im Gespräch Qualcomm hat nur nicht geliefert.
Hä? Bezug?

dildo4u
2021-08-20, 10:41:48
Intel braucht Modelle die passiv Leistung bringen, da immer geplant war das ARM für Notebooks mit 5G und 20 Stunden Laufzeit kommen.
Nur hat es Apple schneller geschafft Intel Single Core Performance zu erreichen und damit Käufer abgräbt die z.b vorher Modelle wie XPS 13 Zoll von Dell gekauft haben.

Apple Mac Verkäufe + 30% Dell + 9% in Q4 2020.

https://www.macrumors.com/2021/01/11/mac-shipments-up-4q-2020-gartner/

ryan
2021-08-20, 14:12:37
Ein guter Überblick in Textform:

https://edc.intel.com/content/www/us/en/products/performance/benchmarks/architecture-day-2021/

Intel® Core™ i9-11900k, 4x16GB 1R DDR4 UDIMM 2DPC 3200 Max Memory Frequency

Alder Lake Desktop S801 , RVP board with 2x16GB 1R DDR5 UDIMM 1DPC, 4400 Max Memory Frequency


Warum testet Intel mit DDR5-4400, wo doch ADL-S offiziell DDR5-4800 unterstützt? Auffällig zudem, dass Intel eine SKU ohne Gracemont genommen hat (oder einfach deaktiviert). Hier wollten sie wohl für den IPC verhindern, dass Gracemont dazwischenfunkt und den IPC Vergleich verfälscht. Das mit den DDR5-4400 ist mir aber nicht einleuchtend.

Undertaker
2021-08-20, 17:05:53
Das geht schlicht auf den Vorserienstand der Hardware zurück, CPU, Mainboard, Speicherriegel... Da läuft eben noch nicht alles mit maximalem Takt und allen Features reibungslos. Umso erstaunlicher, dass schon unter diesen Voraussetzungen derart beeindruckende Ergebnisse herausspringen. Wenn Intel weiterhin recht aggressiv in die Preisgestaltung geht, wird das ein seeehr interessanter Herbst. Mein Haswell wäre langsam reif für ein Upgrade. :freak:

Hakim
2021-08-20, 17:37:46
eigentlich wollte ich ja noch Raptor und Zen3+ warten und dann entscheiden, aber könnte bei mir auch ADL jetzt werden. Man hat das Gefühl das intel endlich mal was richtig neues bringt :)

HOT
2021-08-20, 23:34:56
Intel braucht Modelle die passiv Leistung bringen, da immer geplant war das ARM für Notebooks mit 5G und 20 Stunden Laufzeit kommen.
Nur hat es Apple schneller geschafft Intel Single Core Performance zu erreichen und damit Käufer abgräbt die z.b vorher Modelle wie XPS 13 Zoll von Dell gekauft haben.

Apple Mac Verkäufe + 30% Dell + 9% in Q4 2020.

https://www.macrumors.com/2021/01/11/mac-shipments-up-4q-2020-gartner/
Bezug? Läuft da was anderes als MacOS drauf? Relevanz? Nach meinem Empfinden ist das Apple-Gelaber schlichtweg OT, es gibt keinen Mac mit ADL und keinen PC mit M1, also irrelevant.

Leonidas
2021-08-21, 05:13:02
Apple Mac Verkäufe + 30% Dell + 9% in Q4 2020.

Das würde ich gänzlich anders werten. Dell steht im normalen Business. Apple hatte hingegen jahrelang Stillstand (mit seinen alten Intel-CPUs) - und jetzt endlich mal Fortschritt gebracht. Da hat die Apple-Gemeinde zugegriffen, die sich vorher zurückgehalten hatte. Ein Verschieben von Marktanteilen zwischen PC und Mac ist das noch lange nicht (kann passieren, aber noch nicht jetzt).

smalM
2021-08-21, 05:27:59
Apples Mac-Umsätze die letzten Jahre seit 2014:
24,6 - 25,3 - 23,3 - 25,5 - 26,0 - 25,5 - 30,1 und 17,3 Mrd.$ im 1.Hj. dieses Jahres.
Bis auf die kleine Delle 2016 ist das ein bemerkenswert gleichmäßiger Verlauf und dann ein sprunghafter Anstieg 2020.
Anscheinend hat sich die Apple-Gemeinde mehrere Jahre zurückgehalten... :wink:

HOT
2021-08-21, 09:53:20
Naaa, dass Apple auf ARM umsteigen könnte war schon 2015 ein Thema und auch die Apple-Nutzer saßen 2020 mit dem Arsch zuhause. Zudem waren 20 die meisten Macs noch Intel. Leo liegt das schon goldrichtig mMn.

Mangel76
2021-08-21, 11:58:18
Apples Mac-Umsätze die letzten Jahre seit 2014:
24,6 - 25,3 - 23,3 - 25,5 - 26,0 - 25,5 - 30,1 und 17,3 Mrd.$ im 1.Hj. dieses Jahres.
Bis auf die kleine Delle 2016 ist das ein bemerkenswert gleichmäßiger Verlauf und dann ein sprunghafter Anstieg 2020.
Anscheinend hat sich die Apple-Gemeinde mehrere Jahre zurückgehalten... :wink:

2020 ist Coronaeffekt - Homeoffice und -schooling führten zu deutlichem Nachfrageanstieg. In meiner Familie wurden beispielsweise in 2020 ein Tablett und ein Laptop coronabedingt angeschafft, in 2021 noch ein ipad. Ich glaube nicht, dass der Wechsel von Intel hier ausschlaggebend ist für den Anstieg.

Monsta
2021-08-21, 12:25:23
Ich habe mir aufgrund des wechsels auf M1, ein MBP M1 und später noch einen Mac Mini M1 gekauft.

Die Intel vorgängermodelle war zwar besser als meine noch älteren Geräte, aber der Sprung in Akkulaufzeit, Schwuppdizität und Geräuschpegel bei Wechsel auf M1 war so einfach viel größer.

dildo4u
2021-08-21, 12:51:59
Einfach bei Amazon gucken in den top 10 verkauften Notebooks gibt es nur billige X86/ARM Geräte und 1000€ Macbooks das gab es imo vor M1 nicht.
Intel will mit Sicherheit dort wieder 1000€ Modelle mit Alderlake sehen um ihre hohen Margen zu halten.

Leonidas
2021-08-21, 14:22:20
Apples Mac-Umsätze die letzten Jahre seit 2014:
24,6 - 25,3 - 23,3 - 25,5 - 26,0 - 25,5 - 30,1 und 17,3 Mrd.$ im 1.Hj. dieses Jahres.
Bis auf die kleine Delle 2016 ist das ein bemerkenswert gleichmäßiger Verlauf und dann ein sprunghafter Anstieg 2020.
Anscheinend hat sich die Apple-Gemeinde mehrere Jahre zurückgehalten... :wink:

Nun ja ... warum auch nicht? Intel hat zwischen 2014 und 2019 jedenfalls nicht nur um +3,7% zugelegt. Das ist ein überaus unterdurchschnittliches Wachstum gegenüber dem Marktschnitt - und damit relativ gesehen ein Rückschritt.

Rooter
2021-08-21, 16:57:16
Alles wird breiter, schön. Da hat Intel aber ordentlich von Apple abgeschaut... :D

Aber kann mir mal bitte jemand erklären, wozu ich am Desktop 8 Stromspar-Cores benötige!? :confused::confused::confused:

Der Intel Thread Director macht also einen Scheduling Vorschlag, und Windows 11 setzt das dann um. Interessant.

Ich hätte jedoch den umgekehrten Weg bevorzugt: Das Betriebssystem teilt der CPU Thread-Prioritäten etc mit, und das Scheduling erfolgt dann rein in Hardware.+1

MfG
Rooter

Slipknot79
2021-08-21, 17:05:28
Aber kann mir mal bitte jemand erklären, wozu ich am Desktop 8 Stromspar-Cores benötige!? :confused::confused::confused:




Ist der gleiche Shice wie Start/Stop Systeme in Autos. Hauptsache man kann wieder nen Shice verkaufen der nix bringt. Zwangsbeglückung für die Umwelt, kein Glück für die Geldbörse. :rolleyes: :redface:

ceed
2021-08-21, 17:19:34
Ist der gleiche Shice wie Start/Stop Systeme in Autos. Hauptsache man kann wieder nen Shice verkaufen der nix bringt. Zwangsbeglückung für die Umwelt, kein Glück für die Geldbörse. :rolleyes: :redface:

Da sich ungefähr alle 10 Posts über die Stromspar-Kerne aufgeregt wird: sollte man vielleicht im größeren Zusammenhang sehen. Die ganze Sache eröffnet nämlich Intel ganze andere Gedankenspiele. Wenn ich ein und denselben Kern einfach nur in einem x-beliebigen Vielfachen auf die CPU packe gehe ich als Designer nur Kompromisse ein. Wenn ich nur Acht richtig dicke Kerne mache und dies auch weiß, kann ich die doch viel performanter machen und muss nicht so auf Flächenverbrauch und Stromaufnahme achten als wenn ich die Kerne 32 mal drauf bringen muss. Also habe ich doch das beste aus beiden Welten- super SingleThread Kerne die ich relativ kompromisslos gestalten kann und dann noch viele kleine für die MT Performance die Intel nur ein Bruchteil der Großen kosten und die dafür reichlich vorhanden sein können.

smalM
2021-08-21, 17:38:12
Nun ja ... warum auch nicht? Intel hat zwischen 2014 und 2019 jedenfalls nicht nur um +3,7% zugelegt. Das ist ein überaus unterdurchschnittliches Wachstum gegenüber dem Marktschnitt - und damit relativ gesehen ein Rückschritt.
Apple bewegt sich ausschließlich im PC-Markt und der PC-Markt kannte vor Corona nur die Richtung Abwärts.
Intel ist außerhalb PC-Marktes gewachsen und hat insbesondere davon profitiert im Servermarkt ungeniert Mondpreise nehmen zu können.

ryan
2021-08-21, 18:26:51
Alles wird breiter, schön. Da hat Intel aber ordentlich von Apple abgeschaut... :D

Aber kann mir mal bitte jemand erklären, wozu ich am Desktop 8 Stromspar-Cores benötige!? :confused::confused::confused:

+1

MfG
Rooter


Die grundlegende Frage wäre erstmal, wozu brauchst du so viele Kerne, also sagen wir 10+ Kerne? Die Frage kann man nämlich auch auf 12/16C Zen 3 ausweiten. Für Spiele brauche ich keine 10+ Kerne.

Die Gracemont Kerne sollen den Durchsatz erhöhen, ganz konkret die Multithread Leistung. Darin sieht Intel den größten Vorteil, siehe Präsentation.

Jetzt könnte Intel also entweder 2 zusätzliche Golden Cove oder 8 Gracemont verbauen im gleichen Größenbudget. Bei Raptor Lake nimmt Intel 8 weitere Gracemont statt 2 zusätzliche Raptor Cove.

robbitop
2021-08-21, 18:28:33
Da sich ungefähr alle 10 Posts über die Stromspar-Kerne aufgeregt wird: sollte man vielleicht im größeren Zusammenhang sehen. Die ganze Sache eröffnet nämlich Intel ganze andere Gedankenspiele. Wenn ich ein und denselben Kern einfach nur in einem x-beliebigen Vielfachen auf die CPU packe gehe ich als Designer nur Kompromisse ein. Wenn ich nur Acht richtig dicke Kerne mache und dies auch weiß, kann ich die doch viel performanter machen und muss nicht so auf Flächenverbrauch und Stromaufnahme achten als wenn ich die Kerne 32 mal drauf bringen muss. Also habe ich doch das beste aus beiden Welten- super SingleThread Kerne die ich relativ kompromisslos gestalten kann und dann noch viele kleine für die MT Performance die Intel nur ein Bruchteil der Großen kosten und die dafür reichlich vorhanden sein können.
+1
Besser kann man es nicht ausdrücken :up:

y33H@
2021-08-21, 18:51:49
Am Ende geht es immer um PPA und hier sind die Atom Cores absolut sinnvoll im Gesamtkontext.