PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake (7 nm, big.LITTLE, 8C + 8c "Golden Cove"/"Gracemont" CPU-Kerne, Ende 2021)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18

Tralalak
2021-09-24, 18:25:25
Ja no shit. Siehe auch hier:

Dann hast du den Post wohl nicht verstanden. Der OG Atom hat NICHTS mit dem derzeitigen Atom gemeinsam, außer den Obernamen. Alles ab und nach Baytrail war von vorneherein mehr Little Core als Atom mit teilweise massiv anderen Desginschwerpunkten als die allerersten Atoms. Intel hat da eine Riesensauerei bei der Benennung der Architekturen unter der Kategorie Atom verursacht. Das fällt ihnen jetzt teilweise massiv auf die Füße, wie man auch sehr oft hier im Thread sieht, da schon allein die Nennung von "Atom" sehr viele Technikinteressierte direkt mit der Nase rümpfen. Und damit schließt sich sehr wohl der Kreis, warum das alles relevant für Intel mit ADL wird: Intel muss diese selbst gekochte Suppe erst einmal auslöffeln, bevor es den Nachtisch gibt. Viel von dem Big.Little Skeptizimus kommt ja nicht vom Prinzip des Designs, sondern davon das Intel, mal salopp formuliert, "popelige Atoms" mit ihren "Hochglanzdesigns" der Bigcores koppelt. Dass das halt gar nicht mehr der Fall ist, scheint bei vielen Leuten noch gar nicht so angekommen zu sein.

Intel ATOM CPU ROADMAP - The rise of small cores - revolution and evolution

2008: Bonnell
2011: Saltwell
2013: Silvermont
2015: Airmont
2016: Goldmont
2017: Goldmont Plus
2020: Tremont
2021: Gracemont

iamthebear
2021-09-24, 18:52:20
Die Aussage hat mit dem Vergleich nichts zu tun. Zudem ist sie prinzipiell falsch, da Spiele sehr wohl mehr als 8 Cores nutzen könnten, wenn sie denn gut programmiert wären.

Ich weiß nicht was deine Beweggründe beim Kauf sind aber ich will keine CPU die schnell sein KÖNNTE sondern eine die es auch tatsächlich ist ;D

Aber für dich wäre ein 16 Jahre alter Pentium 4 aus 2005 ideal. Der hätte dank der neuen EUV Technologie 10GHz bei 1V haben können:
https://www.anandtech.com/show/680/7

iamthebear
2021-09-24, 19:17:59
Die Taktanzeige bei AMD kann Murks anzeigen (siehe Clock Stretching), man müsste schon die Performance messen (am besten in fps). Jedenfalls betreiben viele ihren 5600X mit dem 45W Eco-Mode, eben weil sich das in der Praxis kaum bemerkbar macht.

Also ich unterstelle den Reviewern bei CB einmal, dass sie wissen wie sie den Takt messen müssen.

Aber als Vergleich einmal die Auswirkungen des Eco Modes auf die Performance:

5950X Eco Mode off vs. on:
+21% bei 105/65 = 61.5% mehr Verlustleistung

https://www.computerbase.de/2020-11/amd-ryzen-5000-test/5/#abschnitt_multicoreszenarien

11700 65W vs. 11700K 125W
+33% bei 125/65 = 92% mehr Verlustleistung

Also für mich zieht das ziemlich gleich aus.

Und 45W beim 5600X sind 7.5W pro Kern. Das ist mehr als ein 5950X ohne Eco Mode bekommt bzw. entspricht etwa einem 11400 mit 90W.

davidzo
2021-09-24, 20:34:34
Ja no shit. Siehe auch hier:

Dann hast du den Post wohl nicht verstanden. Der OG Atom hat NICHTS mit dem derzeitigen Atom gemeinsam, außer den Obernamen.

Ich habe Silverthorne/Diamondville doch nie erwähnt. Du wiederholst hier ständig einen angeblichen "OG Atom", was auch immer diese merkwürdige Bezeichnung heißen mag (eine korrekte Abkürzung ist es nicht). Den hat hier niemand anders in den Ring geworfen, du unterhältst dich mit dir selber und nun kritisierst du dich sogar noch selber für die unpassende Erwähnung dieses "OG Atom" in diesem Thread. Lass doch mal gut sein wenn du nichts beizutragen hast außer Sprüche klopfen.:wink:

Savay
2021-09-25, 00:15:19
4.1GHz/-1200: 125 Watt (15W pro Kern)
(...)
4GHz/-1000: 105W (6.5W pro Kern)
(...)
AMD hat also bei gleichem Takt beim 5950X mit 16 Kernen eine ähnlich Verlustleistung wie Intel beim 11900K.

Häh?!


AMD hat sich dazu entschieden die 105W hart zu deckeln (entspricht 4GHz unter Volllast)

142W bzw. 95A

Lurtz
2021-09-25, 09:45:21
Werden im Oktober eigentlich auch schon die Mobile-Prozessoren vorgestellt, oder ist das eine eigene Produktlinie? Wann würdet ihr da ungefähr einen tatsächlichen Marktstart erwarten?

Meint ihr das wird ein Gamechanger für Windows-Laptops, aufgrund der Eco-Kerne, was Akkulaufzeit etc. angeht, oder wird das eher ein iterativer Prozess bis auch die Software etc. versteht besser damit umzugehen?

BlacKi
2021-09-25, 11:07:45
CES im januar oder gar noch später.

das kommt drauf an, wie der scheduller die arbeit verteilt. potentiell, könnte es sich prozessorseitig positiv auf die laufzeit auswirken. wenn aber die pcores die hauptarbeit machen sollen, wegen der schwubsidität, dann wohl eher nicht. ddr5 bringt aber viele stromsparfeatures mit. nicht nur eine spannungssenkung, sondern auch das runtertakten des ram und wahrscheinlich des mem controllers in der cpu.

Lurtz
2021-09-25, 12:06:57
CES im januar oder gar noch später.

das kommt drauf an, wie der scheduller die arbeit verteilt. potentiell, könnte es sich prozessorseitig positiv auf die laufzeit auswirken. wenn aber die pcores die hauptarbeit machen sollen, wegen der schwubsidität, dann wohl eher nicht. ddr5 bringt aber viele stromsparfeatures mit. nicht nur eine spannungssenkung, sondern auch das runtertakten des ram und wahrscheinlich des mem controllers in der cpu.
Ok, also eher noch Zukunftsmusik.

Den M1-Macbooks mangelt es nicht gerade an Schwuppdizität, oder hat Apple da mehr Möglichkeiten softwareseitig zu optimieren?

BlacKi
2021-09-25, 12:14:28
Ok, also eher noch Zukunftsmusik.

Den M1-Macbooks mangelt es nicht gerade an Schwuppdizität, oder hat Apple da mehr Möglichkeiten softwareseitig zu optimieren?diese diskussion hatten wir schon häufiger. kurz gesagt, für mich ist der m1 chip kein pc tauglicher prozessor, da niemals linux noch windows darauf schnell nativ laufen wird. apple hat hier ein geschlossenes system geschaffen, das auf sich selbst schnell und gut funktioniert. genau wie eine konsole.

Lehdro
2021-09-25, 12:45:31
Ich habe Silverthorne/Diamondville doch nie erwähnt. Du wiederholst hier ständig einen angeblichen "OG Atom", was auch immer diese merkwürdige Bezeichnung heißen mag (eine korrekte Abkürzung ist es nicht). Den hat hier niemand anders in den Ring geworfen, du unterhältst dich mit dir selber und nun kritisierst du dich sogar noch selber für die unpassende Erwähnung dieses "OG Atom" in diesem Thread. Lass doch mal gut sein wenn du nichts beizutragen hast außer Sprüche klopfen.:wink:
OG = Original, wie ich beschrieb sind damit in in order Atoms gemeint.

Möchtest du wirklich abstreiten das viel von der hier gezeigten Skeptik ADL gegenüber davon kommt, dass Intel ihre Atom Cores verwendet, die halt immer noch einen schlechteren Ruf haben, als sie eigentlich verdient hätten? Um nichts anderes geht es. Man kann es aber natürlich auch echt kompliziert machen und alles absichtlich missinterpretieren.

Savay
2021-09-25, 13:22:04
Meint ihr das wird ein Gamechanger für Windows-Laptops, aufgrund der Eco-Kerne, was Akkulaufzeit etc. angeht, oder wird das eher ein iterativer Prozess bis auch die Software etc. versteht besser damit umzugehen?

m.E. klar letzteres...schon heute limitiert m.M.n. oft genug eher die Plattform und das drumherum als die Cores.
Zumindest bei den darauf ausgelegten Chips die noch recht gut nach unten skalieren.

Da gibt's parallel zu P und E Cores noch genug Potenzial zu heben.

aufkrawall
2021-09-25, 14:00:25
Meint ihr das wird ein Gamechanger für Windows-Laptops, aufgrund der Eco-Kerne, was Akkulaufzeit etc. angeht, oder wird das eher ein iterativer Prozess bis auch die Software etc. versteht besser damit umzugehen?
Gegenüber TGL sicherlich ein guter Sprung, mir würden aber auch nur vier Gracemont-Kerne bei passiver Kühlung locker reichen.

dildo4u
2021-09-25, 14:04:35
Kein Plan ob Win11 es kann aber zuküftige Notebooks könnten z.b den Bildschirm Dynamisch steuern und wie Handys wenn es keine Interaktion gibt auf 10Hz gehen.

Nightspider
2021-09-25, 14:33:11
Gibts das nicht schon ewig seit es IGZO Panels gibt?

Oder wurde das bisher nie implementiert?

aufkrawall
2021-09-25, 14:42:03
Gibts schon ewig.

dildo4u
2021-09-25, 14:51:31
Das ist vom Juni kein Plan ob es stimmt aber es scheint WDDM 3.0 zu brauchen ist also Nagelneu.


https://devblogs.microsoft.com/directx/dynamic-refresh-rate/

ryan
2021-09-25, 15:36:14
Werden im Oktober eigentlich auch schon die Mobile-Prozessoren vorgestellt, oder ist das eine eigene Produktlinie? Wann würdet ihr da ungefähr einen tatsächlichen Marktstart erwarten?

Meint ihr das wird ein Gamechanger für Windows-Laptops, aufgrund der Eco-Kerne, was Akkulaufzeit etc. angeht, oder wird das eher ein iterativer Prozess bis auch die Software etc. versteht besser damit umzugehen?


Im Oktober/November werden nur die K-SKUs für Desktop vorgestellt. Der ganze Rest folgt in Q1, genau wie ADL-P. Auf dem Papier sieht es für ADL-P noch besser aus.

Zum einen hat es ADL-P nur mit maximal 8 Zen 3 Kernen zu tun und nicht bis zu 16 Zen 3 im Desktop. Zum anderen hat TGL-U nur 4 Kerne, ADL-P bietet 2+8/4+8/6+8 Konfigurationen. Dementsprechend ist das Verbesserungspotenzial mit den 8 Effizienzkernen größer.

Und DDR5-4800 kann für die vielen iGPU Geräte 50% mehr Bandbreite gegenüber DDR4-3200 bereitstellen, die Latenznachteile sind eher zweitrangig in diesen Geräten. Das ist neben LPDDR4x eine weitere Option für schnelleren RAM. Die große Masse läuft mit DDR4 und viele davon langsamer als 3200er.

CrazyIvan
2021-09-25, 16:26:26
Es gibt auch TGL 8-Kerner im Mobile.

ryan
2021-09-25, 17:13:56
Es gibt auch TGL 8-Kerner im Mobile.



Ich weiß. Aber eben nicht TGL-U.

davidzo
2021-09-25, 17:25:59
Meint ihr das wird ein Gamechanger für Windows-Laptops, aufgrund der Eco-Kerne, was Akkulaufzeit etc. angeht, oder wird das eher ein iterativer Prozess bis auch die Software etc. versteht besser damit umzugehen?

Für mich sieht ADL-P überhaupt nicht nach Gamechanger aus, sondern nach einem eher uninspirierten aber soliden und überfälligen Update.
Sicher, die CPU Architektur klingt wie gemacht für mobile, aber CPU ist nur ein kleiner Teil der User Experience bei einem SOC.

Bei den vergangenen Plattformen hat Intel die GPU immer um mindestens 50% gesteigert, das finde ich viel relevanter.
Ein GPU Upgrade fällt diesmal aus, es bleibt bei 96EUs. Das ist imo sehr enttäuschend.
Die GPUleistung bleibt damit auf dem groben Niveau von Tigerlake und Cezannes Vega8, welche man heute schon haben kann. AMD wird mit Rembrandt in '22 runden drehen um ADL-P.

Die CPUleistung könnte ein riesiges Upgrade sein. Tigerlake 15 und 28Watt toppt bei 4 Cores. Das könnte im Multithread mal eben verdoppelt werden mit 2+8 - 12T. Aber ist das ein gamechanger?
Denn wenn ich 16T und in etwa die doppelte Multithreadleistung in 15Watt haben wollte konnte ich bisher auch zu Cezanne oder gar Renoir greifen. Und Renoir ist schon seit bald 2 Jahren verfügbar.

Gamechanger? Für mich nicht im geringsten. Selbst wenn Alderlake 10-20% bei der MTleistung auf den verfügbaren Cezanne und Renoir drauflegt ist das für 2022 imo gerade so eben der Mindeststandard. Für einen wirklichen Gamechanger muss da mehr passieren.

Btw, die 35 und 45Watt Klasse habe ich mal bewusst ausgeblendet da du von Akkulaufzeit und Mobilität sprachst. Ich denke also nicht dass diese Gerät mit 45W CPU und 75Watt GPU von dir gemeint waren (das sind eher desktop replacements für Leute die gerne mal abseits des Schreibtischs zocken und den geringen Platzbedarf der Bauform bevorzugen).


OG = Original, wie ich beschrieb sind damit in in order Atoms gemeint.

Möchtest du wirklich abstreiten das viel von der hier gezeigten Skeptik ADL gegenüber davon kommt, dass Intel ihre Atom Cores verwendet, die halt immer noch einen schlechteren Ruf haben, als sie eigentlich verdient hätten? Um nichts anderes geht es. Man kann es aber natürlich auch echt kompliziert machen und alles absichtlich missinterpretieren.
Ja, was will ich abstreiten. Du hast auf meinen Post geantwortet und da ist nichts von Skeptik, schlechtem Ruf oder Bonell Atom Cores drin:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12800022&postcount=2462
Btw, die korrekte Abkürzug für Original ist immer nor orig. OG, das steht für Old Ganster = cooler Typ, oldschool, authentisch.

ryan
2021-09-25, 20:55:24
Bei den vergangenen Plattformen hat Intel die GPU immer um mindestens 50% gesteigert, das finde ich viel relevanter.
Ein GPU Upgrade fällt diesmal aus, es bleibt bei 96EUs. Das ist imo sehr enttäuschend.
Die GPUleistung bleibt damit auf dem groben Niveau von Tigerlake und Cezannes Vega8, welche man heute schon haben kann. AMD wird mit Rembrandt in '22 runden drehen um ADL-P.




Das ist immer ein Kompromiss. ADL-P ist 10nm in dritter (oder vierter mit CNL) Generation, jegliche EU Erweiterung hätte zu einem erhöhten Flächenaufwand geführt.

AMD hat Vega 8 über mehrere Jahre lang nur über die Taktfrequenz getunt, bei den doch eher gemächlichen Taktfrequenzen von Iris Xe LP ist also noch was drin. Und wenn sie 50% Bandbreite beim Wechsel von DDR4 auf DDR5 gewinnen, würde ich nicht von grob gleichem Niveau reden.

Iris Xe LP mit 1300 Mhz und DDR4-3200 ist schon gut bandbreitenlimitiert, die 3dmark scores mit LPDDR4x-4266 fallen doch ein gutes Stück höher aus. Rembrandt hat den Makel kein AV1 decoding zu beherrschen.

iamthebear
2021-09-25, 23:21:39
1.) Meiner Meinung nach sind 96EU bereits jetzt viel zu viel.

Ein Großteil der Nutzer verwendet ihren PC nicht für Spiele. Diese bezahlen aber Unsummen an Die Space, den sie nicht brauchen immer mit. Hier reicht eine schwächere GPU vollkommen aus solange diese genug Performance für den normalen Desktopbetrieb hat inkl. Abspielen von 4K Videos (z.B. Youtube).
Den Businesskunden ist es sogar lieber wenn ihre Geräte schwächere GPUs haben. Dann ist die Verlockung für die Mitarbeiter nicht so groß sie für firmenfremde Zwecke zu missbrauchen. Besonders Notebooks sind hier sehr gefährdet.

Und von denen, die ihren PC zum Spielen verwenden hat der Großteil sowieso eine eigene GPU. Hier ist die iGPU nur der Notfallbetrieb, dass man zum Testen zumindest Windows booten kann falls die GPU defekt ist.

2.) Um die Vor/Nachteile von Big/Little aufzuzeigen habe ich einmal eine kleine Rechnung gemacht, wie sich die Performance bei unterschiedlicher Anzahl von Threads verhält.

Dabei habe ich folgende Annahmen gemacht:
.) 1 Big Core ist 50% schneller als 1 Little Core wenn er 1 Thread abarbeitet
.) 1 Big Core ist 100% schneller als 1 Little Core (bzw. gleich schnell wie 2 Little Cores) wenn er mit SMT 2 Threads bearbeitet (entspricht 33% Leistungssteigerung durch SMT)
.) Der Scheduler arbeitet so, dass zuerst alle Big Cores 1 Thread bekommen, danach alle Little Cores 1 Thread und danach alle Big Cores einen 2. Thread
.) Eventuell unterschiedliche Taktraten bedingt durch den Turbomodus bzw. TDP Limitierung wurde ignoriert. Ich bin davon ausgegangen, dass beide Kerne bei gleicher Performance auch dasselbe Boostverhalten haben.

Verglichen wurden alle möglichen Kombinationen mit selber Die Size (10+0, 8+8, 6+16, 4+24, 2+32 und 0+40), da diese als limitierender Faktor angesehen wird.

Die Performance wird prozentual im Vergleich zu der Variante mit 10 Big Cores dargestellt.

https://i.imgur.com/mgKoQR9.png

Im Fall des 12900K mit 8+8 verglichen mit der 10 Big Core Variante bedeutet dies:
.) Bis einschließlich 8 Kerne gibt einen keinen Unterschied. Hier wird alles von je 1 Big Core ausgeführt
.) Bei 9-10 Threads ist Variante mit 10 Big Cores schneller, da hier bei 8+8 1-2 Threads von den langsameren Little Cores ausgeführt werden. Der Worst case sind -7% bei 10 Threads
.) Bei 11 Threads beginnt die Big/Little Variante aufzuholen, da hier weiter Little Cores benutzt werden können während bei 10 Big Cores bereits 1 Kern 2 Thread abarbeiten muss.
.) Bei 12 Threads ist es wieder gleich schnell: Bei Big/Little arbeiten 4 Little Cores an 4 Threads, ansonsten die 2 zusätzlichen Big Cores an je 2 Threads. Beides ist gleich schnell
.) Von 13-16 Threads steigt der Vorteil von Big/Little immer weiter an bis auf ca. 10%. Hier werden mehr und mehr Little Cores genutzt während bei den 10 Big Cores immer ein Big Core mit einem 2. Thread belastet werden muss
.) Von 17-20 Threads bleibt der Vorteil von Big/Little ca. gleich, da auch hier bei Big/Little nun die Big Cores je einen 2. Thread bekommen
.) Von 21-24 Threads steigt der Vorteil von Big/Little weiter an, da eben noch 4 Big Cores übrig sind, die keinen 2. Thread haben
.) Ab 24 Thread aufwärts sind alle Kerne voll ausgelastet und es bleibt gleich.

Wenn man nun anfängt mehr als 2 Big Cores mit Little Cores zu ersetzen (z.B. Raptor Lake mit 16 zusätzlichen Little Cores):
.) Die endgültige Performance steigt linear weiter (+40% statt +20%)
.) Dafür ist jedoch der Performanceeinbruch rund um 10 Threads immer stärker (-13% statt -7%) und macht sich auch in einem größeren Bereich bemerkbar (7-13 Threads statt 9-11).

Die Frage für zukünftige Gaming CPUs wird also sein wie viele Threads diese benötigen werden:
.) Wird es bei 6-8 Threads bleiben so hat Big/Little keinen Einfluss
.) Steigt die Threadanzahl auf 10 Threads an, so ist Big/Little schädlich
.) Steigt die Threadanzahl hingegen auf über 12 Threads an (was durch neue Engines, die schon auf DirectX12 ausgelegt wurden durchaus möglich ist), so ist Big/Little klar im Vorteil

davidzo
2021-09-26, 00:34:40
AMD hat Vega 8 über mehrere Jahre lang nur über die Taktfrequenz getunt, bei den doch eher gemächlichen Taktfrequenzen von Iris Xe LP ist also noch was drin. Und wenn sie 50% Bandbreite beim Wechsel von DDR4 auf DDR5 gewinnen, würde ich nicht von grob gleichem Niveau reden.

Schon klar dass ADLs XE-LP etwas schneller werden kann, aber die Frage war ob das ein Gamechanger wird und das lässt sich klar verneinen.


Iris Xe LP mit 1300 Mhz und DDR4-3200 ist schon gut bandbreitenlimitiert, die 3dmark scores mit LPDDR4x-4266 fallen doch ein gutes Stück höher aus.
Eben, DDR4 3200 ist der falsche vergleich da die mehrzahl der Designs ja schon auf LPDDR4X setzt. Da ist der Sprung zu DDR5 5500 dann nur gering. Und absetzen kann sich XE-LP auch mir LPDDR4x nicht von Vega8 oder Vega7 mit gleicher Speicherausstattung.

Rembrandt hat den Makel kein AV1 decoding zu beherrschen.
Wie kommst du denn darauf? Selbstverständlich beherrscht RDNA2 AV1.

1.) Meiner Meinung nach sind 96EU bereits jetzt viel zu viel.

Ein Großteil der Nutzer verwendet ihren PC nicht für Spiele. Diese bezahlen aber Unsummen an Die Space, den sie nicht brauchen immer mit. Hier reicht eine schwächere GPU vollkommen aus solange diese genug Performance für den normalen Desktopbetrieb hat inkl. Abspielen von 4K Videos (z.B. Youtube).
Den Businesskunden ist es sogar lieber wenn ihre Geräte schwächere GPUs haben. Dann ist die Verlockung für die Mitarbeiter nicht so groß sie für firmenfremde Zwecke zu missbrauchen. Besonders Notebooks sind hier sehr gefährdet.


Ahh, der vielbeschworene BusinessPC mal wieder. Dude, wir sind hier im 3Dcenter! Und das glaubst du doch selbst nicht dass die Konsumenten schwache GPUs bevorzugen. Wieso sind denn die Labtops mit entrylevel MX350, MX450 und 1650 denn die Kassenschlager? Den Consumern ist durchaus bewusst dass eine GPU nicht unwichtig ist und "discrete GPU" zumindest theoretisch immer besser ist (Leider).


Und von denen, die ihren PC zum Spielen verwenden hat der Großteil sowieso eine eigene GPU. Hier ist die iGPU nur der Notfallbetrieb, dass man zum Testen zumindest Windows booten kann falls die GPU defekt ist.

Es ging gerade um mobile. Und falls es dir noch nicht aufgefallen ist, Mobile und Desktop bekommen verschiedene DIEs. Desktop bleibt bei maximal 32EUs wie Rocketlake. Das ist dann die besagte "Notfallbetrieb"-Krücke die nicht annähernd konkurrenzfähig zu einem 5700G, ja nichtmal zu einem 3400 oder 3200G ist.
Mobile dagegen bekommt zwei eigene DIEs: Einmal 2P+8E+96EU im Vollausbau in 15Watt und 6P+8E+96 für 28 bis 45Watt. Wobei wir die vollen 6 P-Cores wohl eher selten sehen werden weil der i7 bis maximal 4P 8E geht. Native 8P Cores gibt es im mobile gar nicht, aber dafür eine 55Watt Desktop replacement SKU basierend auf dem Desktop 32EU Design mit 8P+8E. Vermutlich wird der vor allem für den neuen Nuc i9 Extreme aufgelegt.

iamthebear
2021-09-26, 02:27:31
Ahh, der vielbeschworene BusinessPC mal wieder. Dude, wir sind hier im 3Dcenter! Und das glaubst du doch selbst nicht dass die Konsumenten schwache GPUs bevorzugen. Wieso sind denn die Labtops mit entrylevel MX350, MX450 und 1650 denn die Kassenschlager? Den Consumern ist durchaus bewusst dass eine GPU nicht unwichtig ist und "discrete GPU" zumindest theoretisch immer besser ist (Leider).

Ja wir sind hier im 3DCenter Forum, wo sich ein riesiger Haufen an Gamern und Nerds tummelt. Das ist nur nicht repräsentativ für den Markt da draußen und schon gar nicht für das Kundenklientel von Intel.
Was für Intel zählt ist der Businessmarkt denn der ist der mit dem Geld verdient wird. Die billigen Privatusernotebooks um 500 Euro werden lediglich bedient um sich keine Mitbewerber in den Markt zu holen.

Von den allen auf Geizhals gelisteten Businessmodellen (mit Win 10 Pro) mit Intel CPU haben:
.) 1074 eine iGPU
.) 192 eine Consumer GPU
.) 298 eine Professional GPU (Workstation)

Alle deine "Kassenschlager" zusammen machen gerade einmal 4% aus.
Die werden nur bei dem typischen Privatuserschrott verbaut und in diesem Markt sind Produktentscheidungen sowieso selten rational. Da versucht man nur ein paar coole Zahlen für das Marketing zu haben da sind 90% der Privatkunden sowieso nicht auskennen und die die es tun kaufen meistens sowieso ein Gerät aus der Businessserie.

Es ging gerade um mobile. Und falls es dir noch nicht aufgefallen ist, Mobile und Desktop bekommen verschiedene DIEs. Desktop bleibt bei maximal 32EUs wie Rocketlake. Das ist dann die besagte "Notfallbetrieb"-Krücke die nicht annähernd konkurrenzfähig zu einem 5700G, ja nichtmal zu einem 3400 oder 3200G ist.

Gut dann fällt das Argument bei einer defekten GPU auch noch weg.
Dann braucht man generell nur mehr:
.) Ein Modell mit max 32 EU für den Desktopbetrieb
.) Ein Modell ohne iGPU und dazu wird eine diskrete DG2 GPU verlötet.

Mobile dagegen bekommt zwei eigene DIEs: Einmal 2P+8E+96EU im Vollausbau in 15Watt und 6P+8E+96 für 28 bis 45Watt. Wobei wir die vollen 6 P-Cores wohl eher selten sehen werden weil der i7 bis maximal 4P 8E geht. Native 8P Cores gibt es im mobile gar nicht, aber dafür eine 55Watt Desktop replacement SKU basierend auf dem Desktop 32EU Design mit 8P+8E. Vermutlich wird der vor allem für den neuen Nuc i9 Extreme aufgelegt.

Und genau hier wirkt sich das Problem aus. Würde Intel die in den meisten Fällen sinnlosen 96 EUs auf die Hälfte reduzieren könnten sie locker 2P Cores (oder alternativ noch 8 E Cores für die Workstations) mehr drauf packen.

CrazyIvan
2021-09-26, 07:09:13
@davidzo
Im AT Forum wird das aus einem Linux Commit abgeleitet - es erscheint durchaus realistisch, dass Rembrandt AV1 nicht komplett in Hardware kann: https://forums.anandtech.com/threads/amd-cezanne-zen-3-apu-speculation-and-discussion.2583913/post-40559922

Wäre auf jeden Fall sehr ärgerlich.

CrazyIvan
2021-09-26, 07:36:14
@iamthebear
Interessante Rechnung. Die Tendenz wird IMHO dahin gehen, so viele P-Cores wie nötig und so wenig wie möglich zu verbauen. Die große Preisfrage wird lauten, wo der General Purpose Sweet Spot liegt.
Am Beispiel von Spielen ist ja nicht nur relevant, wieviele Threads gespawnt werden, sondern auch, wie deren Last unter einander verteilt ist.
Zwei Extrembeispiele:
Spiel A spawnt 8 Threads, bei denen jedoch 2 Threads hohe Last verursachen (kritischer Pfad) und die restlichen nur geringe Lasten aufweisen. Hier wäre ein 2+8 einem Cézanne vermutlich deutlich überlegen.
Spiel B spawnt 10 Threads, wobei auf 6 Threads relativ gleichmäßig die Hauptlast anliegt und die restlichen vier nur wenig abverlangen. Hier würde vermutlich Cézanne vorne liegen.
Dabei ist zu berücksichtigen, dass es tendenziell bei Workloads wie Spielen sehr schwierig ist, eine Gleichverteilung auf vielen Threads zu erzeugen.

Mein Bauchgefühl (und mehr ist es wirklich nicht) sagt mir, dass 6-8 P-Cores die Grenze des sinnvollen darstellen. Darüber werden die Hersteller abwägen müssen, ob sie ihr Transistorbudget in fettere P-Cores oder mehr E-Cores stecken.

ryan
2021-09-26, 09:59:29
Schon klar dass ADLs XE-LP etwas schneller werden kann, aber die Frage war ob das ein Gamechanger wird und das lässt sich klar verneinen.


Das ist klar wenn man die iGPU mit einbezieht, es war aber offensichtlich die CPU gemeint und darauf habe ich mich auch eindeutig bezogen.



Eben, DDR4 3200 ist der falsche vergleich da die mehrzahl der Designs ja schon auf LPDDR4X setzt. Da ist der Sprung zu DDR5 5500 dann nur gering. Und absetzen kann sich XE-LP auch mir LPDDR4x nicht von Vega8 oder Vega7 mit gleicher Speicherausstattung.


Das ist für mich schon der richtige Vergleich, weil die Masse immer noch auf DDR4 setzt und DDR5 eben der direkte Nachfolger ist. Die Auswahl an LPDDR4x Modellen ist zwar in den letzten Monaten deutlich besser geworden, aber immer noch relativ gering und upgraden lässt sich LPDDR bekanntlich nicht.

Ein billiges 4GB oder 8GB Gerät nachträglich aufrüsten ist nicht drin und die Auswahl an 16GB LPDDR4x Geräten bis 1000€ ist überschaubar gering, das meiste sind Premium Modelle für 1500€ und aufwärts.


Wenn man von LPDDR4x-4266 ausgeht ist das ja auch in Ordnung rein auf die Bandbreite bezogen, allerdings laufen längst nicht alle LPDDR4x Geräte tatsächlich mit 4266 speed, HP lässt das Spectre x360 mit LPDDR4X-3733 laufen.



Wie kommst du denn darauf? Selbstverständlich beherrscht RDNA2 AV1.


Ich rede nicht explizit von RDNA2, ich rede von Rembrandt. Laut diverser Forenmeldungen (https://forums.anandtech.com/threads/amd-rembrandt-zen-3-apu-speculation-and-discussion.2592313/page-11#post-40563137) soll RDNA2 in Rembrand kein AV1 decoding beherrschen. Das war mein aktueller Stand.



edit

1.) Meiner Meinung nach sind 96EU bereits jetzt viel zu viel.

Ein Großteil der Nutzer verwendet ihren PC nicht für Spiele. Diese bezahlen aber Unsummen an Die Space, den sie nicht brauchen immer mit. Hier reicht eine schwächere GPU vollkommen aus solange diese genug Performance für den normalen Desktopbetrieb hat inkl. Abspielen von 4K Videos (z.B. Youtube).



Würde ich so jetzt nicht sagen. Im Desktop oder auch TGL-H gibt es ja auch nur 32 EUs, eben weil es dort nicht wirklich entscheidend ist wie du sagst. Das sieht im mobilen Bereich, besonders bei den kleineren, doch ein wenig anders aus. Das mit den Unsummen an Die Space würde ich auch nicht unterschreiben. Man sieht ja schon an den F Modellen ohne iGPU das die Preise nicht sonderlich anders ausfallen und Intel nicht wirklich nach der die size Preise aufruft. Mal angenommen Intel würde dies ohne iGPUs in den Markt bringen, glaube ich nicht an nennenswert günstigere Preise.

amdfanuwe
2021-09-26, 10:13:01
Woran mangelt es eigentlich den E-Cores?
Ich meine, die P-Cores sind vollgestopft mit fixed Funktion Beschleunigern, komplexen FPU etc.
Das kostet Transistoren und somit Fläche.
Wenn man sich einen Assemblercode anschaut, besteht der größten Teils aus MOVE, BRANCH, COMPARE, int ADD. Das kann ein E-Core sicherlich auch gut mit seiner ALU.
Aber wo fehlt es ihm? Für welche OPS braucht der länger als ein P-Core? Welche Berechnungen muss er emulieren statt die in einer Fixed Funktion Unit effizient und schnell durchzuführen?
Wo, außer bei der Fläche, wurde bei den E-Cores gespart? Bei welchen Workloads haben die ihre Nachteile?

r3ptil3
2021-09-26, 11:10:04
Langsam bin ich doch etwas überrascht was Intel da bald bringen wird:

https://cdn.videocardz.com/1/2021/09/Intel-Core-i9-12900K-CPUZ.jpg


Wenn ich jetzt grob spekuliere und an das kommende höhere PL für das kommende High-End Modell von AMD nachdenke (170W), dann kommt dies wohl nicht ganz ohne Grund.

Neurosphere
2021-09-26, 11:19:22
https://videocardz.com/newz/intel-core-i9-12900k-allegedly-scores-27-higher-than-ryzen-9-5950x-in-cpu-z-single-thread-benchmark

https://videocardz.com/newz/sisoftware-shares-preliminary-intel-core-i9-12900k-benchmark-results

Das ist alles noch ziemlich fishy. CB Scores top, die in Sisoft sehen schon nicht mehr so toll aus.

Entweder bringt DDR5 ziemlich viel an Performance und ist nicht bei beiden Tests verwendet worden, oder aber es ist halt alles top auf CB optimiert und der Boost macht das mit, oder das System war noch nicht optimal usw usw.

dildo4u
2021-09-26, 11:24:00
Alles andere wäre komplett peinlich gab da grad ein Video was aufzeigt das IPC mäßig bei Intel sogut wie gar nix passiert ist über 6 Jahre.


https://youtu.be/XJaSCnVcCdQ

ryan
2021-09-26, 11:32:12
Alles andere wäre komplett peinlich gab da grad ein Video was aufzeigt das IPC mäßig bei Intel sogut wie gar nix passiert ist über 6 Jahre.


https://youtu.be/XJaSCnVcCdQ



Meine Güte ist der Test peinlich, die meisten Spiele sind GPU limitiert. Sie wollen zeigen, was sich bei den CPUs getan hat, ja dann hätten sie doch auf 720p testen können. So viele 10th SKUs zu testen ist auch komplett sinnfrei.

BlacKi
2021-09-26, 11:43:56
Alles andere wäre komplett peinlich gab da grad ein Video was aufzeigt das IPC mäßig bei Intel sogut wie gar nix passiert ist über 6 Jahre.
ich sehe das ganz anders. rocketlake hat einigen nicht wirklich hoffnung gemacht, auch tigerlake hat keine solchen sprünge gemacht. viele sprachen von bis zu 19% ipc. jetzt sehen wir hier 32% in cpu z und auch der 5950x scheint ein würdiger gegner zu sein. ich selbst habe da eher den 5900x als MT gegner gesehen.


sicherlich sind 6 jahre eine lange zeit, aber es gab diverse designs wie icelake, tiger und rocketlake, die kaum etwas gebracht haben.


was ADL hier in den leaks abliefert ist einfach bombe.

Savay
2021-09-26, 11:54:52
dann kommt dies wohl nicht ganz ohne Grund.

Klar...weil Intel semi-offiziell ja schon lange mit >200W fährt! :tongue:

Dass sich dieser signifikante "Nachteil" auf AMD Seite mit vergleichbaren Nodes nicht ewig durchhalten lässt, ist klar wie Klobrühe.

die meisten Spiele sind GPU limitiert.

AC:V ist "die meisten"?!

Linmoum
2021-09-26, 12:00:23
RKL hatte in Anwendungen genau das abgeliefert, was zu erwarten war. Grade SC waren es fast +20% ggü. CML. Und auch für 8C vs. 10C war das sehr gut.

Das Problem von RKL waren einzig Spiele, denn da kam häufiger kaum was an. Die sind bei ADL weiterhin ein großes Fragezeichen, genauso wie mit welchem Verbrauch ADL teilweise die Scores geschafft hat. Bei >200W relativiert sich das schon wieder.

davidzo
2021-09-26, 12:04:09
J
Was für Intel zählt ist der Businessmarkt denn der ist der mit dem Geld verdient wird. Die billigen Privatusernotebooks um 500 Euro werden lediglich bedient um sich keine Mitbewerber in den Markt zu holen.


Nicht wirklich, selbst der Homeoffice/Corona Run auf Business PCs kann nicht darüber hinweg täuschen dass das ein schrumpfender Markt ist. Die Upgradezyklen haben sich bei den meisten Großunternehmen bis auf 7 oder mehr Jahre vergrößert. Das waren mal 3 Jahre.
Und die Margen im Business sind einfach niedriger als im Retail, da Firmeneinkäufern in der Regel große Rabatte gegeben werden müssen um einen Rahmnvertrag zu bekommen. Kaum ein Businessgerät geht ohne Rabatte über den Tisch und das sind dann auch meist eher Lowendmodelle mit ohnehin geringer Marge, z.B. kleiner SSD, da die Businessanwendungen größtenteils nicht mehr auf dem Client laufen sondern in der Cloud. Viele Unternehmen bevorzugen auch noch Desktops weil die weniger leicht verloren gehen, daher ist der Marktanteil von Consumern bei Notebooks fast dreimal so groß. Gerade in den USA sind aber auch Chromebooks en vogue, mit Wachstumsraten von 200%, die weiter in den Notebookmarktaneil schneiden.
Im Gegensatz zum gaming und client Markt ist das auch kein Just in Time geschäft, das heißt es Lagerhaltung erforderlich, sowie zum Teil feste Einkaufs- oder Abnahmepreise. Das frisst einiges an Marge auf.


Von den allen auf Geizhals gelisteten Businessmodellen (mit Win 10 Pro) mit Intel CPU haben:
.) 1074 eine iGPU
.) 192 eine Consumer GPU
.) 298 eine Professional GPU (Workstation)

Das sind keine Modelle, das sind Konfigurationen (von denen die meisten nichtmal lieferbar sind).
Und was willst du damit sagen? Da sind viele Geräte drin die eine fette iGPU haben und genau deswegen gekauft werden. Deine vielbeschworene "minimal-GPU" für Business gibt es in realität gar nicht, ich wette die hälfte der Geräte hat eine 64EU G4 oder 96EU G7 oder vergleichbare Vega.


.) Ein Modell ohne iGPU und dazu wird eine diskrete DG2 GPU verlötet.

Du lebst echt noch im letzten Jahrzehnt. Wird es nicht geben, schon gar nicht im mobile.


Und genau hier wirkt sich das Problem aus. Würde Intel die in den meisten Fällen sinnlosen 96 EUs auf die Hälfte reduzieren könnten sie locker 2P Cores (oder alternativ noch 8 E Cores für die Workstations) mehr drauf packen.
Die genau niemand braucht für sein SAP frontend, seine powerpoint oder exceltabelle auf dem Businessgerät. Nee, Responsiveness bzw. schwuppdizität erreicht man heutzutage durch eine schnelle GPU und die SSD. Mehr Cores wären bei 90% der Anwender einfach nur clock gegatetes totes Silizium.

Wir brauchen darüber was sinnvoll ist auch gar nicht zu diskutieren, weil die DIEs die Intel auflegt ja mehr oder weniger bekannt sind.


Alderlake-S (Desktop 65-170W + 55W DTR SKUs)
8 + 8 + GT1 (4subslice = 32EU Gen12.2)

Alderlake-P (mobile 28-45W)
6 + 8 + GT2 (12subslice = 96EU Gen12.2)

Alderlake-M (mobile 15-25W)
2 + 8 + GT2 (12subslice = 96EU Gen12.2)


Tigerlake-U/P
4 + 0 + GT2 (12subslice = 96EU Gen12.2)

Tigerlake-H
8 + 0 + GT1 (4subslice = 32EU Gen12.5)


Witzigerweise hat Tigerlake-H angeblich sogar die neuere Version von XE-LP als Alderlake. Es kann also gut sein, dass Alderlake halt länger in der Entwicklungspipeline war und daher der GPU floorplan früher festgelegt werden musste und somit die ältere XE-LP drin gelandet ist, oder weil Intel mit der Gen12.5 unzufrieden war. Der Treibersupport der Tigrlake-H IGP ist ja immer noch katastrophal: Tigerlake-H hat 32EUs Gen 12.5 und Alderlake-S nur noch 32EU Gen 12.2

Wir sehen also im besten Fall nur Stagnation bei der IGP. Die Bandbreite wächst im idealfall um 31% von 68gb/s (LPDDR4X-4266) auf 88gb/s (LPDDR5). Das wars dann aber auch schon.

Savay
2021-09-26, 12:07:19
Zur iGPU Situation kann ich nur sagen, dass die aktuell meist eher schwachbrüstigen Intel Dinger wohl nicht wenigen IT Abteilungen wegen Homeoffice und Remotework grade heftig auf die Füße fallen!

Ich bin quasi nur am Tickets schreiben, dass in größeren WebEX Meetings mein 2020er 10th Gen Laptop an der Kotzgrenze läuft und der Rechner spätestens mit irgendwas im Hintergrund an der Nutzbarkeitsgrenze entlangschrammt. (Und sei es nur der AV Scanner, Ivanti Dienste oder Whatever ans Security/Verwaltungs Kram da gelegentlich rennt)

Insofern glaube ich werden die Anforderungen die in dieser Beziehung an Business PCs/Laptops gestellt werden eher etwas steigen.
Zumal die angeschlossenen Displays nicht mehr kalkulierbar und rein auf 1080p Billigmöhren limitiert sind!

Die 32EU Dinger sind da im Endeffekt eher ein tropfen auf den heißen Stein.
Die müssten m.E. effektiv eher Richtung Vega6 oder eher 7 tendieren.

r3ptil3
2021-09-26, 12:14:48
Zur iGPU Situation kann ich nur sagen, dass die aktuell meist eher schwachbrüstigen Intel Dinger wohl nicht wenigen IT Abteilungen grade heftig auf die Füße fallen!

Ich bin quasi nur am Tickets schreiben, dass in größeren WebEX Meetings mein 2020er 10th Gen Laptop an der Kotzgrenze läuft und der Rechner spätestens mit irgendwas im Hintergrund an der Nutzbarkeitsgrenze entlangschrammt. (Und sei es nur der AV Scanner, Ivanti Dienste oder Whatever ans Security/Verwaltungs Kram da gelegentlich rennt)


Was hat in dem Fall die hohe CPU-Auslastung mit der integrierten GPU-Einheit zu tun?

CrazyIvan
2021-09-26, 12:15:20
@amdfanuwe
Ohne jetzt die Architekturen im Detail verglichen zu haben, folgende Mutmaßung:
Es geht gar nicht so sehr um die Ausführungseinheiten als solche. Klar haben die Coves davon einige mehr. Es geht eher um den ganzen Kram, der für hohen ILP (instruction level parallelism) notwendig ist. Neben den Caches sind das vor allem der Reorder Buffer und die vielen Queues für Load, Store und Ausführungseinheiten. Je mehr und je tiefer das alles ist, desto breiter kann die Architektur sein und desto höher ist die Auslastung und damit IPC. Und das frisst alles ganz schön Brot, ohne dass man es sofort an den üblichen Kennzahlen (Anzahl Decoder, Load/Store Units, Ausführungseinheiten, Pipeline Länge, Cache Größe etc. pp.) sieht.

Savay
2021-09-26, 12:19:21
Was hat in dem Fall die hohe CPU-Auslastung mit der integrierten GPU-Einheit zu tun?

"Ruhend" liegt die GPU in ner WebEX schon bei 40-50%+
Die GPU Auslastung(!) geht spätestens beim verschieben von Fenstern auf 100%! :freak:
Die CPU Auslastung geht generell auf 80-90%+ hoch und sobald man nebenher was macht ganz schnell auch rauf auf 100%.

Der komplette Prozessor wird nicht selten dadurch einfach bis an die Kotzgrenze und darüber hinaus belastet, vor allem wenn kein 1080p Panel dran hängt, zumal das Decoding und Encoding und Rendering ja nicht rein über die GPU rennt! Je flotter letztere ist desto weniger stallt aber auch die CPU.

Ich hatte bis vor nem halben Jahr noch nen Skylake DualCore mit 24EU, der war streckenweise sogar komplett unbenutzbar, damit konnte ich nichtmal mehr größere Pläne in Form von PDFs öffnen.
Nach wochenlangem Ticketschreiben konnte ich dann wegen letzterem endlich nen 10th Gen 4C "Skylake" bekommen, aber der ist bestenfalls das absolute minimum was noch nutzbar ist...und das hauptsächlich wohl auch nur wegen des deutlich höheren Takts.

davidzo
2021-09-26, 12:21:15
Zur iGPU Situation kann ich nur sagen, dass die aktuell meist eher schwachbrüstigen Intel Dinger wohl nicht wenigen IT Abteilungen grade heftig auf die Füße fallen!

Ich bin quasi nur am Tickets schreiben, dass in größeren WebEX Meetings mein 2020er 10th Gen Laptop an der Kotzgrenze läuft und der Rechner spätestens mit irgendwas im Hintergrund an der Nutzbarkeitsgrenze entlangschrammt. (Und sei es nur der AV Scanner, Ivanti Dienste oder Whatever ans Security/Verwaltungs Kram da gelegentlich rennt)

Insofern glaube ich werden die Anforderungen die in dieser Beziehung an Business PCs/Laptops gestellt werden eher etwas steigen werden.
Die 32EU Dinger sind da eher ein tropfen auf den heißen Stein.

Die müssten m.E. effektiv eher Richtung Vega6 oder eher 7 tendieren.

Kann ich bestätigen. Und das liegt nur zur Hälfte an schlechter Software bzw. die nicht die besten verfügbaren hardware-codecs nutzt.
Für einfache Tabellen oder Texte brauch ich kein screensharing, da kann man direkt in dem doc zusammen arbeiten (gdocs oder office365). Wenn ich Screen-sharing mache, dann ist das nicht selten für CAD-Files, weil man ein Design oder Konstruktionsmerkmal bespricht. Wegen der großen Ebenenansicht und Werkzeugpaletten bevorzuge ich generell den externen 4K-Monitor. Auf dem Internen läuft dann das Video vom gegenüber, damit ich da antworten kann und meist noch in Browser mit so ca. 50Tabs.

Also gleichzeitig: 720p kamera videostreaming, 4K downsized screen sharing, 720p video input, browser und dual monitor mit 3K intern + 4K extern. - Das schaffen meine beiden GPUs einfach nicht mehr, weder die Iris pro mit edram noch die Nvidia. Ich muss dann auf wireframe modus umschalten was für meinen Gegenüber kacke aussieht, oder es mittels screenshots per slack statt screensharing versuchen. Jedes mal den externen monitor disconnecten, die kamera zu unterdrücken oder einzelne anwendungen zu beenden bevor ich einen call entgegen nehmen kann ist auch keine Lösung.

Also ich vermisse schon die GT3 oder GT3e Lösung sowohl bei Tigerlake als auch Alderlake. Und dass die TGL und ADL GT2s quasi identisch sind, während es bei vorherigen Generationen praktisch immer einen +50% Zuwachs gab, ist auch enttäuschend. Aber dafür wird es ja den M1X geben, ich bin sehr gespannt auf das GPU-Niveau dort (ich erhoffe mir RTX3060m niveau in einer IGP)!

KarlKastor
2021-09-26, 13:02:14
Man sieht ja schon an den F Modellen ohne iGPU das die Preise nicht sonderlich anders ausfallen und Intel nicht wirklich nach der die size Preise aufruft. Mal angenommen Intel würde dies ohne iGPUs in den Markt bringen, glaube ich nicht an nennenswert günstigere Preise.
Die F-Modelle haben ja auch eine GPU verbaut, nur eben deaktiviert. Die Die-size ist die gleiche.
Marktpreise von "Hightechprodukten" haben selten irgendwas mit Herstellkosten zu tun.
Man nimmt das was den meisten Gewinn einfährt.

iamthebear
2021-09-26, 22:51:41
Woran mangelt es eigentlich den E-Cores?
Ich meine, die P-Cores sind vollgestopft mit fixed Funktion Beschleunigern, komplexen FPU etc.
Das kostet Transistoren und somit Fläche.
Wenn man sich einen Assemblercode anschaut, besteht der größten Teils aus MOVE, BRANCH, COMPARE, int ADD. Das kann ein E-Core sicherlich auch gut mit seiner ALU.
Aber wo fehlt es ihm? Für welche OPS braucht der länger als ein P-Core? Welche Berechnungen muss er emulieren statt die in einer Fixed Funktion Unit effizient und schnell durchzuführen?
Wo, außer bei der Fläche, wurde bei den E-Cores gespart? Bei welchen Workloads haben die ihre Nachteile?

Die zusätzlichen Transistoren der Big Cores wurden in erster Linie darin investiert den Takt hoch zu treiben.

Im Fall des 12900K liegt der maximale Takt der Big Cores bei 5,3GHz, bei den Little Cores sind es nur 3,9GHz. Die Big Cores haben also 35% mehr Takt.
Ein weiterer Unterschied ist, dass die Big Cores SMT beherrschen. Früher zu Nehalem Zeiten hat Intel einmal angegeben, dass SMT nur ca. 5-10% Transistoren kostet. Heute könnte dies jedoch schon deutlich mehr sein.
Bei der IPC werden die Little Cores voraussichtlich nur ca. 10% unter den Big Cores liegen.

Alles andere wäre komplett peinlich gab da grad ein Video was aufzeigt das IPC mäßig bei Intel sogut wie gar nix passiert ist über 6 Jahre.


https://youtu.be/XJaSCnVcCdQ

Man darf dabei nicht vergessen, dass Broadwell 128MB eDRAM hatte. Dieser war eigentlich für die iGPU gedacht, wirkt sich jedoch auch extrem vorteilhaft bei Spielen aus, bringt jedoch bei anderen Anwendungen nicht besonders viel, da diese nicht so sehr vom RAM abhängen (ST Anwendungen kommen mit dem L3 aus, MT Anwendungen nutzen SMT und haben so einen 2. Thread der beim RAM Zugriff weiterarbeiten kann).
Anandtech hat vor 1-2 Jahren noch deutlich geringere Unterschiede gemessen. Da war Broadwell schon auf Standardtakt fast auf 10600K Niveau aber das war eben noch ein älterer Game Mix, wo vermutlich nur 4 Thread statt 6 verwendet wurden.

Dass die IPC nicht groß gesteigert werden konnte ist irgendwie klar. Mehr IPC bekommt man entweder durch:
.) Verzicht auf Takt => Wäre nicht wirklich sinnvoll wenn in Summe dann weniger raus kommt wie vorher
.) Anpassen der Architektur auf eine neue Fertigung => Nicht mehr möglich, da Skylake schon eine 14nm Architektur ist
.) Investitieren von zusätzlichen Transistoren => Schwer möglich da man ja schon von 4 Kernen auf 10 Kerne erhöht hatte. Mit Rocket Lake hat man es trotzdem gemacht, dafür aber 2 Kerne geopfert

ich sehe das ganz anders. rocketlake hat einigen nicht wirklich hoffnung gemacht, auch tigerlake hat keine solchen sprünge gemacht. viele sprachen von bis zu 19% ipc. jetzt sehen wir hier 32% in cpu z und auch der 5950x scheint ein würdiger gegner zu sein. ich selbst habe da eher den 5900x als MT gegner gesehen.

Die "bis zu 19% IPC" sind eine Fehlinterpretation. Die 19% waren ein Durchschnitt aller von Intel getesteten Anwendungen. Die Bandbreite ging hier von 0% (bzw. sogar leicht weniger) bis 60% mehr IPC. Das war ein Test mit lahmen DDR5 4400 unter Windows 10.

sicherlich sind 6 jahre eine lange zeit, aber es gab diverse designs wie icelake, tiger und rocketlake, die kaum etwas gebracht haben.

Ice Lake hat 20% IPC gebracht. Das Problem war, dass die 10nm zu wenig Takt ermöglicht hat weshalb es ein Produkt für 15W Notebooks war.

Tiger Lake war nicht wirklich eine großartige Architekturänderung. Hier wurde lediglich die Fertigung verbessert.

Bei Rocket Lake hat man im Wesentlichen nur versucht Tiger Lake auf 14nm rückzuportieren, was auch einiger maßen funktioniert hat, nur werden die Dies eben auch ganz schön groß.

was ADL hier in den leaks abliefert ist einfach bombe.

Im Schnitt werden es wohl ca. 20% mehr als Rocket Lake sein. Die Hälfte davon dürfte in etwas an DDR5 liegen. Bei Spielen wird es etwas mehr sein auf Grund des größeren L3 Cache. Das war mit Zen 3 aber auch nicht anders.

Das Problem von RKL waren einzig Spiele, denn da kam häufiger kaum was an. Die sind bei ADL weiterhin ein großes Fragezeichen, genauso wie mit welchem Verbrauch ADL teilweise die Scores geschafft hat. Bei >200W relativiert sich das schon wieder.

Das Problem des 11900K war einfach, dass dieser 4MB weniger L3 hat als der 10900K.
Wenn man den 11700K mit dem 10700K vergleicht sind es laut CB Rating 8% Unterschied, bei den Anwendungen waren es 12%.

Nicht wirklich, selbst der Homeoffice/Corona Run auf Business PCs kann nicht darüber hinweg täuschen dass das ein schrumpfender Markt ist. Die Upgradezyklen haben sich bei den meisten Großunternehmen bis auf 7 oder mehr Jahre vergrößert. Das waren mal 3 Jahre.

Und du glaubst, dass die Privat PCs hier öfter getauscht werden? Alles was eine SSD drin hat wird genutzt werden bis es auseinander fällt.

Bei den Firmengeräten wird es jedoch in den nächsten Jahren zu einer größeren Upgradewelle kommen wo alle Geräte getausch werden, die nicht Win11 kompatibel sind.

Und die Margen im Business sind einfach niedriger als im Retail, da Firmeneinkäufern in der Regel große Rabatte gegeben werden müssen um einen Rahmnvertrag zu bekommen. Kaum ein Businessgerät geht ohne Rabatte über den Tisch und das sind dann auch meist eher Lowendmodelle mit ohnehin geringer Marge, z.B. kleiner SSD, da die Businessanwendungen größtenteils nicht mehr auf dem Client laufen sondern in der Cloud. Viele Unternehmen bevorzugen auch noch Desktops weil die weniger leicht verloren gehen, daher ist der Marktanteil von Consumern bei Notebooks fast dreimal so groß. Gerade in den USA sind aber auch Chromebooks en vogue, mit Wachstumsraten von 200%, die weiter in den Notebookmarktaneil schneiden.

Die Margen sind im Businessbereich deutlich größer. Es wird hier in etwa gleich leistungsfähige Hardware verkauft (gegenüber dem typischen Schülernotebook), jedoch um den doppelten Preis. Da bleibt in der ganzen Kette deutlich mehr hängen. Der Markt der High End Gamingnotebooks, den du dir vorstellst ist so kleiner, dass er keine Relevanz hat.

Das mit Rabatten ist eher umgekehrt. Einer Firma, die 1K Notebooks direkt bei HP bestellt muss man weniger Rabatt geben als z.B. Media Markt, die 1 Mio. (verteilt auf verschiedene Modelle) abnehmen. Hier fällt einfach ein Zwischenhändler weg.

Dass Notebook eher mehr gefährdet sind als Desktop PCs stimmt. Allerdings geht aktuell der Trend auch sehr stark zu Notebooks. Corona hat diesen Trend mit Home Office noch deutlich beschleunigt.

Im Gegensatz zum gaming und client Markt ist das auch kein Just in Time geschäft, das heißt es Lagerhaltung erforderlich, sowie zum Teil feste Einkaufs- oder Abnahmepreise. Das frisst einiges an Marge auf.

Also ich glaube kaum, dass ein typischer Firmenkunde festere Preise hat als großer Händler oder Distributor.

Was die Lagerhaltung angeht:
Das generiert Marge, da man dem Firmenkunden einen 3J Wartungsvertrag (inkl. Vor Ort Service) um 200-300 Euro umhängen kann, den ein Privatkunde nie bezahlen würde. Das ist jedoch Sache der OEMs

Das sind keine Modelle, das sind Konfigurationen (von denen die meisten nichtmal lieferbar sind).
Und was willst du damit sagen? Da sind viele Geräte drin die eine fette iGPU haben und genau deswegen gekauft werden. Deine vielbeschworene "minimal-GPU" für Business gibt es in realität gar nicht, ich wette die hälfte der Geräte hat eine 64EU G4 oder 96EU G7 oder vergleichbare Vega.

Also dass Geräte wegen einer "fetten iGPU" gekauft werden halte ich für ein Hirngespinnst von dir. Die werden mit der iGPU gekauft, die eben dabei ist.
Oder kannst du mir eine rationale Erklärung liefern warum der Großteil der Firmenkunden eine fette GPU haben will? Das geht vielleicht noch bei ein paar Schülernotebooks durch, wo das Kinder der Mami einredet, dass er eine fette GPU zum "Lernen" braucht.

Du lebst echt noch im letzten Jahrzehnt. Wird es nicht geben, schon gar nicht im mobile.

Ich glaube da bist du nicht ganz am letzten Stand. Es wird DG2 für Desktop UND für Notebooks geben eben für deinen Markt der Hobbygamer, die doch gelegentlich mal etwas mit ihrem Notebook spielen wollen.

Die genau niemand braucht für sein SAP frontend, seine powerpoint oder exceltabelle auf dem Businessgerät. Nee, Responsiveness bzw. schwuppdizität erreicht man heutzutage durch eine schnelle GPU und die SSD. Mehr Cores wären bei 90% der Anwender einfach nur clock gegatetes totes Silizium.

"Schwuppdizität" erreicht man durch eine hohe SC Leistung und das Vorhandensein einer SSD statt einer HDD. Die GPU hat damit nichts zu tun und mehr als die Bandbreite, die eine SATA SSD liefert braucht man auch selten.
Dass 90% der Bürorechner nicht mehr als 1-2 Kerne braucht stimmt, aber 99% brauchen keine stärkere GPU.

Wir sehen also im besten Fall nur Stagnation bei der IGP. Die Bandbreite wächst im idealfall um 31% von 68gb/s (LPDDR4X-4266) auf 88gb/s (LPDDR5). Das wars dann aber auch schon.

Tja vermutlich weil Intel im Gegensatz zu dir bewusst ist, dass der Großteil der Anwendung die GPU Performance einfach nicht braucht.
Für die Minderheit, die mehr GPU Performance brauchen gibt es ja jetzt DG2, den man für einige OEM Modell einzeln verbauen kann. Aber man muss die GPU nicht sinnlos in allen CPUs verbauen.

"Ruhend" liegt die in ner WebEX schon bei 40-50%+
Die GPU Auslastung(!) geht spätestens beim verschieben von Fenstern bei 100%! :freak:
Die CPU Auslastung geht generell auf 80-90%+ hoch und sobald man nebenher was macht ganz schnell auch rauf auf 100%.

Das Hauptproblem ist hier der Ultra Mobile Wahn, dass man meint Notebooks müssten immer kleiner und dünner werden. Wenn ich ein Gerät mit einer 15W CPU kaufe, dann ist es klar, dass dieses eben schnell mal streikt, sobald es richtig ausgelastet wird.
Ich habe Notebooks bis Sandy Bridge (Dual Core) runter und keines davon hat Probleme mit Videokonferenzen. Aber das sind halt auch 45W Geräte, die am Netz hängen.

Ich hatte bis vor nem halben Jahr noch nen Skylake DualCore mit 24EU, der war streckenweise sogar komplett unbenutzbar, damit konnte ich nichtmal mehr größere Pläne in Form von PDFs öffnen.
Nach wochenlangem Ticketschreiben konnte ich dann wegen letzterem endlich nen 10th Gen 4C "Skylake" bekommen, aber der ist bestenfalls das absolute minimum was noch nutzbar ist...und das hauptsächlich wohl auch nur wegen des deutlich höheren Takts.

Also entweder übertreibst du hier maßlos oder du solltest dich einmal fragen wie du deine Geräte verkonfiguriert hast.
Mein ältestes Gerät ist ein PC mit Pentium E2160 mit 1.8GHz aus 2006. Selbst dieser ist mit einer neuen SATA SSD noch weit von "unbenutzbar" entfernt aber natürlich nicht mehr so flott wie die aktuellen PCs.

Kann ich bestätigen. Und das liegt nur zur Hälfte an schlechter Software bzw. die nicht die besten verfügbaren hardware-codecs nutzt.
Für einfache Tabellen oder Texte brauch ich kein screensharing, da kann man direkt in dem doc zusammen arbeiten (gdocs oder office365). Wenn ich Screen-sharing mache, dann ist das nicht selten für CAD-Files, weil man ein Design oder Konstruktionsmerkmal bespricht. Wegen der großen Ebenenansicht und Werkzeugpaletten bevorzuge ich generell den externen 4K-Monitor. Auf dem Internen läuft dann das Video vom gegenüber, damit ich da antworten kann und meist noch in Browser mit so ca. 50Tabs.

Also gleichzeitig: 720p kamera videostreaming, 4K downsized screen sharing, 720p video input, browser und dual monitor mit 3K intern + 4K extern. - Das schaffen meine beiden GPUs einfach nicht mehr, weder die Iris pro mit edram noch die Nvidia. Ich muss dann auf wireframe modus umschalten was für meinen Gegenüber kacke aussieht, oder es mittels screenshots per slack statt screensharing versuchen. Jedes mal den externen monitor disconnecten, die kamera zu unterdrücken oder einzelne anwendungen zu beenden bevor ich einen call entgegen nehmen kann ist auch keine Lösung.

Also ich vermisse schon die GT3 oder GT3e Lösung sowohl bei Tigerlake als auch Alderlake. Und dass die TGL und ADL GT2s quasi identisch sind, während es bei vorherigen Generationen praktisch immer einen +50% Zuwachs gab, ist auch enttäuschend. Aber dafür wird es ja den M1X geben, ich bin sehr gespannt auf das GPU-Niveau dort (ich erhoffe mir RTX3060m niveau in einer IGP)!

Tralalak
2021-09-26, 23:34:17
The great news is that various combinations can be tested in SisoftSandra:

• CPU Benchmarks:
Additional Core/Thread selection support
• “big/P Cores Only” (but not threads – thus 8T) – only “Core” cores
• “LITTLE/E Cores Only” (thus 8T) – only “Atom” cores
• “Multi-Threaded big/P Cores” – only “Core” cores w/SMT – thus 16T
• “Single Thread big/P Core” – (1T) thus single “Core” core
• “Single Thread LITTLE/E Core” – (1T) thus single “Atom” core

source: https://www.sisoftware.co.uk/2021/09/24/sisoftware-sandra-20-21-r6-hybrid-windows-11-server-2022-benchmarks-updates/

Savay
2021-09-27, 00:49:58
Also entweder übertreibst du hier maßlos oder du solltest dich einmal fragen wie du deine Geräte verkonfiguriert hast.

Da ist rein gar nichts übertrieben, ich konfiguriere an den Officegeräten überhaupt nichts Mr. Nichtexistenter105Wdeckel! :wave2:
Die Dinger und die Softwareumgebung bekommst du vorgesetzt und danach heißt es friss oder stirb.

Und ja, unsere IT glotzte zu beginn immer auch ganz verdattert, bis sie sich dann mal auf die Geräte aufschaltenten.
Danach waren sie dann immer recht ratlos, erst recht seit in der breite das "Performance Monitoring" Projekt mit etlichen freiwilligen läuft.

Das Drama ist ja nicht neu und zieht sich seit Beginn der Pandemie bei uns durch.

Xfaches rumdoktorn an der SW Umgebung inklusive W10 Version. Cloudlösung hier, Update der WebEX Version da...das alles hat nix substanzielles geändert.
Den restlichen IT Administrations Bloatware Blob wollen oder können sie offensichtlich nicht soweit verschlanken wie es nötige wäre, dass die Dinger nutzbar werden...also bleibt nur noch die HW als Stellschraube.

Tja, dann heißt es halt lernen durch Schmerz, aka durch durch die Decke gehende Supportanfragen, wenn man deiner ignoranten Linie folgte ala "iGPU Performance und SoC Balance ist ja komplett unwichtig" und die Systeme komplett ewiggestrig rein mit den billigsten 1080p "Officemonitoren" validiert.

Ende der Geschichte ist bei uns zumindest letztlich:
Neue Ausschreibung für alle Office Laptops des kompletten Unternehmens...ob es dann TGL (Ich hoffe ja inständig drauf mit min 64EU) richten wird?! Wir werden es sehen.


Tja vermutlich weil Intel im Gegensatz zu dir bewusst ist, dass der Großteil der Anwendung die GPU Performance einfach nicht braucht.

*versuchtlachendeinexcelsheetaufdenanderemonitorzuverschiebenohnedasdiemöhrekola biert*

Oh...sorry...hast du was gesagt?! ;D

iamthebear
2021-09-27, 01:05:52
OK dann scheint Eure IT da gröber was verbockt zu haben aber eines kann ich dir sagen: Es wird mit Sicherheit nicht an der Performance deiner GPU liegen. Hört sich eher nach einem Treiberproblem an.

Savay
2021-09-27, 01:24:18
Auf zwei unabhängigen Geräten?!
Das erste sogar mit zwei komplett unterschiedlichen Windows Versionen, wo ich unter W7 sogar aufgrund meiner Tätigkeit ungewöhnlicherweise noch Adminrechte hatte und dann irgendwann aus Not selbst die neusten Treiber rüber gebügelt habe, was rein gar nichts gebracht hat?!

Äh, sorry, nein...es liegt an der HW, der SW und der Monitorauflösung.

alles über 1080p und spätestens 2160p ist zuviel für die olle 24EU Lösung, mehrere Videostreams sind klar zuviel für die 24EU Lösung...die ist damit einfach von vorne bis hinten komplett überfordert.
Spätestens wenn man mal anfängt Fenster auch mal zu bewegen...was vorkommen soll bei mehr als einem Monitor.

Und wir haben halt auch nicht mehr 2014, wo ich noch hinnehmen würde einen komplexes SLD oder Systemübersicht etc. pp. in Briefmarkengröße in 1080p ansehen zu müssen, nur weil irgendein übereifriger Controller in der IT Abteilung meint, dass ein HW Setup/Konzept von 2010 noch irgendeinen Sinn im Jahre 2021 ergibt.

Und Intel wird sich daran auch messen lassen müssen, die Ticketfluten wird sich auf dauer nämlich keine IT Abteilung geben wollen, grade wo es vermehrt richtung Remote Work geht und da sind die Monitore halt nicht mehr so kalkulierbar wie in ner "Office-only" Umgebung.

aufkrawall
2021-09-27, 01:37:27
Hier muss man schon sehr zwischen Gen 9- und 12-Grafik trennen. 9 war einfach noch richtig hardcoremäßiger Kackmüll, jeder halbwegs aktuelle Mittelklasse Qualcomm-SoC prügelt da in der Realität die Schei*e raus. Dass es keine dickere Gen 12 IGP gibt, ist aufgrund des wahnwitzigen Technologie-Sprungs weit weniger tragisch.

iamthebear
2021-09-27, 02:18:34
Also ich habe mal auf Notebookcheck nachgesehen. Laut deren Benchmarks sollte eine aktuelle Tiger Lake iGPU mit 96EU ca. 10 Mal so schnell sein wie die meines 3340M. Mit dem hatte ich bisher noch nirgendwo Probleme sei diverse Webseiten, Videos (1080p), Videokonferenzen (Teams, Zooms, Webex, GoToMeeting alles schon probiert) geschweige denn irgendein Office Zeugs. Das ist mein Hauptgerät, das ich seit über 8 Jahren 40h die Woche nutze.

Was Webex angeht: Intel ist derzeit der einzige GPU Hersteller der überhaupt Hardwarebeschleunigung für Webex bietet. Von daher ist die Diskussion sowieso hinfällig.

Was die Ticketfluten in den IT Abteilungen angeht so haben die meistens einen großen Shredder dafür ;D

BlacKi
2021-09-27, 12:03:27
October 27th: Announcement and preorders
November 4th: Sales and reviews (product launch) https://videocardz.com/newz/msi-has-just-confirmed-intel-alder-lake-cpu-launch-date-november-4th

Lurtz
2021-09-27, 13:59:48
Schon klar dass ADLs XE-LP etwas schneller werden kann, aber die Frage war ob das ein Gamechanger wird und das lässt sich klar verneinen.

Ich meinte das eher aus einem Effizienzgedanken im "Desktopbetrieb" ohne 3D-Anwendungen, also Kühlung, Akkulaufzeit etc. Wir sind zwar im 3DC, bei Laptops interessieren mich Spiele aber nicht :)

Nightspider
2021-09-27, 14:09:12
Wann ist mit den mobilen ADL Chips mit Geräten im Handel zu rechnen? März?

Thunder99
2021-09-27, 18:08:14
Wurden schon diese Leaks diskutiert?
https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/News/Intel-Core-12000-Benchmark-Ergebnisse-Alder-Lake-1380306/

Recht ordentlich für eine neue Architektur. Dann hat Intel echt ihren Job getan. Kommt dann nur noch darauf an, wie sich das in der Praxis auswirkt bei realen Anwendungen und Spiele :wink:

Merkor
2021-09-27, 18:30:47
Ich frage mich, wo der passende DDR5 Speicher bleibt. Das Angebot scheint mir gelinde gesagt viel zu dünn, als dass zum Launch eine relevante Auswahl zum angemessenen Preis zur Verfügung steht. Gerade die High-End Platinen werden wohl keinen DDR4-Support bieten.

WedgeAntilles
2021-09-27, 19:45:20
Wieso sollte man jetzt schon DDR5 verkaufen? Kann ja noch keiner nutzen.
Irgendwo kam die Nachricht, dass Asus 9 Boards zu beginn haben wird.
Davon 4 bzw. 5 mit DDR 4 bzw. 5.

Dürfte eine breite Mischung sein, da wird denke ich für alle was dabei sein.

Edit:
Hier war es:
https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Z690-Asus-Lineup-DDR4-DDR5-Support-1379631/

Merkor
2021-09-27, 19:52:41
Wir sind ja nun nicht bei Rambus, wo Intel die CPUs mit dem Speicher gebundlet hat. Ich rede auch nicht von verkaufen. Der Speicher müsste zumindest langsam von den Herstellern vorgestellt und im Handel eingelistet werden. Für einen Produktlaunch des neuen Speicherstandards für die nächsten Jahre in den nächsten 4 Wochen ist es seltsam ruhig bei den Chipherstellern und Integratoren.

Bei Asus hat High-End und Ramschklasse angeblich DDR5. DDR4 gibt es in der Mittelklasse.

Hakim
2021-09-27, 21:12:36
Ich werde mir den Unterschied zw DDR4 und 5 genau anschauen, wollte eigentlich meine 4er mitnehmen.

Ramius
2021-09-27, 21:35:43
Bei Asus hat High-End und Ramschklasse angeblich DDR5. DDR4 gibt es in der Mittelklasse.

Wieso sollte man in der Ramschklasse teuren DDR5 Speicher bringen?

Platos
2021-09-27, 22:39:00
Sind die DDR5 Mainboards eig. Abwärtskompatibel oder kommen nur Boards mit entweder nur DDR4 oder nur DDR5 ?

Merkor
2021-09-27, 22:40:12
Wieso sollte man in der Ramschklasse teuren DDR5 Speicher bringen?

Damit man von der eigentlich zum Kauf geplanten Mittelklasse in die Oberklasse wandern muss. Das ist geschickte Produktpositionierung. Man hat dann nur die Wahl zwischen billig und teuer. Wenn es keinen Mittelweg gibt, wird der halbwegs ambitionierte Anwender mit dem Wunsch nach einem echten Upgrade zu einem 450 Euro Board greifen, obwohl man eigentlich nur 250 ausgeben wollte. Aber ganz billig darf es eben für viele auch nicht sein, nur für den unverbesserlichen Homo Oeconomicus. Nur die Ramschserie wird es offenbar in beiden Ausbauformen geben, damit Asus sich nicht vorwerfen lassen muss, in dieser Preisklasse gar kein Angebot platziert zu haben.

https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/Z690-Asus-Lineup-DDR4-DDR5-Support-1379631/

Andere Hersteller mögen dies kundenfreundlicher handhaben.

w0mbat
2021-09-27, 23:30:27
Sind die DDR5 Mainboards eig. Abwärtskompatibel oder kommen nur Boards mit entweder nur DDR4 oder nur DDR5 ?
Entweder oder bzw. es ist wohl theoretisch möglich nen Kombo-Mobo zu bringen, aber dann zB mit 2x DDR5 slots und 2x DDR4 slots. ASRock macht sowas gerne, die hatten auch DDR3/DDR4 Mobos.

basix
2021-09-28, 08:21:23
Die DIMM Slots werden sich bei DDR5 sicher unterscheiden. Aber ja, so Combo-Mobo könnte es vereinzelt geben. Das letzte Mal kam neuer Speicher im HEDT Bereich (Haswell-E), dort waren erhöhte Speicherpreise tragbarer. Bei Skylake kamen dann ein paar DDR3/DDR4 Boards aber der Grossteil war entweder oder.

Thunder99
2021-09-28, 08:40:11
Paar Exoten haben beide Standards, aber das Groß entweder oder.

Bezweifle, ob sich DDR 5 zum dem Zeitpunkt überhaupt rentiert. Preis, Geschwindigkeit, etc...

w0mbat
2021-09-28, 10:25:41
Aber ein komplett neues System, neuer Sockel, neues Mobo, neue CPU mit neuer Architektur, neuem Hybrid-Design und neuem Herstellungsprozess kaufen und dann "alten" DDR4 drauf laufen zu lassen fühlt sich auch komisch an.

Platos
2021-09-28, 17:29:45
Aber ein komplett neues System, neuer Sockel, neues Mobo, neue CPU mit neuer Architektur, neuem Hybrid-Design und neuem Herstellungsprozess kaufen und dann "alten" DDR4 drauf laufen zu lassen fühlt sich auch komisch an.

Ja, deshalb die Frage bezüglich der Kompatibilität. Wenn beides auf einem Board möglich ist, kann man seinen "alten" DDR4 Speicher nutzen, falls vorhanden und abwarten, bis es besseren/günstigeren DDR5 Speicher gibt.

Aber unter anderem deshalb würde ich Alderlake sowieso nicht empfehlen. Es wird wahrscheinlich 1 Jahr (mindestens) gehen, bis die Preise gut sind und dann gibts schon Raptor Lake, was auch noch die Kernanzahl erhöht, also...

basix
2021-09-28, 18:07:37
Wenn man die Komponenten einzeln gut wegbekommt und DDR5 keinen relevanten Mehrwert bringt, könnte man sehr gut seine bestehenden DDR4 Riegel auf die neue Plattform mitnehmen und erst später mal Board + Speicher wechseln. Ich nehme zudem an, dass Raptor Lake DDR4 noch unterstützen wird. Ein Upgrade Pfad wäre also noch gegeben. Dann hat man eine sehr aktuelle CPU und Plattform und kann 2024-2025 auf DDR5 umsteigen, wo die Preise dann gesunken sein sollten.

iamthebear
2021-09-28, 19:44:57
Bezweifle, ob sich DDR 5 zum dem Zeitpunkt überhaupt rentiert. Preis, Geschwindigkeit, etc...

Laut den Quellen von MLID soll die Performance mit DDR4 5-15% niedriger liegen. Das ist extra eine sehr breite Angabe, da es eben stark auf die Anwendung ankommt.

Wenn es Boards gibt die beides unterstützen würde es schon Sinn machen den bestehenden DDR4 RAM vorerst weiter zu nutzen.

Falls es keine Kombiboards gibt macht es eher wenig Sinn, denn sobald die DDR5 Preise niedrig sind wird man DDR4 Boards nur mehr schwierig los bekommen. Da würde ich je nach Preis entweder gleich in DDR5 investieren oder bei DDR4 bleiben und z.B. bei Lunar Lake dann wieder Board + CPU + RAM tauschen und die alte HW als Bundle verkaufen bzw. weiter geben.

Aber unter anderem deshalb würde ich Alderlake sowieso nicht empfehlen. Es wird wahrscheinlich 1 Jahr (mindestens) gehen, bis die Preise gut sind und dann gibts schon Raptor Lake, was auch noch die Kernanzahl erhöht, also...

Hier stellt sich primär die Frage was man mit dem Rechner vor hat. Falls man diesen primär für Gaming nutzt wird es relativ egal sein ob man nur 8+8 oder 8+16 hat. Es gibt sowieso keine Spiele die 24 Threads nutzen.
Die Performance der Big Cores wird voraussichtlich um ca. 10% ansteigen.

Aber natürlich: Wenn man derzeit nicht wirklich Aufrüstdruck hat macht es natürlich Sinn zu warten.

Ich nehme zudem an, dass Raptor Lake DDR4 noch unterstützen wird. Ein Upgrade Pfad wäre also noch gegeben. Dann hat man eine sehr aktuelle CPU und Plattform und kann 2024-2025 auf DDR5 umsteigen, wo die Preise dann gesunken sein sollten.

Also wenn du vor hast 2024/25 auf ein neues Board + DDR5 umzusteigen dann würde ich den Raptor Lake Tausch auslassen und lieber gleich 2024/25 auf eine aktuelle CPU gehen, die den neuen RAM auch nutzen kann denn schneller DDR5 bringt wenig wenn der Memorycontroller den Takt nicht mitmacht.
Das wäre dann entweder Meteor Lake oder bereits Lunar Lake.

Nach aktuellen Plänen soll entweder Lunar Lake oder Nova Lake einen riesigen Sprung bringen ähnlich wie der Wechsel von P4 auf Core mit bis zu deoppelter IPC gegenüber ADL. Ob das jedoch dann auch wirklich so umsetzbar ist bzw. auch nur annähernd zum geplanten Termin 2024/25 kommt da bin ich noch mehr als skeptisch. Intel dachte 2000 auch sie wären 2005 schon auf 10GHz und würden mit EUV fertigen.

BlacKi
2021-09-28, 19:47:19
sich jetzt schon über die ddr5 preise zu echauffieren ist echt die krönung. lasst die doch erstmal mehr als ein produkt listen. und wer weiß, vl taugt der ddr4 controller nichts, wie bei rocketlake. dann willste do oder so kein ddr4.

die diskussion ist jetzt jedenfalls komplett sinnlos.

davidzo
2021-09-28, 20:18:22
Laut den Quellen von MLID soll die Performance mit DDR4 5-15% niedriger liegen. Das ist extra eine sehr breite Angabe, da es eben stark auf die Anwendung ankommt.
Eher umgekehrt, wenn ich mir die Latenzen so ansehe. Die 15% wirst du vielleicht im Sandra Memory Bandwidth Test sehen oder Aida64 Cache & memory, ich glaube aber kaum dass sich das irgendwie in Applikationsbnchmarks niederschlägt. Zumal DDR5 ja sogar Gear4 laufen soll und DDR4 zumindest aktuell bei RKL ja mit Gear2 läuft.

konkretor
2021-09-28, 20:22:55
https://medium.com/intel-tech/alder-lake-introduces-a-new-client-soc-architecture-that-scales-from-powerful-desktops-to-baf2533c6326

Blediator16
2021-09-28, 20:52:38
https://medium.com/intel-tech/alder-lake-introduces-a-new-client-soc-architecture-that-scales-from-powerful-desktops-to-baf2533c6326

Schmutzartikel.

iamthebear
2021-09-29, 00:55:02
Eher umgekehrt, wenn ich mir die Latenzen so ansehe. Die 15% wirst du vielleicht im Sandra Memory Bandwidth Test sehen oder Aida64 Cache & memory, ich glaube aber kaum dass sich das irgendwie in Applikationsbnchmarks niederschlägt. Zumal DDR5 ja sogar Gear4 laufen soll und DDR4 zumindest aktuell bei RKL ja mit Gear2 läuft.

1.) Das mit Gear4 kam daher, dass irgendjemand meinte er muss ihn auf Gewalt mit DDR5-6400 betreiben, obwohl er nur DDR5-4800 unterstützt. Ich gehe einmal davon aus, dass es sonst ganz normal Gear2 sein wird.
Einmal abgesehen davon sind die Latenzen mit CL40 auch noch ziemlich bescheiden. Das ist so als würde mit DDR4-3200 RAM mit CL20 nehmen.

2.) Du darfst nicht vergessen, dass DDR5 ja auch 2 Speicherkanäle pro Riegel hat. So können 4 statt 2 Kerne gleichzeitig bedient werden. Das wird eher den größeren Unterschied machen. Die Bandbreite an sich kann man vernachlässigen, da auf den RAM ja meistens nicht sequentiell zugegriffen wird.

3.) Die Aussage stammt ja nicht von irgendwelchen wilden Spekulationen, sondern anscheinend aus der Ecke von Boardherstellern, die das bereits getestet haben.
Ich will aber nicht ausschließen, dass die nur reguläre Anwendungen mit 24 Threads getestet haben und keine Spiele mit 6 Threads ohne SMT Nutzung.

https://medium.com/intel-tech/alder-lake-introduces-a-new-client-soc-architecture-that-scales-from-powerful-desktops-to-baf2533c6326

Ist das irgendwas neues dabei? Das sieht doch einfach nach der Präsentation von Intel am Architecture Day bzw. Hot Chips aus.

Unten stehen die rechtlichen Floskeln von Intel. Haben die da überhaupt selbst etwas geschrieben oder nur den Pressetext von vor 1 Monat 1:1 eingefügt?

Lurtz
2021-09-29, 10:06:02
Also wenn du vor hast 2024/25 auf ein neues Board + DDR5 umzusteigen dann würde ich den Raptor Lake Tausch auslassen und lieber gleich 2024/25 auf eine aktuelle CPU gehen, die den neuen RAM auch nutzen kann denn schneller DDR5 bringt wenig wenn der Memorycontroller den Takt nicht mitmacht.
Das wäre dann entweder Meteor Lake oder bereits Lunar Lake.

Nach aktuellen Plänen soll entweder Lunar Lake oder Nova Lake einen riesigen Sprung bringen ähnlich wie der Wechsel von P4 auf Core mit bis zu deoppelter IPC gegenüber ADL. Ob das jedoch dann auch wirklich so umsetzbar ist bzw. auch nur annähernd zum geplanten Termin 2024/25 kommt da bin ich noch mehr als skeptisch. Intel dachte 2000 auch sie wären 2005 schon auf 10GHz und würden mit EUV fertigen.
Oder anders gesagt: Warten kann man immer :D


Unten stehen die rechtlichen Floskeln von Intel. Haben die da überhaupt selbst etwas geschrieben oder nur den Pressetext von vor 1 Monat 1:1 eingefügt?
Das ist von einem Technology Evangelist at Intel. Natürlich ist das nur PR.

Blediator16
2021-09-29, 12:07:46
Unten stehen die rechtlichen Floskeln von Intel. Haben die da überhaupt selbst etwas geschrieben oder nur den Pressetext von vor 1 Monat 1:1 eingefügt?


Author: Marcus Yam, Technology Evangelist at Intel


Das ist ein Werbeartikel von Intel selbst.

Leonidas
2021-09-30, 08:42:19
Wurden schon diese Leaks diskutiert?
https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/News/Intel-Core-12000-Benchmark-Ergebnisse-Alder-Lake-1380306/

Basis: CPU-Monkey. Bitte nicht.



Richtige neue Benchmarks ...
CPU-Z - nun ohne OC, damit auch mit MT-Wert:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-september-2021

Speicherlatenzen Zen 3 + DDR4/3200 vs Alder Lake + DDR5/4800:
https://twitter.com/CapFrameX/status/1443111161768120321

WedgeAntilles
2021-09-30, 10:06:52
Das zu Beginn eines neuen Speichergeneration die alten Speicher (gerade zum Gaming) noch besser sind ist jetzt aber nicht wirklich überraschend.
Das war doch bei den alten Generationen nicht anders, oder habe ich das falsch im Kopf?

Gleichzeitig ist der Preis am Anfang noch ein ganzes Stück höher - aber das gilt ja für viele Technologien.
Wenn ich die erste PCI 4.0 SSD kaufte die es gab, hatte ich auch nicht gerade ein tolles Preis-Leistungs-Verhältnis.

Grob gesagt wird man vermutlich in den nächsten 12 Monaten mit DDR 4 nicht viel falsch machen.

Ab Ende 22 / Anfang 23 wird dann DDR 5 vermutlich Standard und die bessere Wahl. (Passt dann auch gut mit dem Start von Raptor-Lake zusammen)

dildo4u
2021-09-30, 10:14:27
DDR5 ist deshalb intereasant weil du wesentlich höhere Kapazitäten mit weniger Sticks erreichen kannst, es wird also vermutlich erstmal komplett von Server und Workstation Firmen aufgekauft werden.

spotz
2021-09-30, 12:01:12
Ist DDR4 für Gaming auch dann die bessere Wahl, wenn die IGP dafür genutzt wird oder hätte dann DDR5 aufgrund der der größeren Speicherbandbreite Vorteile?

Thunder99
2021-09-30, 12:07:48
Letzteres, aber dürfte dennoch viel zu wenig sein für ernsthaftes Gaming.

Leonidas
2021-09-30, 13:02:34
Das zu Beginn eines neuen Speichergeneration die alten Speicher (gerade zum Gaming) noch besser sind ist jetzt aber nicht wirklich überraschend.
Das war doch bei den alten Generationen nicht anders, oder habe ich das falsch im Kopf?

Nein, vollkommen korrekt behalten.

Es hat bei DDR3 zu DDR4 auch fast ein Jahr zur Preisparität gebraucht.

iamthebear
2021-10-01, 19:45:04
Das Hauptproblem bei DDR5 dürften die Timings sein. Das hängt zum einen damit zusammen, dass es derzeit eben nur den Standard RAM gibt, zum Anderen sind die absoluten Latenzen bei DDR5 generell etwas höher.
Dafür gibt es aber auch 2 unabhängige Speicherkanäle pro Riegel bzw. 4 im Dual Channel Modus, was aber erst ein Thema wird wenn auch mehr als 2 Threads gleichzeitig auf Daten warten.

Was die Preise angeht: Im Juni wurden von Teamgroup auf Amazon Vorbestellungen um die 10$/GB angenommen. Das würde mich jetzt an sich gar nicht mal so schrecken. Real auf Geizhals wird es sicher noch etwas billiger. Aber es stellt sich natürlich die Frage falls Kombiboards verfügbar sind ob man nicht wirklich bestehende DDR4 Kits vorerst einmal weiter verwenden sollte.

BlacKi
2021-10-01, 20:49:10
ddr5 8000 mit gearmode 2

cl50 sieht zwar böse aus, aber ich glaube das sind keine optimierten werte. die timings sehen absichtlich hoch und einheitlich festgelegt aus. stabilität ist auch nicht bekannt, aber mit ddr5 wird man stabilität neu definieren müssen, weil er, wegen der eingebauten ecc funktion, auch speicher der nicht stabil läuft, nicht abstürzen wird. er wird performance verlieren.

https://cdn.videocardz.com/1/2021/10/DDR5-8000-Memory-OC.jpg

https://videocardz.com/newz/intel-core-i9-12900k-spotted-running-alongside-overclocked-ddr5-8000-memory

Thunder99
2021-10-01, 20:53:11
LoL 😂 1.5V für die Geschwindigkeit :freak:

Das gibt noch böse Überraschungen, spekuliere ich.

Unicous
2021-10-01, 21:27:28
BlacKi sollte sich mal über on-chip/-die ECC vs. "echtes" ECC informieren, so scheint es. :uponder:

w0mbat
2021-10-01, 21:44:44
Ne, er hat schon recht. On-chip ECC hilft Fehler auf dem RAM zu eliminieren, aber nicht in der ganzen Kette.

Unicous
2021-10-01, 22:07:28
Womit hat er "recht"?:confused:

BlacKi
2021-10-01, 22:08:39
ecc hilft fehler zu korrigieren? because fehlerkorrektur?

Unicous
2021-10-01, 22:17:37
Oh je, oh je.:rolleyes:

On-die error correction code (ECC)3 and error check and scrub (ECS), which were first to be adopted in DDR5, also allow for more reliable technology node scaling by correcting single bit errors internally. Therefore, it is expected to contribute to further cost reduction in the future. ECS records the DRAM defects and provides the error counts to the host, thereby increasing transparency and enhancing the reliability, availability, and serviceability (RAS) function of the server system.
https://news.skhynix.com/why-ddr5-is-the-industrys-powerful-next-gen-memory/

On-die ECC ist nichts weiter als eine glorifizierte Qualitätssicherung für die DRAM-Chips deswegen wird es auch weiterhin echte ECC Riegel geben.

Hier noch ein Kommentar von Ryan Smith:

So on-die ECC is a bit of a mixed-blessing. To answer the big question in the gallery, on-die ECC is not a replacement for DIMM-wide ECC.

On-die ECC is to improve the reliability of individual chips. Between the number of bits per chip getting quite high, and newer nodes getting successively harder to develop, the odds of a single-bit error is getting uncomfortably high. So on-die ECC is meant to counter that, by transparently dealing with single-bit errors.

It's similar in concept to error correction on SSDs (NAND): the error rate is high enough that a modern TLC SSD without error correction would be unusable without it. Otherwise if your chips had to be perfect, these ultra-fine processes would never yield well enough to be usable.

Consequently, DIMM-wide ECC will still be a thing. Which is why in the JEDEC diagram it shows an LRDIMM with 20 memory packages. That's 10 chips (2 ranks) per channel, with 5 chips per rank. The 5th chip is to provide ECC. Since the channel is narrower, you now need an extra memory chip for every 4 chips rather than every 8 like DDR4.
https://www.anandtech.com/comments/15912/ddr5-specification-released-setting-the-stage-for-ddr56400-and-beyond/708566

edit:
Die on-die ECC verlässt auch nicht den RAM also gibt es es keine Fehlerkorrektur zwischen CPU/Memory Controll und DRAM.

BlacKi
2021-10-01, 22:33:21
ich meinte nicht, das es kein abstürzen geben würde. aber bevor es abstürzt wird ausgebessert, solange der fehler auf dem ram modul passiert. und das ausbessern wird performance kosten.

gerade die temperatur wird ein on die fehler.

Unicous
2021-10-01, 22:34:59
Was soll man dazu noch sagen.

iamthebear
2021-10-01, 23:06:45
Ich denke der Punkt ist der:
Wenn die Daten zwar korrekt gelesen werden aber durch den hohen Speichertakt von 8000MHz nur mehr Datensalat beim IMC ankommt, dann hilft on die ECC relativ wenig.
Aber es löst endlich einmal das Problem auf Desktopsystemen, dass das ganze System sporadisch abschmiert nur weil eine Speicherzelle etwas lahmer ist als sie sein sollte.

Was CL50 bei DDR5 8000 angeht: Das ist jetzt nicht besonders prickelnd aber schon deutlich besser als die JEDEC Werte von CL40 bei 4800.

BlacKi
2021-10-01, 23:10:28
das ist doch meistens so. läuft 30min stabil. dann random fehler. absturz.

w0mbat
2021-10-02, 00:12:43
@Unicous: Les deine Quellen nochmal. Jeder hier weiß, dass DDR5 nicht ECC mitbringt, aber on-die werden mögliche Fehler korrigiert. Du markierst genau die falschen Stellen in deinen Zitaten. Es gibt dazu ein gutes Video von TechTechPotato, falls du mehr wissen willst :)

Unicous
2021-10-02, 00:22:28
Ich liebe ja wenn man irgendwas behauptet aber dann auf andere Quellen verweist, anstatt es selbst zu formulieren/zitieren.

Immer schön vage bleiben, dann braucht man seine Aussagen auch nicht mit Fakten untermauern.:rolleyes:

w0mbat
2021-10-02, 00:27:40
Also gibt es mit DDR5 kein on-die ECC, welches Fehler korrigieren kann? Ich dachte das stimmt. Ist kein echtes ECC und kann nicht über die ganze Kette Fehler vermeiden, aber on-die mWn schon. Ich hab die Infos von Dr. Ian Cutress, der hat darüber nen gutes Video gemacht. Aber vielleicht hat er auch Unrecht, dann klär uns doch alle auf.

Unicous
2021-10-02, 00:36:21
LOL.;D


I rest my case (mit timestamp):

https://www.youtube.com/watch?v=XGwcPzBJCh0&t=213s

Er erklärt genau das was sk Hynix und Ryan Smith auch sagen und du willst mir einen Bären aufbinden. Wenn man schon Quellen anteasered sollte man sie auch vorher verstanden oder angeschaut haben.:rolleyes:

BlacKi
2021-10-02, 00:44:05
das eine schließt das andere nicht aus. ja, die gründe unterscheiden sich, die funktion bleibt erhalten.

w0mbat
2021-10-02, 10:23:06
LOL.;D


I rest my case (mit timestamp):

https://www.youtube.com/watch?v=XGwcPzBJCh0&t=213s

Er erklärt genau das was sk Hynix und Ryan Smith auch sagen und du willst mir einen Bären aufbinden. Wenn man schon Quellen anteasered sollte man sie auch vorher verstanden oder angeschaut haben.:rolleyes:
Das ist doch genau das, was Blacki und ich dir gerade erklären wollen.

On-die ECC ist nicht ECC, aber es hilft dem Speicher Fehler zu korrigieren, die auf dem Modul passieren. Du hast genau den Punkt im YT Video verlinkt, der das bestätigt.

Du stehst gerade auf einem sehr langen Schlauch ;D

PatkIllA
2021-10-02, 10:40:57
Schaltet Intel das volle ECC wieder ab bei den Desktop und Mobile CPUs?
Gerade wenn die Module die extra Chips eh haben wäre das doppelt ärgerlich.

BlacKi
2021-10-02, 11:48:56
Schaltet Intel das volle ECC wieder ab bei den Desktop und Mobile CPUs?
Gerade wenn die Module die extra Chips eh haben wäre das doppelt ärgerlich.warum?

PatkIllA
2021-10-02, 12:31:21
warum?
Weil man die Kapazität für die Fehlerkorrektur ja sowieso hat und bezahlt aber die Korrektur ohne Not nur am Ende aber nicht bei der Übertragung nutzen kann.

Da die CPU bei DDR5 ja eh nicht mehr direkt die Chips anspricht könnte man die Fehlerkorrektur bei Übertragung und im Modul selbst sogar funktionell trennen.

Unicous
2021-10-02, 16:55:12
Du stehst gerade auf einem sehr langen Schlauch ;D

Ney, ihr habt offensichtlich keine Ahnung was on-die ECC ist und du tut jetzt so als wäre ich derjenige der 'auf dem Schlauch" steht.

One of the dangers of DDR5 marketing is that vendors are going to market DDR5's 'on-die ECC' functionality as if it's traditional ECC

On-die ECC is only for physical reliability to increase yielding dies. You still need module-wide and controller ECC support for traditional ECC

Redundanz um die Ausbeute zu erhöhen.

There are a lot of users (and press) who talk about it but don't understand the difference. I'm seeing a number of my journalist peers making this error, which misinforms those that might be casually interested.

https://twitter.com/IanCutress/status/1401834748402716672



„An on-die ECC included in the DRAM IC is also available for self-recovery of the DRAM unit, ensuring that DRAM systems with DDR5 can obtain higher levels of stability.“

This is also misleading. On-die ECC ensures that DDR5 works as it should - nothing more.

It was TeamGroup's product page I used in my on-die ECC video to showcase this sort of misinformation. It's only going to get more prevalent.
https://twitter.com/aschilling/status/1405781752350711810

On-die ECC detects and corrects errors in the DRAM cells that may occur during, for example, a DRAM row refresh. Due to increasing error rates as process technology reduces the size of memory cells, on-die ECC sustains the yield of "good" memory cells. On-die ECC is completely invisible to the system. Its implementation, encoding/decoding algorithms, and metadata are all fully contained within the DRAM device and provide no feedback about error detection and/or correction to the rest of the system

https://www.memtest86.com/ecc.htm

w0mbat
2021-10-02, 18:17:28
So wie ich dich verstehe willst du darauf hinaus, dass die kleineren Strukturgrößen von DDR5 fehleranfälliger sind und das on-die ECC quasi eine Voraussetzung ist, dass es überhaupt funktioniert. Das ist allen hier klar, du musst dich nicht zigfach wiederholen.

Aber das on-die ECC wird nicht unterscheiden können, ob es einen Fehler aufgrund der kleinen Zellen gibt, oder ob der durch OC entstanden ist. D.h., wenn die Übertragung nicht betroffen ist (wo das on-die ECC ja nicht wirkt), kann on-die ECC sehr wohl bis zu einem gewissen Maß Fehler bekämpfen, die durch einen höheren Takt entstehen. Da die Korrektur aber Zeit braucht, könnte das Leistung kosten.

Aber vielleicht stimmt das auch nicht und meine Vorstellung ist falsch. Deine Aussagen zu on-die ECC stimmen auf jeden Fall.

Unicous
2021-10-02, 18:52:03
Da die Korrektur aber Zeit braucht, könnte das Leistung kosten.

Eine Behauptung aufgestellt ohne konkrete Beweise oder gar Anhaltspunkte.:wink:

Das on-die ECC ist wie gesagt gar nicht transparent für das System, daher sind jegliche vermeintliche Performanceeinbußen gar nicht nachvollziehbar. Es wird weder die Stabilität noch die Performance beeinflusst. Und wenn es denn so wäre, gehe ich mal von einer Einbuße von 1-2% aus, normales ECC hat auch nicht so krasse Performanceeinbußen, ich weiß gar nicht wo ihr den Quatsch überhaupt her habt. Und sobald übertaktet an den Timings herumgedoktert wird wird greift ECC eh nicht mehr.:wink:

iamthebear
2021-10-02, 21:53:05
1.) Wie soll on die ECC Performance kosten wenn die Timings von der CPU vorgegeben werden?
Falls die Korrektur eines Bits zusätzliche Zeit benötigt kann das sogar zum gegenteiligen Effekt mit zu scharfen Timings führen: Das System wird einige Zeit laufen aber beim ersten Bit das umfällt (was dann ja regelmäßig passiert) wird das System crashen da nicht mehr genug Zeit ist damit der RAM die Fehler korrigieren kann

2.) Ein Teil der Stabilität von ECC kommt daher, dass ECC RAM immer mit JEDEC Timings läuft. Das wäre bei DDR4-3200 CL32. Ich weiß nicht ob das ein Gamer haben will.

3.) On die ECC ist dazu da, damit der RAM kleiner gefertigt werden kann. Die Fehlerrate ist fix einberechnet und RAM mit einzelnen fehlerhaften Zellen wird trotzdem ausgeliefert.
DDR5 ECC braucht meiner Ansicht nach noch weitere ECC Blöcke, die eben nur für das Full ECC vorhanden sind als zusätzliche Reserve und RAM, bei dem das on Die ECC scheitert und das Full ECC anschlägt darf nicht ausgeliefert werden.

4.) Intel zieht eine klare Trennlinie zwischen Desktop und Server. Dass die Desktop CPUs kein ECC haben soll verhindern, dass diese in Servern eingesetzt werden, wo diese nicht hin gehören, da sie die Qualitätskriterien dafür nicht erfüllen.
Bei AMD ist das kein Thema, da sie bei den Server CPUs sowieso keine höheren Qualitätsstandards als im Desktop haben.

BlacKi
2021-10-02, 22:37:14
performance einbuße deshalb, weil ich vermute, das die fehlerkorrektur zeit kostet.

Freestaler
2021-10-02, 23:11:02
Iamthebear, 1 okay, 2 und 3 naja sehr allgemein, jedoch 4tens kann nicht sein. Corei3 und Atom mit ECC. Welche Qualitätsmerkmale sollten das sein?
Da wird doch niemals so wie von Dir beschrieben unterschieden. Da gehts rein ums Geld. Wer ECC braucht soll "BusinessPremiumline" kaufen. https://ark.intel.com/content/www/us/en/ark/search/featurefilter.html?productType=873&0_StatusCodeText1=3,4&0_ECCMemory=True
Oder hast ne Quelle? Ich glaube nicht, das Intel für die Core und Atom mit ECC eigene Masken bereit hält. Und wenns nur ne selektierung ist, wäre dies ja auch sonst möglich.

Langlay
2021-10-03, 00:20:37
Iamthebear, 1 okay, 2 und 3 naja sehr allgemein, jedoch 4tens kann nicht sein. Corei3 und Atom mit ECC. Welche Qualitätsmerkmale sollten das sein?
Da wird doch niemals so wie von Dir beschrieben unterschieden. Da gehts rein ums Geld. Wer ECC braucht soll "BusinessPremiumline" kaufen. https://ark.intel.com/content/www/us/en/ark/search/featurefilter.html?productType=873&0_StatusCodeText1=3,4&0_ECCMemory=True
Oder hast ne Quelle? Ich glaube nicht, das Intel für die Core und Atom mit ECC eigene Masken bereit hält. Und wenns nur ne selektierung ist, wäre dies ja auch sonst möglich.


4. ist sowieso ein Bullshitargument. Bei AMD sitzt der Speicherkontroller ja im I/O-Die und die sind nicht gleich zwischen Ryzen und Threadripper/Epyc. Daher kann er garnicht wissen ob es für das I/O Die vom Threadripper/Epyc höhere Anforderungen gibt als für Ryzen.

iamthebear
2021-10-03, 21:31:42
Welche Qualitätsmerkmale sollten das sein?

Hier geht es eher um höhere Qualitätskontrolle und mehr Tests für die Plattform. In der Regel kommt eine neue Server Plattform erst 1 Jahr nach den Desktop/Mobile CPUs. Hier spielt der Desktop/Mobilemarkt Betatester.
Weiters sind auch die Taktreserven in der Regel höher als bei Desktop CPUs bzw. wird generell bei der Qualitätskontrolle etwas mehr wert auf die Serversparte gelegt.

Gleichzeitig muss Intel aber auch dafür sorgen, dass es auch objektive Unterschiede zwischen den Plattformen gibt und das ist eben mal ECC, Dual Sockel usw.

AMD macht mit Threadripper vs. Epyc auch dasselbe nur sind es dort die PCIe Lanes bzw. der Support von mehr RAM.

r3ptil3
2021-10-03, 22:01:34
AMAZON Niederlande hatte Alder Lake anscheinend schon mal gelistet:

https://cdn.videocardz.com/1/2021/10/Intel-Core-i9-12900K-Amazon-768x479.jpg

https://cdn.videocardz.com/1/2021/10/Intel-Core-i7-12700K-Amazon-768x477.jpg

https://cdn.videocardz.com/1/2021/10/Intel-Core-i5-12600K-Amazon-768x473.jpg

https://videocardz.com/newz/dutch-amazon-begins-listing-intel-core-i9-12900k-at-847-eur-other-alder-lake-cpus-listed-as-well

Vielleicht gibt's wie bei Rocket Lake auch Wochen vorher schon lagernde und bestellbare Modelle.

Wer traut Intel ohne Reviews und würde bestellen, wenn demnächst Modelle lagernd und bestellbar wären? :freak:

iamthebear
2021-10-03, 23:10:26
Um 840 Euro? Na klar unbedingt :D

Engineering Samples werden ja schon seit 2 Monaten verkauft. Nur was nutzt einem das ohne passendes Board.

Und gelistet ist Alder Lake bei europäischen Händlern auch schon deutlich länger z.B. bei beat-it:
https://www.beat-it.nl/intel-bx8071512900k

Sind zwar Nettopreise aber der 11900K ist nur 15 Euro billiger. Somit können wir davon ausgehen dass der 12900K dasselbe kosten wird wie der 11900K

performance einbuße deshalb, weil ich vermute, das die fehlerkorrektur zeit kostet.

Die RAM Timings werden fix von der CPU vorgegeben. Es wird ein Kommando gesendet und in exakt. 40 Taktzyklen (bei CL40) wird das Ergebnis gelesen. ECC passiert am RAM selbst d.h. wenn dies Zeit kosten sollte (was es wahrscheinlich tut), so muss das der RAM Trotzdem in den 40 Zyklen hin bekommen um die Daten rechtzeitig zu liefern.
Der RAM kann nicht einfach wegen ECC 10 Zyklen länger brauchen, denn dann würde die CPU trotzdem nach 40 Zyklen versuchen die Daten abzugreifen und nur Schrott lesen.

QUERSCHLÄGER
2021-10-03, 23:10:47
Ich sehe schon, vielleicht einfach doch Sockel1200 reinknallen und bis 2027 Ruhe haben. Auch wenn das erste preisliche Gehversuche sind, soviel Performanceplus kann da gar nicht rausspringen, um das wieder ein bisschen einzufangen.

**edit: Bist mir noch dazwischen gekommen. Egal, wir gucken in ein paar Wochen einfach mal. Meine Aussage könnte aber fast so stehen bleiben, weil Mobo und Speicher wollen ja auch erstmal bezahlt werden.

w0mbat
2021-10-03, 23:51:43
Wieso bis 2027? Und wieso hast du bis dahin nicht mit einem 5900X Ruhe?

Der 12600K für um die 300€ könnte ein echt gutes P/L-Verhältnis haben.

Slipknot79
2021-10-04, 00:49:29
640EUR für nen 8-Kerner. (y)
850EUR für den anderen 8-Kerner. (y)


Da muss man AMD schon wieder loben, für <850EUR gibts von AMD nen vollwertigen 16 Kerner (y).

QUERSCHLÄGER
2021-10-04, 01:47:52
Wieso bis 2027? Und wieso hast du bis dahin nicht mit einem 5900X Ruhe?

Der 12600K für um die 300€ könnte ein echt gutes P/L-Verhältnis haben.

War grob geschätzt. Ich schreibe ja nun nicht sooo viel, aber hin und wieder ist mal von mir eingeflossen, daß ich jetzt im 6,5. Jahr mit einem 4670 unterwegs bin (i5, Vierer ohne ht). Von dem man mir schon 2015 beim Kauf abgeraten hat. War aber gebraucht samt PC, da mir meiner abgeraucht war (**edit: ..und ich gucke gerade mal bei Geizhals, auf dem Markt gekommen war der schon zu dem Zeitpunkt vor zwei Jahren, nämlich Sommer 2013 huijui..). Kein Bock auf Fehlersuche und Gefrickel. Kleinanzeigen, drei Scheine, her damit. Und es kamen und gingen die Spiele und man deinstalliert sie wieder nach dem Abspann und es vergehen die Jahre.

Wenn jetzt was neues kommt, wird es irgendwas zwischen 10/11400f bis 10/11700f. Und daher kommt grob die Einschätzung, wie lange es sich damit zufriedenstellend spielen läßt. Ich bin mir sicher, selbst mit dem kleineren 6er lassen sich problemlos die nächsten 5 Jahre überbrücken, womit wir schon bei 2026 wären. Auf das eine Jahr schielen wir jetzt mal nicht, war vorhin einfach so geschrieben von mir. Der 8er wäre das Sahnehäubchen, wird aber auch lange Zeit nicht zwingend sein, auch wenn alle wieder schreien "die neuen Konsolen". Als ließe sich sich von heute auf morgen alles parallelisieren und acht Kerne würden sinnvoll genutzt. Ja, das gibt es heute vereinzelt auch schon, aber jeder 6er stellt ebenso gute fps dar. Neue Spiele fressen unter Umständen auch Jahre an Entwicklungszeit, man wird also nicht gleich ab 2024 nichts mehr reißen können unterhalb von 8 Kernen. Hätte ich eine 144hz-Schüssel, würde ich da vielleicht auch anders denken, es hat aber seinen Grund, warum ich nicht allen Schnickschnack mitmache.

Aufhänger war: Alder Lake wird mit allem drumrum unter'm Strich vermutlich nicht nur einen Hunni in der Summe mehr kosten als o.g. Sachen, daher müßte da echt schon ein Performancegewinn von +20% in Spielen auftauchen, um für mich interessant zu werden. Oder aber die Effizienz steigert sich beachtlich. Sonst wäre mir der Aufpreis zu hoch und das, obwohl ich nichtmal schlecht verdiene. Kaufe lieber Bewährtes und nicht zwingend das Beste, nur um in Foren Schwanzvergleichen standhalten zu können. So oft bin ich nicht mal in einem, ich müßte mir also zu Hause für mich einen keulen :biggrin:.

Nein, das hört sich grantiger an, als ich in Wirklichkeit bin. Würde ich tatsächlich zB. den FluSi2020 oder ähnlich aufwändige Software spielen, würde ich auch ein Regal hören greifen müssen. Aber selbst RDR² lief auf meiner Möhre noch mit 60fps (außer in Saint Denis, dort ging es CPU-bedingt auf unter 50Bilder/s). Viel mehr darüber war auch nicht mehr in all den Jahren, deswegen war ich ja immer noch nicht im Laden. Ich gucke mir AL jetzt noch an in ein paar Wochen und dann entscheiden wir mal.

Zum 5900x: a) Ich will keinen AMD (mein letzter war ein Barton vor fast 20 Jahren) und b) schon gar keinen 12Kerner für ~450€ oder was die derzeit kosten. Totaler overkill für mich. 6 oder 8 und ihr werdet keinen Beitrag diesbezüglich mehr von mir sehen bis.. ja, wahrscheinlich 2027 :P.

BlacKi
2021-10-04, 17:09:53
640EUR für nen 8-Kerner. (y)
850EUR für den anderen 8-Kerner. (y)


Da muss man AMD schon wieder loben, für <850EUR gibts von AMD nen vollwertigen 16 Kerner (y).
und was will ein gamer damit? zumal das nicht die launchpreise sein werden. die cpus werden sicher günstiger kaufbar sein.

VooDoo7mx
2021-10-04, 20:02:02
640EUR für nen 8-Kerner. (y)
850EUR für den anderen 8-Kerner. (y)


Da muss man AMD schon wieder loben, für <850EUR gibts von AMD nen vollwertigen 16 Kerner (y).
Nur ist jetzt schon abzusehen dass sowohl in ST als auch MT Workloads schneller als der vollwertige 16 Kerner sein.
Da kannst du noch so viele niveaulose Kindergartenpostings hier ablassen.


Der 12600K für um die 300€ könnte ein echt gutes P/L-Verhältnis haben.

Ich glaube bei mir wird es auch der 12600K werden. Für einen gaming PC ist alles darüber meiner Meinung nach Geldverschwendung.
Bei ST wir der wohl die ganze AMD Mannschaft vermöbeln und bei MT wohl zwischen 5800X und 5900X liegen.
Mal sehen was der dann so OC und UV kann.

Platos
2021-10-04, 20:05:37
Vor allem gehts hier um eine Vorablistung eines Händlers. Es gab auch schon andere, mit praktisch identischen Preisen wie bei Rocketlake.

Eine Vorablistung sagt wenig aus.

Slipknot79
2021-10-05, 01:55:49
und was will ein gamer damit? zumal das nicht die launchpreise sein werden. die cpus werden sicher günstiger kaufbar sein.

Die Frage can man auf Intel und AMD ballern.
Im GPU Limit sind sowieso alle Mainstream bis HighEnd CPUs der letzten wenigen Generationen gleich.
Was will Intel also wirklich mit seinem 850EUR 8-Kerner beim Gamer? Oo
Unter 640EUR hat Intel nicht mal irgendwas neues für Gamer anzubieten. Der 12600 ist ja überhaupt nur ein 6-Kerner mit verkrüppelten Little-Cores die die anderen 6 Big-Cores bremsen. Wie kommt man überhaupt auf solche Ideen. :confused: Oo




Da kannst du noch so viele niveaulose Kindergartenpostings hier ablassen.


Nana, warum gleich so unentspannt. Dankbarkeit erwarte ich, der Post hat genau den, der es nötig hat, getriggert. (y) Ich werde auf weitere Shice von dir nicht mehr eingehen, du bist mir einfach zu erniedrigt aufgetreten.


Vor allem gehts hier um eine Vorablistung eines Händlers. Es gab auch schon andere, mit praktisch identischen Preisen wie bei Rocketlake.

Eine Vorablistung sagt wenig aus.


Ich glaube nicht, dass Intel plötzlich zum liebevollen Knuddelbärchen wird und den 12900k um 550EUR rausballert. Die 850EUR passen schon ganz gut zu den bisherigen Leistungsleaks.
Sonst müsste der 12600k auch auf 200EUR dropen... Genau, ganz bestimmt wird das passieren. (y)
Außerdem würde sich Intel selbst Konkurrenz zum Rocket Lake machen.
Dazu müssten alle gerade verfügbaren Intel CPUs bis zum Coffee Lake R im Preisgefüge ordentlich droppen. AMD müsste extrem nachziehen, nicht sehr realistisch in einem Oligopol und Intel hat es schon mal gar nicht nötig.

BlacKi
2021-10-05, 05:27:23
Die Frage can man auf Intel und AMD ballern.
Im GPU Limit sind sowieso alle Mainstream bis HighEnd CPUs der letzten wenigen Generationen gleich.
Was will Intel also wirklich mit seinem 850EUR 8-Kerner beim Gamer? Oo
Unter 640EUR hat Intel nicht mal irgendwas neues für Gamer anzubieten. Der 12600 ist ja überhaupt nur ein 6-Kerner mit verkrüppelten Little-Cores die die anderen 6 Big-Cores bremsen. Wie kommt man überhaupt auf solche Ideen. :confused: Oo
dank des ausserordentlich guten AotS benchmarks, muss man davon ausgehen, das die littlecores sehr gut performen. die sind nicht unnütz. einen 16threader für 260€ mit besserer ST performance als die beste amd cpu macht halt einfach einen guten eindruck. generell kaufe ich cpu perforance nach ST performane im cpu limit und preis ausgerichtet. bei mir würde der 12600k vermutlich aber auch nur ein jahr verbleiben, bis raptorlake. der wertverlust wäre erheblich geringer mit einem 12600k.

Hakim
2021-10-05, 05:48:50
Finde es cool das Be quiet gegen eine kleine Gebühr LGA 1700 Montage kits für die aktuellen Kühler anbietet. Werde das in Anspruch nehmen.

Irgendwie ist es erstaunlich still bezüglich Z690 mobos, war es früher nicht so das schon Monate vorab alles gezeigt oder geleakt wurde?

Denniss
2021-10-05, 07:35:39
Finde es cooler daß Noctua diese Kits sogar umsonst verschickt.

Slipknot79
2021-10-05, 09:11:40
dank des ausserordentlich guten AotS benchmarks, muss man davon ausgehen, das die littlecores sehr gut performen. die sind nicht unnütz. einen 16threader für 260€ mit besserer ST performance als die beste amd cpu macht halt einfach einen guten eindruck. generell kaufe ich cpu perforance nach ST performane im cpu limit und preis ausgerichtet. bei mir würde der 12600k vermutlich aber auch nur ein jahr verbleiben, bis raptorlake. der wertverlust wäre erheblich geringer mit einem 12600k.

Ich kenne das Spiel AotS nicht, bzw. ob es als PC Spiel speziell auf MT setzt, auch wenn man +8 Cores hat. Machen sich mehr Kerne im Spiel selbst auch bemerkbar? Ist eigentlich auch nicht so wichtig, denn das wäre dann nur 1 Spiel von tausenden das massiv auf MT (+8 Cores) setzt. Ich orientiere mich dann wieder an den Konsolen, also max. 8-Core-Games.

Das mit den little Cores geht irgendwie überhaupt nicht up.
Ich kann nicht behaupten, ich kaufe ne 8C+8c und habe daher nen 16 Kerner.
Das ist auch genauso als würde ich behaupten, ich habe nen 9900k und daher mit 8C+8T 16 Kerne, so zeigt es mir der Task Manager an. Oder ich habe mit dem 12900k nen 24 Kerner weil 8C+8c+8T. oO Und weil der 9900k auch noch eine Grafikeinheit hat, habe ich 2 Grafikkarten und habe SLI, jedoch mangels SLI Support habe ich aber auch nix davon. :redface: Beschnitten ist nunmal beschnitten, warum soll das mit Alder anders sein.
Ich installiere mir ya auch nicht nen Programm, der Games in meine 8T zwingt, Hauptsache ich can sagen ich bin effizient. Auch spiele ich nicht auf der Grafikeinheit der CPU. :cool:

dildo4u
2021-10-05, 09:31:17
Intel kommt ohne die kleinen Cores nicht an AMD dran und es gibt halt wiklich deutlich mher Leute die sich Heute Hobby Mäßig z.b mit Videoschnitt beschäftigen weil sie zu Youtube hochladen.
Sobald du anfängst mit 4k zu arbeiten kommt dir ein 8 Core wie eine Schnecke vor.
Das finde ich auch deutlich realitischer als ständig Cinebench rauszuholen.

Semmel
2021-10-05, 09:58:58
Das mit den little Cores geht irgendwie überhaupt nicht up.
Ich kann nicht behaupten, ich kaufe ne 8C+8c und habe daher nen 16 Kerner.


Äh, 16 Kerne sind 16 Kerne.


Das ist auch genauso als würde ich behaupten, ich habe nen 9900k und daher mit 8C+8T 16 Kerne, so zeigt es mir der Task Manager an.

Du willst vollwertige Kerne also mit HT vergleichen? :ugly:

Ach übrigens, die Big Cores von Alder Lake sind leistungsfähiger als Zen 3. Da kann man einen 5950X doch nicht mehr ernsthaft als 16-Kerner bezeichnen. 12-Kerner wäre angemessener. Der 5900X wird zum 9-Kerner und der 5800X zum 6-Kerner. Nach deiner Logik zumindest. ;D

KarlKastor
2021-10-05, 10:23:06
Der 12600 ist ja überhaupt nur ein 6-Kerner mit verkrüppelten Little-Cores die die anderen 6 Big-Cores bremsen. Wie kommt man überhaupt auf solche Ideen. :confused: Oo

Bitte genauer erläutern.

robbitop
2021-10-05, 11:42:22
Ich glaube, dass einige sich am Begriff big.little (der von ARM ist und hier auch nicht ganz passt - eigentlich passt er nur in relativer Hinsicht) etwas verbeißen. Gracenint erreicht immerhin Skylake Performance. Das war bis vor Kurzem noch Intels Top Dog. Erst Zen 3 schlug diesen - ohne ihn wirklich zu versägen oder ähnliches.

Ein Gracemont Core nimmt 1/4 der Fläche der Golden Coves ein. Aber das ist kein little Core im klassischen Sinne. Das sind schon echte Cores. Nur sind sie eben eine Tucken langsamer pro Core.
Die geleakten MT Benches zeigen, dass man da schon etwas erwarten kann.

Alles was extreme ST Perf braucht ist ab dem 9. Thread doch eh gesättigt. Mit Raptor Lake hat man dann sogar noch mal 8x Gracemonts (oder dessen Nachfolger) mehr.
Es sieht so aus als würde man damit sowohl in ST als auch MT gut fahren. Die ganze Industrie hat verstanden, dass das der im Moment beste Weg ist, die Performance weiter zu steigern.
Auch AMD hat ja mit Zen 5+4D offenbar Ähnliches vor.
Qualcomm, Nvidia, ARM, Intel, Apple und sicherlich auch bald AMD.

Mmn sollte man die reviews erstmal abwarten, bevor man die Ansatz zu sehr abstempelt.

Leonidas
2021-10-05, 11:49:48
Ich glaube nicht, dass Intel plötzlich zum liebevollen Knuddelbärchen wird und den 12900k um 550EUR rausballert. Die 850EUR passen schon ganz gut zu den bisherigen Leistungsleaks.

Ich glaube dagegen nicht, dass nur ein Händler die CPU nicht höher als RKL ansetzt, wenn der Händler nicht klare Signale von Intel bekommen hat, dass derart die Preissituation ist.

Anders formuliert: Bei Vorab-Preisen zählen die 100 Händler mit überzogenen Preisen überhaupt nicht. Der eine mit dem niedrigsten Preis zählt - weil dessen Preis am nähesten am Launchpreis liegt.

Platos
2021-10-05, 12:09:45
Mmn sollte man die reviews erstmal abwarten, bevor man die Ansatz zu sehr abstempelt.

Mehr muss man eigentlich nicht dazu sagen. (den/diesen anstatt die vlt. noch ^^)

fondness
2021-10-05, 12:27:13
Gracenint erreicht immerhin Skylake Performance. Das war bis vor Kurzem noch Intels Top Dog. Erst Zen 3 schlug diesen - ohne ihn wirklich zu versägen oder ähnliches.


Er erreicht (vielleicht) Skylake IPC. Mit <4Ghz aber natürlich bei weitem nicht Skylake Performance.

WedgeAntilles
2021-10-05, 12:37:27
Qualcomm, Nvidia, ARM, Intel, Apple und sicherlich auch bald AMD.


Ne sorry, überzeugt mich nicht - diverse Experten hier im 3DC sagen, dass es nicht funktioniert.
Das scheint mir sehr viel belastbarer und wahrscheinlicher als die paar obskuren Firmen die du hier aufzählst^^

y33H@
2021-10-05, 12:40:30
Der 6700K ging nur bis 4,2 GHz ^^

Piefkee
2021-10-05, 12:49:34
ADL-S lebt oder stirbt alleine über das Thread-Sheduling.
An ein 1/4 Die-Size glaube ich erst wenn ich richte Fotos sehe.

w0mbat
2021-10-05, 13:09:42
Ich könnte mir gut vorstellen, dass ADL Windows 11 quasi braucht um gut zu laufen.

basix
2021-10-05, 13:19:54
Ich könnte mir gut vorstellen, dass ADL Windows 11 quasi braucht um gut zu laufen.

Wenn Gracemont über alle Anwendungen hinweg ähnlich wie Skylake performt, ist es im schlimmsten Fall Comet Lake Niveau (mit Unsicherheit bei den Taktraten). So schlecht ist das nicht.

Thunder99
2021-10-05, 13:41:13
Die wahre Performance sieht man erst mit den Detail Tests. Ab welchem Takt für die selbe Performance ist der Small Core besser als der Big Core, bei MT. Bei wie viel Watt ist es bei einem Power Budget besser die Small Cores zu betreiben als die Big Cores?

Bleibt spannend :)

HOT
2021-10-05, 14:19:34
Wenn Gracemont über alle Anwendungen hinweg ähnlich wie Skylake performt, ist es im schlimmsten Fall Comet Lake Niveau (mit Unsicherheit bei den Taktraten). So schlecht ist das nicht.
Ein Gracemont ist doch viel langsamer als Skylake (bei erheblich weniger Verbrauch). 2 Gracemont sollen so schnell sein wie ein Skylake mit SMT. Das ist ein bisschen was anderes.

basix
2021-10-05, 14:25:00
Ein Gracemont ist doch viel langsamer als Skylake (bei erheblich weniger Verbrauch). 2 Gracemont sollen so schnell sein wie ein Skylake mit SMT. Das ist ein bisschen was anderes.

Mein Informationsstand ist, dass 2 Gracemont so schnell wie Golden Cove ist. Gracemonts IPC soll auf Skylake Niveau liegen (ST).

HOT
2021-10-05, 14:27:20
Das ist mit großer Sicherheit Unsinn. ADL ist deshalb so schnell, weil die Big-Cores erheblich mehr Leistung haben als Zen3 oder RKL. Die Gracemonts füllen das dann auf. Und mein Informationsstand ist, dass 2 Gracemonts so schnell sind wie 1 Skylake@SMT. Performance pro Watt ist in diesem Fall bis zu 40% besser oder Watt pro Performance. Bei wenigen Watt oder so ist Gracemont halt erheblich schneller als Skylake.

basix
2021-10-05, 15:23:49
Das ist mit großer Sicherheit Unsinn. ADL ist deshalb so schnell, weil die Big-Cores erheblich mehr Leistung haben als Zen3 oder RKL. Die Gracemonts füllen das dann auf. Und mein Informationsstand ist, dass 2 Gracemonts so schnell sind wie 1 Skylake@SMT. Performance pro Watt ist in diesem Fall bis zu 40% besser oder Watt pro Performance. Bei wenigen Watt oder so ist Gracemont halt erheblich schneller als Skylake.


Intels Folien höchstselbst sagen da etwas anderes:
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/4

- ST Performance auf Skylake Niveau (1C1T)
- MT Performance bei 4C4T (Gracemont) vs. 2C4T (Skylake) bei +80%

https://images.anandtech.com/doci/16881/E-Core%20perf.jpg

robbitop
2021-10-05, 16:08:31
Mehr muss man eigentlich nicht dazu sagen. (den/diesen anstatt die vlt. noch ^^)

Das iPhone verkackt bei vielen Posts ständig Worte und Buchstaben X-D

Hakim
2021-10-05, 16:38:08
Finde es cooler daß Noctua diese Kits sogar umsonst verschickt.

Gerade nochmal geschaut, wenn man nachweisen kann das man auch ADL und Passendes mobo gekauft hat auch kostenlos.

Piefkee
2021-10-05, 18:05:01
Intels Folien höchstselbst sagen da etwas anderes:
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/4

- ST Performance auf Skylake Niveau (1C1T)
- MT Performance bei 4C4T (Gracemont) vs. 2C4T (Skylake) bei +80%

https://images.anandtech.com/doci/16881/E-Core%20perf.jpg

Da steht aber nur latency und throughput Performance auf der Folie und nicht IPC oder gesamt Leistung

ryan
2021-10-05, 18:30:47
Da steht aber nur latency und throughput Performance auf der Folie und nicht IPC oder gesamt Leistung


Was meinst du ist mit throughput gemeint?


If we compare four of our new Efficient-cores against two Skylake cores running four threads, we deliver 80% more performance while still consuming less power.


Alternatively, we deliver the same throughput while consuming 80% less power. This means that Skylake would need to consume 5 times the power for the same performance.


Intel vergleicht mit der gleichen Taktfrequenz, doch selbst mit Maximaltakt der jeweiligen CPU sollten 4 Gracemont immer noch deutlich über 2 Skylake oder 8 Gracemont deutlich über 4 Skylake liegen.

Der Gracemont MT Boost liegt bei 3700 Mhz im 12900K, während man für Skylake 5000 Mhz ansetzen kann. 35% mehr Takt und SMT reichen für Skylake noch lange nicht aus, um die doppelt so große Anzahl an physischen Kernen von Gracemont auszugleichen. Das würde nur mit einem deutlichen IPC Vorsprung von Skylake möglich sein.

Platos
2021-10-05, 18:56:27
Ne sorry, überzeugt mich nicht - diverse Experten hier im 3DC sagen, dass es nicht funktioniert.
Das scheint mir sehr viel belastbarer und wahrscheinlicher als die paar obskuren Firmen die du hier aufzählst^^

Also ist das jetzt Ironie? Da bin ich mir nicht ganz sicher :D

Ich könnte mir gut vorstellen, dass ADL Windows 11 quasi braucht um gut zu laufen.

Nein, das Thread-Sheduling passiert ja bei Alderlake selbst intern (Hardware) und nicht in Windows.

Mein Informationsstand ist, dass 2 Gracemont so schnell wie Golden Cove ist. Gracemonts IPC soll auf Skylake Niveau liegen (ST).

Ja, aber die Taktrate nicht vergessen. Die wird vlt. bei einem little-core nicht so hoch sein, wie bei nem hochgezüchteten Comet-Lake. Die Perfomance kann also auch nochmals ein (grosses) Stück kleiner ausfallen.

basix
2021-10-05, 21:40:26
Ja, aber die Taktrate nicht vergessen. Die wird vlt. bei einem little-core nicht so hoch sein, wie bei nem hochgezüchteten Comet-Lake. Die Perfomance kann also auch nochmals ein (grosses) Stück kleiner ausfallen.

Da hast du definitiv recht. Intels Folie redet sogar von Performance, was beides abdecken sollte. Intel wird hier sicher etwas Cherry Picking betrieben haben und nicht 100% der Anwendungen werden bei Gracemont schneller laufen. Im Schnitt erwarte ich aber ein Duell auf Augenhöhe bei ST und Vorteil Gracemont bei MT.

Da steht aber nur latency und throughput Performance auf der Folie und nicht IPC oder gesamt Leistung

Throughput ist ja eigentlich klar: MT Anwendungen wie Cinebench werden entsprechend gut performen.

Bei Latency denke ich (Nein, ich bin mir nicht komplett sicher), dass hiermit "Time to Complete" gemeint ist. Was bei Latency Bound und Spikey Lasten (z.B. Webseite öffnen) der Fall ist und somit maximale ST Performance im Vordergrund steht. Die Test Suite ist Specint2017_base, was doch relativ breit gefächert ist.

iamthebear
2021-10-05, 21:43:13
Er erreicht (vielleicht) Skylake IPC. Mit <4Ghz aber natürlich bei weitem nicht Skylake Performance.

Das hast du falsch verstanden. Gracemont erreicht Skylake Performance, die IPC ist nach aktuellem Kenntnisstand ca. 20% höher.
Wichtig zu bedenken: Mit Skylake ist der 6700K (maximal 4.2GHz) gemeint und nicht Comet Lake (maximal 5.3GHz)

Ein Gracemont ist doch viel langsamer als Skylake (bei erheblich weniger Verbrauch). 2 Gracemont sollen so schnell sein wie ein Skylake mit SMT. Das ist ein bisschen was anderes.

2 Gracemont Cores sind laut Intel Folien 80% schneller als 1 Skylake Core mit SMT, verbrauchen aber nur den Platz eines halben Skylake Cores.
2 Gracemont Cores sind ca. so schnell wie 1 Golden Cove Core mit SMT.

Da steht aber nur latency und throughput Performance auf der Folie und nicht IPC oder gesamt Leistung

Intel bezeichnet die ST Performance als Latency (wie lange dauert es bis eine Aufgabe abgearbeitet ist)
MT Performance wird als Throughput bezeichnet (wieviele Aufgaben werden pro Sekunde ausgeführt)

Nein, das Thread-Sheduling passiert ja bei Alderlake selbst intern (Hardware) und nicht in Windows.

Nein das Scheduling macht weiterhin das Betriebssystem. Alder Lake stellt dem Betriebssystem nur zusätzliche Informationen zur Verfügung, damit dieses bessere Entscheidungen treffen kann.

Bisher sieht das Scheduling so aus:
.) Zuerst bekommt jeder physische Kern einen Thread
.) Danach bekommt jeder Thread einen 2. Thread

Mit Alder Lake muss das Scheduling dann so aussehen:
.) Zuerst bekommt jeder Big Core einen Thread
.) Danach bekommen die Little Cores einen Thread
.) Danach bekommen die Big Cores einen 2. Thread

Das ist eine minimale Änderung mit der Alder Lake schon brauchbar laufen würde für Betriebssysteme wie Linux oder eventuell auch Windows 10 falls es unterstützt wird.

Der Thread Director ist ein optionales Feature mit dem die Betriebssysteme das Scheduling noch weiter verbesser können.

Stell dir die folgende Situation vor:
.) Du hast einen 12900K mit 8+8 und Software mit 24 Threads (Volllast)
.) 8 Big Cores führen je 2 Threads aus
.) 8 Little Cores führen je 1 Thread aus
.) Im Schnitt sind die Threads auf den Big Cores so schnell wie auf den Little Cores

Das ist aber nur ein Durchschnittswert. Jetzt kann es Threads geben, die besser auf den Little Cores laufen, da sie nur mit dem Takt skalieren und gerne 2 eiegene Kerne haben.
Oder es gibt Threads, die besser auf den Big Cores laufen, da sie z.B. besser von SMT profitieren oder die neuen AI Befehle nutzen.

Der Thread Director stellt fest welche Art Befehle ein Thread gerade ausführt und führt Statistik wie gut dieser auf welchem Kern läuft bzw. kann Voraussagen machen wie gut dieser auf einem anderen Kern laufen würde. Wie das genau funktioniert ist noch nicht bekannt.
Spekulation meiner Seite: Eventuell fließt hier auch mit ein auf welchem Kern der Thread zuvor schon gelaufen ist wenn dort noch jede Menge Daten im privaten L2 liegen.

Ja, aber die Taktrate nicht vergessen. Die wird vlt. bei einem little-core nicht so hoch sein, wie bei nem hochgezüchteten Comet-Lake. Die Perfomance kann also auch nochmals ein (grosses) Stück kleiner ausfallen.

Der maximale ST Turbo eines Little Cores ist 3.9GHz, der maximale MT Turbo ist 3.7GHz beim 12900K. Beim 10900K waren es 5.3GHz und 5GHz. Comet Lake hatte also 35% mehr Takt, dafür haben die Little Cores ca. 20% mehr IPC (ca. Tiger Lake Niveau).
Der Hauptpunkt ist eben: Sie haben kein SMT.

Verglichen mit den Big Cores kann man 2 Little Cores als 1 Big Core ansehen.

Verglichen mit dem 5950X kann man sagen:
Alder Lake hat 8 Big Cores + 8 Little Cores, der 5950X hat 16 Medium Cores.
Die Big Cores werden voraussichtlich in etwa um das schneller sein was die Little Cores langsamer sind. Der 5950X wird vermutlich etwas weniger Verlustleistung haben, dafür ist der 12900K in alles Situationen deutlich schneller wo keine 32 Kerne genutzt werden.

ryan
2021-10-05, 22:02:05
Das hast du falsch verstanden. Gracemont erreicht Skylake Performance, die IPC ist nach aktuellem Kenntnisstand ca. 20% höher.


Das wäre Sunny Cove/Willow Cove IPC, also nein. Im besten Fall erwarte ich eine IPC 5-10% über Skylake und im ungünstigsten Fall +-0 (auf ein Mittelwert bezogen)




Wichtig zu bedenken: Mit Skylake ist der 6700K (maximal 4.2GHz) gemeint und nicht Comet Lake (maximal 5.3GHz)



Intel sprach auffallend oft von Skylake core in der Architecture Day Präsentation. Ich denke sie haben mehr die Architektur gemeint.

iamthebear
2021-10-05, 23:23:12
1.) Wenn Gracemont dieselbe IPC hätte wie Skylake, dann würden nicht nur die Folien von Intel nicht stimmen, sondern auch so ziemlich alle Leaks, die bisher aufgetaucht sind.
Mit den 20% bin ich aber noch sehr konservativ unterwegs. Leo hat letzte Woche den Gracemont 8 Kernen in CB23 noch 11784 Punkte unterstellt. Das wäre 25% über einem 9700K.

Die ganzen Vergleiche mit Skylake hinken ja insofern da die aktuelle Fertigung ja viel höhere Taktraten zulässt.
Die 20% mehr IPC gegenüber Skylake sind ja nur deswegen möglich, da Intel auf ca. 25% Takt verzichtet hat und die Gracemont kerne sind auch alles andere als energiesparen zumindest bei diesen Taktraten.

2.) Auch wenn Kaby Lake, Coffee Lake und Comet Lake keine IPC Verbesserungen brachten sind das KEINE Skylake Kerne.
Skylake ist genau das was Intel 2016 auf den Markt gebracht hat, nicht mehr und nicht weniger.

basix
2021-10-06, 08:29:18
Skylake ist aber schon der Name der IA-Core Architektur von Skylake bis und mit Comet Lake. Beim Vergleich mit Gracemont bietet sich Ur-Skylake aber an (und Intel nennt das auch offziell Skylake (https://ark.intel.com/content/www/de/de/ark/products/codename/37572/products-formerly-skylake.html)): Ist die tiefste Hürde, da tiefste Taktraten und schlechteste Energieeffizienz ;) Somit kann man Gracemont maximal in Szene setzen. Ur-Skylake ist einfach die erste Implementation von Skylake-IA. Kaby Lake war die zweite Implementation usw.

Ob da nun ein 6600, 6700 ider 6700K oder einen Mobile Chip für den Vergleich genommen hat? Schnellste 2C4T CPU ist der i7-6567U mit 3.3/3.6GHz. Wenn Intel aber explizit den Verbrauchsvorteil in den Vordergrund rücken will, bieten sich eher Desktop-Modelle an.

Ich persönlich würde die Skylake-Cores ohne Produktbezogenheit wählen, entsprechend simuliert. Hier stellt sich dann auch die Frage: Bei Iso-Prozess oder 14nm vs. 10nm? Vermutlich 14nm.

Alles in allem wird es bei der Performance mMn schon darauf hinauslaufen, dass sich Gracemont bei gleichem Takt mit Skylake duelliert. Cinebench etwas mehr, Siele etwas weniger.

Beispielrechnung:
- Golden Cove = 1.4x Skylake (+40% IPC, identische MT Taktraten @ 125W)
- SMT Skalierung = +40% (1C1T vs. 1C2T @ CB20, bei Skylake als auch Golden Cove)
- Gracemont 1C1T = Skylake 1C1T
- 2x Gracemont = 1x Golden Cove 1C2T
- Gracemont = 0.5x Golden Cove 1C2T = 0.7x Skylake 1C2T
- 0.7*1.4 = 0.98 (Skylake 1C1T * 1.4x SMT = 1C2T)
- 0.98 ~ 1 --> Gracemont ~ Skylake IPC (1C1T)
- Hier werden für Golden Cove und Gracemont identische Taktraten angenommen bei CB20

Zum CB20 Score:
- 8x 1.4x Skylake
- 8x 0.7x Skylake
- Total = 8x 2.1x Skylake
- 9900K = ~4800 Punkte in CB20
- 4800 * 2.1 = 10'100 Punkte
- Alderlake-S CB20 Leaks = ~11'000 Punkte

Ja, jetzt kann Golden Cove nochmals +15% Takt verglichen mit Gracemont drauflegen (z.B. 3.5 GHz vs. 4.0 GHz) und wir landen exakt auf 11'000 Punkte. Die Rechnung passt also nicht so schlecht ;)

Zossel
2021-10-06, 08:47:44
Nein das Scheduling macht weiterhin das Betriebssystem. Alder Lake stellt dem Betriebssystem nur zusätzliche Informationen zur Verfügung, damit dieses bessere Entscheidungen treffen kann.

Gibt es dazu schon Details?

OgrEGT
2021-10-06, 08:58:47
https://videocardz.com/newz/asus-z690-motherboards-listed-by-canadian-retailer-starting-at-222-usd

Gem. der Auslegung der Stromversorgung bei Z690 bin ich auf Tests gespannt wie hoch der Stromverbrauch bei ADL ist...

WedgeAntilles
2021-10-06, 09:48:26
Also ist das jetzt Ironie? Da bin ich mir nicht ganz sicher :D

Ja :D

TheAntitheist
2021-10-06, 10:21:06
2.) Auch wenn Kaby Lake, Coffee Lake und Comet Lake keine IPC Verbesserungen brachten sind das KEINE Skylake Kerne.

Doch

Piefkee
2021-10-06, 11:02:34
https://twitter.com/greymon55/status/1445649816692748292?s=21

- ALD-S gaming Performance naja? IPC Verbesserung in Anwendung spiegelt sich nicht so im Gaming dar…

So würde ich es interpretieren

Linmoum
2021-10-06, 11:09:17
Die Vermutung hab ich schon länger, dass das analog zu RKL ablaufen wird. Anwendungen wie erwartet, Gaming dafür... nunja.

Pirx
2021-10-06, 11:10:53
https://twitter.com/greymon55/status/1445649816692748292?s=21

- ALD-S gaming Performance naja? IPC Verbesserung in Anwendung spiegelt sich nicht so im Gaming dar…

So würde ich es interpretieren
kann man den ernst nehmen/weiß er, was er tut?

Piefkee
2021-10-06, 11:15:11
kann man den ernst nehmen/weiß er, was er tut?

Ja ich denke einiger der wenigen der direkt an der Quelle sitzt…
Hat auch Ryzen 3D vor der Vorstellung geleakt

Der_Korken
2021-10-06, 11:38:02
Hier wurden auch schon mal Latenzmessungen für Alder Lake geleakt, wo wir dann spekuliert haben, wie sich das in Takten umrechnet:

https://twitter.com/i/web/status/1437318787070500864

Wenn die so stimmen, dann ist der verdoppelte L3 mit einem starken Anstieg der Latenz erkauft worden, der die Spiele-Performance möglicherweise wieder etwas auffrisst. Auch ist unklar welche RAM-Settings als Basis für so eine Aussage herangezogen werden. Wenn das DDR5 mit CL40 oder CL50 war, ist es kein Wunder, wenn man gegen den Vorgänger mit DDR4 3200 CL14 o.ä. verliert. Ich denke bei der Spiele-Leistung ist man auf (gute!) Reviews angewiesen.

Virtual
2021-10-06, 12:38:53
Jeder darf sich ganz privat die Frage stellen, warum Alderlake in den Monaten vor dem Release nur in 0815-Benchmarks glänzen darf? Selbst Rocketlake hatte schon Monate vor dem Release die erwartete Spiele-Benchmark Aufmerksamkeit bekommen ... und war letztlich doch keine Rakete.

Zugegeben, im Feld der Applikationen war mit Rocketlake kein Applaus zu ernten, aber warum bekommt Adlerlake nicht die Vorschusslorbeeren, auf die so mancher Gamer sehnsüchtig wartet? Warum läuft die PR-Maschine für DEN Spieleprozessor nicht bereits seit Monaten an? Hat sich Intel Understatement antrainiert, ist Intel wirklich bescheiden geworden, oder gibt es einfach bei Spielen nichts Bewegendes zu berichten?

x-dragon
2021-10-06, 12:53:19
... Hat sich Intel Understatement antrainiert, ist Intel wirklich bescheiden geworden, oder gibt es einfach bei Spielen nichts Bewegendes zu berichten?

Zumindest Cheffe ist sehr überzeugt von seinen CPUs :D

"AMDs Führung ist vorbei [...], wir haben das beste Produkt"
...
Konkret nannte Gelsinger zwei kommende Designs, mit denen Intel sich wieder vor AMD platzieren will: Alder Lake alias 12th Gen für Desktops und Laptops sowie Sapphire Rapids alias Xeon SP v4 für Server.
https://www.golem.de/news/intel-ceo-pat-gelsinger-amds-fuehrung-ist-vorbei-wir-haben-das-beste-produkt-2110-160119.html

Tarkin
2021-10-06, 13:21:46
Zumindest Cheffe ist sehr überzeugt von seinen CPUs :D


https://www.golem.de/news/intel-ceo-pat-gelsinger-amds-fuehrung-ist-vorbei-wir-haben-das-beste-produkt-2110-160119.html

Der Herr Gelsinger hat IMO nicht alle Nadeln an der Tanne mit seinen ständigen Bibelversen auf Twitter :rolleyes:

Der macht genau NICHTS anders als seine Vorgänger.

Wie die CEOs davor, ist er ebenso von den gleichen Ja-Sagern im Upper Management umgeben die ihn mit Marketing-BS ala Ryan Shrout füttern :freak:

Das erwarte ich von ADL:

Der Hype Train wird entgleisen und der Launch wird ein ziemliches Desaster. Windows 11, enttäuschende Gaming Performance, schlechte Verfügbarkeit, hohe Preise und schließlich Zen 3 V-Cache werden die Sargnägel sein.

ADL wird an der aktuellen Situation relativ wenig ändern.

fondness
2021-10-06, 13:24:08
Das hast du falsch verstanden. Gracemont erreicht Skylake Performance, die IPC ist nach aktuellem Kenntnisstand ca. 20% höher.
Wichtig zu bedenken: Mit Skylake ist der 6700K (maximal 4.2GHz) gemeint und nicht Comet Lake (maximal 5.3GHz)


Das ist nur Marketing. Unterm Strich ist es so wie ich gesagt habe, er erreicht ~Skylake-IPC, aber eben nicht Skylake-Performance. Außer ich vergleiche mit irgendeinem Uralt-Modell mit ähnlichen Taktraten (und vermutlich auch noch schlechterem Speicher etc.).

Pirx
2021-10-06, 13:24:36
Hatte Intel beim Core2 vorher auch tiefgestapelt? Möglich ist vieles...

WedgeAntilles
2021-10-06, 13:36:25
Jeder darf sich ganz privat die Frage stellen, warum Alderlake in den Monaten vor dem Release nur in 0815-Benchmarks glänzen darf? Selbst Rocketlake hatte schon Monate vor dem Release die erwartete Spiele-Benchmark Aufmerksamkeit bekommen ... und war letztlich doch keine Rakete.


Gerade da es bei RL Spieleleaks gab (und sich bei RL bei der Performance wenig tat) sagt doch das vollständige Fehlen bei AL absolut gar nichts aus?

Warum es bei AL noch nix gibt - keine Ahnung.
Vielleicht weil bei AL viele wichtige Dinge (Win 11, evt. DDR5?, Boards...) ziemlich stark "anders" sind als bei RL.

Gerade was Win 11 angeht hatte doch die News vom 3DC gezeigt, wie wenig da Benchmarks und ähnliches aussagekräftig waren.
Eine andere Versionsnummer später waren am nächsten Tag die Ergebnisse teils deutlich anders.

Die Theorie, dass Intel Leaks verhindern würde, weil die Leaks schlecht wären (Gamingperformance), wird durch RL (bei dem eben genau die ernüchterende Gamingperformance ja geleakt wurde) ad absurdum geführt.

Natürlich stimmt auch das Gegenteil nicht, das keine Leaks kommen, da die Performance so super wird und man vielleicht einen Paukenschlag landen möchte. Ist genauso Kaffeesatzleserei.

Bei AL kommt wie gesagt ziemlich viel Neues zusammen, was genau AL leistet muss man einfach abwarten.
Und ich könnte mir sogar vorstellen, dass sich das Bild bei manchen Spielen noch mal ein ganzes Stück ändert wenn Win 11 "perfektioniert" wird.
Ob da der Scheduler von Anfang an bei jedem Game ideal arbeitet bezweifle ich. Nicht, dass es katastrophal wird. Aber keine Software kommt perfekt optimiert auf den Markt - und je neuer etwas ist (hier Big/Little) desto mehr lässt sich normalerweise im Laufe der Zeit optimieren.

Gleiches gilt für DDR5 - ob DDR5 am Anfang zum zocken ideal ist? Ich tippe 1 Jahr später wird DDR5 deutlich attraktiver für Gamer: Vermutlich schon merklich bessere Timings, dazu (hoffentlich) günstiger.
Ganz am Anfang war eine neue RAM Generation ja meistens nicht gerade die beste Wahl für Preis-Leistung.

Neurosphere
2021-10-06, 13:39:57
https://abload.de/img/screenshot2021-10-061xeku0.jpg

Die Frage ist, sollte es stimmen, ob bessere Unterstützung der Arch da noch was dran ändern kann.

Virtual
2021-10-06, 14:32:32
Hatte Intel beim Core2 vorher auch tiefgestapelt? Möglich ist vieles... ... und die Hoffnung stirbt zuletzt.

Tiefgestapelt? Eher nicht, Intel hatte knapp zwei Monate vor der offiziellen Vorstellung der Computerbase einen Vorabtest mit ausgewählter Software ermöglicht. Es gab dazu im Mai einen Retro-Artikel:
https://www.computerbase.de/2021-05/intel-core-2-duo-e6700-vorabtest-rueckblick/

Intel zeigte ganz selbstsicher, was sie zu bieten hatten. Ebenso selbstsicher präsentierte AMD im Sommer eine Auswahl an Spielebenchmarks für ZEN 3D V-Cache ... schaut her, das könnt ihr bei Spielen von ZEN 3D erwarten.

Intel hat bisher nichts dagegen gestellt. Sind sie einfach nur ganz entspannt ob ihrer Überlegenheit, oder fehlt das Ass im Ärmel?

Wie auch immer, in gut einem Monat, ein Jahr nach ZEN 3, muss Intels Katze aus dem Sack.

WedgeAntilles
2021-10-06, 15:10:53
Naja, solange Win11 nicht sauber ist (und wie gesagt - erst vor 3 Tagen gab es hier im 3DC ja zwei News mit Performance-Aussagen, die sich teils gravierend unterschieden!), wären Benchmarks von Intel auch etwas schwierig.

Noch ca. 4-5 Wochen, dann wissen wir mehr. Ich bin echt gespannt was dann Sache ist. Möglich ist in meinen Augen immer noch eine sehr große Spanne von Ergebnissen. Von "großer Ernüchterung "bis hin zu: "Wow, gute Performance bei gutem Preis (also natürlich nicht für das Spitzenmodell), super Wahl für Gamer." :)

Ich bin eher optimistisch, denke aber dass für Gamer DDR5 noch zu früh kommt und erst 1 Jahr später dann die ideale Wahl sein wird.
So könnte AL noch etwas früh kommen und Raptorlake dann gleich die bessere Alternative sein.

Der 12600K bzw. die "F" Variante die ja afaik Anfang 2022 kommt, wird vermutlich aber die CPU mit bestem Preis-Leistungs-Verhältnis sein, merklich vor AMDs 5600X / 5800X.

aufkrawall
2021-10-06, 15:28:24
Die Frage ist, sollte es stimmen, ob bessere Unterstützung der Arch da noch was dran ändern kann.
Da die 8 P-Cores für Gaming locker reichen, würd ich nicht davon ausgehen, sofern es denn stimmt. Ich würd btw. Ashes als reinen Synthie betrachten, insbesondere den integrierten CPU-Benchmark. Da kann man für die Realität nichts draus ableiten und der Gammel gehört besser ignoriert.

basix
2021-10-06, 17:43:56
ADL-S hat mehr Kerne, mehr IPC, mehr L2$, mehr L3$, ähnliche Taktraten und im Falle von DDR4 vermutlich vergleichbare Latenzen verglichen zu Cometlake und Rocket Lake. Ich sehe keinen Grund, wieso ADL-S nicht schneller sein sollte.

Ist eher die Frage: Wie viel schneller? Die grösseren Caches kosten sicher etwas Latenz, das war zwischen Zen 2 -> Zen 3 aber ebenfalls der Fall.

w0mbat
2021-10-06, 18:00:34
ADL wird schon schneller als Zen3 sein, da traue ich Intel mehr als nem leaker.

maximus_hertus
2021-10-06, 18:34:46
Aufs Gaming bezogen könnte ich mir folgende Reihenfolge vorstellen:

12900K
12700K
5950X
5900X
12600K
5800X
i5-non-K
5600X

Aber erstens kommt es anders und zweitens, als man denkt ;) ISt ja nicht mehr lange hin bis zu den unabhängigen Benchmarks.

Was ich mir sehr gut vorstellen kann: Bei Alderlake wird es noch mehr als ohnehin schon auf den Parcours ankommen. Gerade am Anfang wird es nicht ganz unwichtig sein, welche Spiele getestet werden, da einige wohl besser und einige eher nicht so gut mit ALD performen werden (meine Speku).


Die (große) Frage ist nicht ob schneller als Zen3, sondern wie viel schneller. Sind es unter 5% (im Schnitt), dann sollte der 3D-Cache das wieder für AMD "regeln" bzw. ein XT Refresh könnte das ausgleichen.
Sind es eher 10-15%, würde wohl ein XT Refresh eher nicht reichen, dann wird es interessant was AMD machen wird.

So oder so wird es spannend.

Thunder99
2021-10-06, 19:09:33
War es nicht so, dass sie bei Meteo Lake von einem "Game Cache" reden? Könnte sich bewahrheiten, dass es erst dann so richtig die Performance steigen wird.

ADL jetzt ein wenig mehr, MTL deutlich mehr :confused:

y33H@
2021-10-06, 19:25:12
Alle CPUs mit Win10 und Win11 testen? :ulove:

Pirx
2021-10-06, 19:42:08
+Linux:ulol:

Zossel
2021-10-06, 20:11:03
+Linux:ulol:

Gibt es noch keinen upstream Patch von Intel für dieses ominöse Scheduling was benötigt wird?
Oder ist das ein Windows-only Problem?

Freestaler
2021-10-06, 20:15:23
Oder zumindest je 2? Damit kann man dann gut vergleichen.

Edit: generell, stört mich das noch ST CB 20 und 23, MT aber nur 23 da sind. Wieso?

Blediator16
2021-10-06, 22:52:22
Gibt es noch keinen upstream Patch von Intel für dieses ominöse Scheduling was benötigt wird?
Oder ist das ein Windows-only Problem?

Ne, aber L3 bei AMD CPUs leidet aktuell.

Ab wann fängt eigentlich das sogenannte "copium" an ;D

r3ptil3
2021-10-06, 23:24:32
Aufs Gaming bezogen könnte ich mir folgende Reihenfolge vorstellen:

12900K
12700K
5950X
5900X
12600K
5800X
i5-non-K
5600X



Wenn der 12900K und der 12700k im Gaming vor den Ryzen 5000er sind, dann wird das bei einem 12600k nicht anders sein.

aufkrawall
2021-10-06, 23:27:24
Gibt es noch keinen upstream Patch von Intel für dieses ominöse Scheduling was benötigt wird?
Oder ist das ein Windows-only Problem?
Gibt es noch nicht für Linux. Wie nötig es man mit den Schedulern von Win 10 und Linux wirklich brauchen wird, ist Stand heute Kaffeesatzleserei.
Intel hat für Linux eigentlich immer alles zig Monate vor Release fertig, um so mehr verwundert das hier...

iamthebear
2021-10-07, 04:08:48
Skylake ist aber schon der Name der IA-Core Architektur von Skylake bis und mit Comet Lake. Beim Vergleich mit Gracemont bietet sich Ur-Skylake aber an (und Intel nennt das auch offziell Skylake (https://ark.intel.com/content/www/de/de/ark/products/codename/37572/products-formerly-skylake.html)): Ist die tiefste Hürde, da tiefste Taktraten und schlechteste Energieeffizienz ;) Somit kann man Gracemont maximal in Szene setzen. Ur-Skylake ist einfach die erste Implementation von Skylake-IA. Kaby Lake war die zweite Implementation usw.

Also für mich ist relativ klar, dass Intel sich bei dem Vergleich auf den Ur Skylake bezigen hat und dein Link bestätigt das ja auch, dass Intel z.B. einen 7700K nicht als Skylake sieht, sondern als Kaby Lake

Ob da nun ein 6600, 6700 ider 6700K oder einen Mobile Chip für den Vergleich genommen hat? Schnellste 2C4T CPU ist der i7-6567U mit 3.3/3.6GHz. Wenn Intel aber explizit den Verbrauchsvorteil in den Vordergrund rücken will, bieten sich eher Desktop-Modelle an.

Weder noch. Intel testet hier mit eigenen Engineering Samples, die genau dem entspricht, was man testen will d.h. wenn Intel von "1 Golden Cove Core" spricht, dann ist auch nur ein einzelner gemeint mit dementsprechend wenig L3 Cache. Intel fährt ja Unmengen an Tests mit solchen Kombinationen. Die Entscheidung welches Produkt dann daraus gemacht wird kommt erst sehr viel später.

Ich persönlich würde die Skylake-Cores ohne Produktbezogenheit wählen, entsprechend simuliert. Hier stellt sich dann auch die Frage: Bei Iso-Prozess oder 14nm vs. 10nm? Vermutlich 14nm.

Natürlich bei 14nm. Es gibt keinen Skylake Kern in 10nm. Diesen müsste Intel für einen mittleren 9 stelligen Betrag designen.
Es ist auch genau die 14nm Fertigung gemeint, die bei Skylake zum Einsatz kam, nicht die 14nm+++++ von Comet Lake wo 5.3GHz möglich waren.

Alles in allem wird es bei der Performance mMn schon darauf hinauslaufen, dass sich Gracemont bei gleichem Takt mit Skylake duelliert. Cinebench etwas mehr, Siele etwas weniger.

Ja das denke ich auch. Gracemont ist vermutlich eine Spur schneller, wird sich aber in den üblichen Konfugurationen kaum auf Dauer am Limit betreiben lassen ohne die TDP zu überschreiten.


Beispielrechnung:
- Golden Cove = 1.4x Skylake (+40% IPC, identische MT Taktraten @ 125W) - sehe ich auch ca. so (meine Berechnung ergibt 35%) aber bezogen auf Comet Lake nicht Skylake, gegenüber Skylake gibt es auch noch 25% mehr Takt, gesamt +70% bei unlimitierter TDP, wie hoch die Taktraten bei 125W abfallen wird von der Anwendung abhängen
- SMT Skalierung = +40% (1C1T vs. 1C2T @ CB20, bei Skylake als auch Golden Cove) - CB23 waren es 33%, auf den Intel Folien auch, die 40% sind denke ich eher das obere Limit
- Gracemont 1C1T = Skylake 1C1T - jep denke Gracemont 5-10% darüber
- 2x Gracemont = 1x Golden Cove 1C2T - ja sehe ich genauso
- Gracemont = 0.5x Golden Cove 1C2T = 0.7x Skylake 1C2T - Wenn du wirklich Skylake meinst wären es 0.85x statt 0.7x
- 0.7*1.4 = 0.98 (Skylake 1C1T * 1.4x SMT = 1C2T) - Meine Berechnung 0.85 x 1.33 = 1.13x
- 0.98 ~ 1 --> Gracemont ~ Skylake IPC (1C1T) - Gracemont 13% schneller als Skylake, bei der Intel Folie waren es knapp 10%, dürfte als nicht so verkehr sein
- Hier werden für Golden Cove und Gracemont identische Taktraten angenommen bei CB20

Habe oben meine vermuteten Werte in die Kommentare geschrieben

Zum CB20 Score:
- 8x 1.4x Skylake
- 8x 0.7x Skylake
- Total = 8x 2.1x Skylake
- 9900K = ~4800 Punkte in CB20
- 4800 * 2.1 = 10'100 Punkte
- Alderlake-S CB20 Leaks = ~11'000 Punkte

Ja, jetzt kann Golden Cove nochmals +15% Takt verglichen mit Gracemont drauflegen (z.B. 3.5 GHz vs. 4.0 GHz) und wir landen exakt auf 11'000 Punkte. Die Rechnung passt also nicht so schlecht ;)

Der maximale Takt von Golden Cove beim 12900K ist 5.3GHz
Der maximale Takt von Gracemont beim 12900K ist 3.9GHz

Golden Cove hat also 35% mehr Takt

Meine Rechnung:
8x1.7 Skylake
8x1.13/1.33 Skylake
Gesamt 20.4 Skylake

9900K sind 8*4.7/4 = 9.4 Skylake

4800 * 20.4 /9.4 = 10400

Fehlen in Summe noch 6%. Jetzt muss man noch berücksichtigen, dass Alder bei Cinebench mehr zugelegt hat und wir düften wieder in etwa dort sein.

Gibt es dazu schon Details?

Hier sind ein paar Intel Folien
https://www.computerbase.de/2021-08/hot-chips-33-intel-alder-lake-steht-und-faellt-mit-dem-thread-director/

Hier wurden auch schon mal Latenzmessungen für Alder Lake geleakt, wo wir dann spekuliert haben, wie sich das in Takten umrechnet:

https://twitter.com/i/web/status/1437318787070500864

Wenn die so stimmen, dann ist der verdoppelte L3 mit einem starken Anstieg der Latenz erkauft worden, der die Spiele-Performance möglicherweise wieder etwas auffrisst. Auch ist unklar welche RAM-Settings als Basis für so eine Aussage herangezogen werden. Wenn das DDR5 mit CL40 oder CL50 war, ist es kein Wunder, wenn man gegen den Vorgänger mit DDR4 3200 CL14 o.ä. verliert. Ich denke bei der Spiele-Leistung ist man auf (gute!) Reviews angewiesen.

Eine Vergrößerung des L3 erhöht in der Regel die Latenzen des L3. Dasselbe gilt für den L2. Dies ist jedoch im Fall von Alder Lake nicht der Fall. Hier mein Post dazu von Seite 119:

Ich komme hier also auf:
L1: 4 Takte / 4.6 = 0.87ns (aufgerundet auf 0.9ns)
L2: 12 Takte / 4.6 = 2.609ns (abgerundet auf 2.6ns)
L3: 55 Takte / 4.6 = 11.956ns (aufgerundet auf 12ns)

Zum Vergleich mein 9900K mit AIDA64 gemessen:
L1: 1ns
L2: 2.9ns
L3: 13.4ns

Es sieht also sogar nach einer Verbesserung aus.

Die RAM Latenzen sind davon nicht betroffen. Dies dürfte nur durch die katastrophalen DDR5 Timings kommen allerdings sollte sich das mit mehr Threads die auf den RAM warten wieder neutralisieren da DDR5 2 Speicherkanäle pro Riegel hat.

Jeder darf sich ganz privat die Frage stellen, warum Alderlake in den Monaten vor dem Release nur in 0815-Benchmarks glänzen darf? Selbst Rocketlake hatte schon Monate vor dem Release die erwartete Spiele-Benchmark Aufmerksamkeit bekommen ... und war letztlich doch keine Rakete.

Ich denke das hängt damit zusammen, dass noch keiner ein passendes Board zur Verfügung hat und die paar Leute die sowohl CPU als auch Board und DDR5 haben stehen vor der Frage mit welchem Betriebssystem sie testen.

Das ist nur Marketing. Unterm Strich ist es so wie ich gesagt habe, er erreicht ~Skylake-IPC, aber eben nicht Skylake-Performance. Außer ich vergleiche mit irgendeinem Uralt-Modell mit ähnlichen Taktraten (und vermutlich auch noch schlechterem Speicher etc.).

Wenn du mit uralt Modellen den 6700K mit maximal 4.2GHz und Support bis DDR4-2133 meinst: Ja genau das ist Skylake. Niemand hat behauptet, dass Gracemont Kerne einen Comet Lake Kern mit 5.3GHz schlagen kann.
Gracemont hat beim 12900K maximal 3.9GHz also 7% weniger Takt ist aber ca. 10% schneller. Von daher kommen die knapp 20% höhere IPC. Es wird natürlich Anwendungen geben, wo die IPC gleich ist, es gibt aber auch Anwendungen wie Cinebench R23, wo die Gracemont Kerne mehr als die 1.2 fache IPC haben.

Da die 8 P-Cores für Gaming locker reichen, würd ich nicht davon ausgehen, sofern es denn stimmt. Ich würd btw. Ashes als reinen Synthie betrachten, insbesondere den integrierten CPU-Benchmark. Da kann man für die Realität nichts draus ableiten und der Gammel gehört besser ignoriert.

Die 8 P Cores werden reichen. Es könnte jedoch sein, dass wenn man auf Windows 10 testet und das Alder Lake noch überhauot nicht kennt, dass dieses oft einen Thread auf einen Little Core legt obwohl noch ein Big Core frei ist. Das ist ein Problem, das bei den ganzen Cinebench Tests beim MT Test nicht auftritt, da dort ja sowieso alle 24 Threads ausgelastet sind.

War es nicht so, dass sie bei Meteo Lake von einem "Game Cache" reden? Könnte sich bewahrheiten, dass es erst dann so richtig die Performance steigen wird.

Ich denke dass hier einfach wie bei AMD einfach mehr L3 draufgepackt wird.

Gibt es noch nicht für Linux. Wie nötig es man mit den Schedulern von Win 10 und Linux wirklich brauchen wird, ist Stand heute Kaffeesatzleserei.
Intel hat für Linux eigentlich immer alles zig Monate vor Release fertig, um so mehr verwundert das hier...

Der Thread Director kommt mit Linux erst deutlich später aber ich sehe den nicht als zwingend notwendig an. Das wichtige ist nur, dass das OS die big und little Cores unterscheiden kann und zuerst die Big Cores befüllt. Das sollte Linux auch relativ schnell hin bekommen. Ob es unter Windows 10 noch implementiert wird ist wieder eine andere Frage.

Zossel
2021-10-07, 06:57:28
Intel hat für Linux eigentlich immer alles zig Monate vor Release fertig, um so mehr verwundert das hier...

Wundert mich auch. Ist das noch mit der heißen Nadel gestrickt?

Hier sind ein paar Intel Folien
https://www.computerbase.de/2021-08/hot-chips-33-intel-alder-lake-steht-und-faellt-mit-dem-thread-director/

Ok, die CPU sammelt Thread spezifische "Perfomance" Daten um den Scheduler Hints zu geben, mir fällt allerdings auf Anhieb nichts ein woran die CPU erkennen kann welcher Thread gerade aktiv ist, der Stackpointer ist ziemlich volatil, wahrscheinlich muß der Scheduler diese Infos an die HW übergeben, bzw. die Software/Scheduler muss einen großen Teil der Verwaltung übernehmen.

Allerdings können auf einer Kiste durchaus mehrere Zehntausend Threads aktiv sein, da könnte die Verwaltung dieser Informationen Aufwand nach sich ziehen, aber eigentlich will man ja möglichst schnelle Context-switche. Weitere Corner-Cases gibt es bestimmt jede Menge.

Alles sehr mysteriös, da hilft wohl nur warten bis es weitere Infos gibt und die Linux-Kernel-Entwickler das kommentieren, ich bin gespannt.

Das wichtige ist nur, dass das OS die big und little Cores unterscheiden kann und zuerst die Big Cores befüllt. Das sollte Linux auch relativ schnell hin bekommen. Ob es unter Windows 10 noch implementiert wird ist wieder eine andere Frage.

Wenn das nur so einfach wäre .......

dildo4u
2021-10-07, 07:20:45
CPU-Z Werte vom 12700k.


https://wccftech.com/intel-core-i7-12700k-12-core-alder-lake-cpu-z-benchmark-leaks-out-up-to-45-faster-than-amd-ryzen-7-5800x-core-i9-11900k/

r3ptil3
2021-10-07, 07:40:49
Der Single-Score hat es schon in sich.

Jetzt muss man nur noch wissen, ob das auch in der Realität (Gaming) so umgesetzt werden kann.

dildo4u
2021-10-07, 08:02:22
Gameing war doch nicht das Problem, eher Multicore Leistung für den Stromverbrauch.

https://www.pcgameshardware.de/CPU-CPU-154106/Tests/Rangliste-Bestenliste-1143392/

Freestaler
2021-10-07, 09:05:12
400 Euro gegen aktuell 480 Euro (5900x), 228Watt (min. Evtl mehr) vs 142 Watt. 2021 CPU gegen 2020. Im CPUZ gerade mal anschluss geschaft im Multicore. Habe mir da mehr erhofft nach hier gezeigten Rechnungen. Vielleicht reist ja ST Power was in den Games.

12700k kommt auch 21 noch? Oder wie die anderen nicht TopDog erst Q1 22?

WedgeAntilles
2021-10-07, 09:32:46
War es nicht so, dass sie bei Meteo Lake von einem "Game Cache" reden? Könnte sich bewahrheiten, dass es erst dann so richtig die Performance steigen wird.

Raptor Lake. IIRC hatte Intel das als "improved cache for gaming" oder so ähnlich auf ihren Folien beschrieben.

Natürlich ist eine Aussage "besser auf nächste Generation" warten fast immer richtig - meistens bekommt man mehr Frames pro Euro.
Aber bei AL / Raptorlake könnte das wegen DDR5 tatsächlich ganz besonders gut passen.
Ganz unabhängig von der CPU gehe ich davon aus, dass wir in einem Jahr merklich besseren DDR5 bekommen zu einem merklich besseren Preis.
Wenn kein Aufrüst-Druck herrscht bekommt man da ein Jahr später zum zocken vielleicht wirklich ein bessers Produkt - zu niedrigerem Preis.
Ganz am Anfang sind die Fortschritte bei einem neuen Produkt ja meistens am höchsten.

WedgeAntilles
2021-10-07, 09:34:50
12700k kommt auch 21 noch? Oder wie die anderen nicht TopDog erst Q1 22?

12900K, 12700K und 12600K kommen 2021 IIRC.
Die anderen Modelle Anfang 2022.

monstar-x
2021-10-07, 10:35:48
400 Euro gegen aktuell 480 Euro (5900x), 228Watt (min. Evtl mehr) vs 142 Watt. 2021 CPU gegen 2020. Im

Da bin ich auch mal gespannt, bei 5.3 GHz (Single Core) mit >200 Watt, wird er diesen Takt nicht lange halten können.

basix
2021-10-07, 12:14:28
Was mich bei Gracemont noch interessiert, wenn wir mal richtige Die Shots zu sehen bekommen: Wie gross die Kerne effektiv sind. Intels Schaubilder zeigen 4x Gracemont = 1x Golden Cove. Meiner Meinung nach, ist Gracemont vermutlich aber etwas grösser als das. Und dazu noch ein Grössenvergleich mit Skylake. Beim Scaling 14nm -> 10nm hätten wir ein Beispiel mit Rocket Lake und Tiger Lake, womit man einen Skylake Core auf 10nm "portieren" könnte. Könnte man also vermutlich gar nicht so schlecht miteinander vergleichen.

maximus_hertus
2021-10-07, 15:10:40
Wenn der 12900K und der 12700k im Gaming vor den Ryzen 5000er sind, dann wird das bei einem 12600k nicht anders sein.

Warum? Beispiel: der i7 12700K liegt 4-5% vor den Ryzen 5900X.
Und der i5 liegt 5-10% hinter dem i7, dann wäre der Ryzen genau zwischen den Intels?

Bei Intel gibt es ja doch schon messbare Abstufungen (bei AMD ja eher weniger).

Der i9 hat z.B. satte 50% mehr L3 Cache als der i5. Das könnte für einen gewissen Unterschied bei der Gaming Performance sorgen bzw. für (kleine) Lücken zwischen i5, i7 und i9, in der ein Ryzen 5000 liegen könnte.

Ob das so ist? Keine Ahung. Wir werden es bald sehen.

HOT
2021-10-07, 15:39:47
Die gehen doch direkt von irgendwelchen Mondwerten aus trotz aller Hinweise bislang.

Nightspider
2021-10-07, 15:58:51
Zumindest Cheffe ist sehr überzeugt von seinen CPUs :D

"AMDs Führung ist vorbei [...], wir haben das beste Produkt"
...
Konkret nannte Gelsinger zwei kommende Designs, mit denen Intel sich wieder vor AMD platzieren will: Alder Lake alias 12th Gen für Desktops und Laptops sowie Sapphire Rapids alias Xeon SP v4 für Server.
https://www.golem.de/news/intel-ceo-pat-gelsinger-amds-fuehrung-ist-vorbei-wir-haben-das-beste-produkt-2110-160119.html

Und dann kam der V-Cache....

:D

BlacKi
2021-10-07, 17:14:54
Und dann kam der V-Cache....

:D
wenn er sich hauptsächlich auf anwendungen bezieht, dann wird da der v cache nicht helfen. praktisch null.

gaming technisch will ich das mal offen halten, es kommt drauf an in welche richtung das nun geht, mehr in greywolf performance leak oder AotS leak. beides lässt sich für mich nicht ganz vereinbaren in der performanceabschätzung.

fondness
2021-10-07, 18:50:54
Vollkommen unrealistisch, dass Sapphire Rapids ausreichend ist für Server Leadership wenn man sich die Leistungsaufnahme ansieht. Entsprechend kann man dann auch die andere Aussage bewerten.

wenn er sich hauptsächlich auf anwendungen bezieht, dann wird da der v cache nicht helfen. praktisch null.

gaming technisch will ich das mal offen halten, es kommt drauf an in welche richtung das nun geht, mehr in greywolf performance leak oder AotS leak. beides lässt sich für mich nicht ganz vereinbaren in der performanceabschätzung.

Für Anwendungen gibt eine Threadripper wenn man Leistung benötigt. Entscheidend wird die Gaming Perf.

Undertaker
2021-10-07, 19:01:23
Und dann kam der V-Cache....

:D

Je nach dem wie gut sich die IPC-Gewinne aus dem geleakten Anwendungsbenchmarks von Alder Lake auf Gaming übertragen lassen, wird der allein mMn nicht ganz reichen - in der Kategorie war ja selbst die Absprungbasis in Form von Rocket Lake ziemlich gut dabei. Es scheint, dass Intel mit Alder Lake und Sapphire Rapids tatsächlich aus dem Stand zurück an die Spitze springen könnte - wer hätte das vor 6 - 12 Monaten noch gedacht? Vor allem aber erwarte ich preislich aggressive Angebote, da Waferfläche bei TSMC mittlerweile zum Luxusgut geworden ist und der V-Cache damit die Kosten ganz schön treiben wird.

TheAntitheist
2021-10-07, 19:14:38
Je nach dem wie gut sich die IPC-Gewinne aus dem geleakten Anwendungsbenchmarks von Alder Lake auf Gaming übertragen lassen, wird der allein mMn nicht ganz reichen - in der Kategorie war ja selbst die Absprungbasis in Form von Rocket Lake ziemlich gut dabei. Es scheint, dass Intel mit Alder Lake und Sapphire Rapids tatsächlich aus dem Stand zurück an die Spitze springen könnte - wer hätte das vor 6 - 12 Monaten noch gedacht? Vor allem aber erwarte ich preislich aggressive Angebote, da Waferfläche bei TSMC mittlerweile zum Luxusgut geworden ist und der V-Cache damit die Kosten ganz schön treiben wird.
und der wird deutlich mehr kosten. Dazu noch die schlechtere Plattform (AM4)

Ramius
2021-10-07, 20:05:07
und der wird deutlich mehr kosten. Dazu noch die schlechtere Plattform (AM4)

So ein Quatsch. Der V-Cache kostet in der Herstellung keine 10$.
AMD wird den aber sicher für >100$ verkaufen.

LivingAudio
2021-10-07, 20:27:36
"Windows 11 bug could reduce Ryzen CPU performance by up to 15%, AMD says"

https://arstechnica.com/gadgets/2021/10/windows-11-bug-could-reduce-ryzen-cpu-performance-by-up-to-15-amd-says/

Ob das die relative Schnelligkeit von Intel ein Stück erklärt? :freak:

TheAntitheist
2021-10-07, 20:40:25
"Windows 11 bug could reduce Ryzen CPU performance by up to 15%, AMD says"

https://arstechnica.com/gadgets/2021/10/windows-11-bug-could-reduce-ryzen-cpu-performance-by-up-to-15-amd-says/

Ob das die relative Schnelligkeit von Intel ein Stück erklärt? :freak:
15% bei "esport" games also wo man 300fps hat und dann auch nur ein könnte. ist halt quatsch. Und bestimmt liegts an AMD wie in 99% der Fälle.

w0mbat
2021-10-07, 20:44:47
Und bestimmt liegts an AMD wie in 99% der Fälle.
:freak:

robbitop
2021-10-07, 20:58:37
Je nach dem wie gut sich die IPC-Gewinne aus dem geleakten Anwendungsbenchmarks von Alder Lake auf Gaming übertragen lassen, wird der allein mMn nicht ganz reichen - in der Kategorie war ja selbst die Absprungbasis in Form von Rocket Lake ziemlich gut dabei. Es scheint, dass Intel mit Alder Lake und Sapphire Rapids tatsächlich aus dem Stand zurück an die Spitze springen könnte - wer hätte das vor 6 - 12 Monaten noch gedacht? Vor allem aber erwarte ich preislich aggressive Angebote, da Waferfläche bei TSMC mittlerweile zum Luxusgut geworden ist und der V-Cache damit die Kosten ganz schön treiben wird.
Ich finde, es war vorhersehbar. Erst Zen 3 schlug Intel beim Gaming (uralte Skylake uArch und hauch dünn den komischen Backportkrüppel) und das auch nicht mit besonders großer Führung.

Dass Intel bei dem steigenden Druck sich nicht ewig vorführen lässt war vorhersehbar IMO.

Im Gegensatz zu 2006 lässt AMD diesmal hoffentlich nicht nach und bleibt mit der Execution schön dran. Entsprechend kann Intel hoffentlich dieses Mal nicht mehr davonziehen.

w0mbat
2021-10-07, 21:05:24
Du findest es vorhersehbar, dass Intel mit einer neuen Architektur in einem neuen Fertigungsprozess auf einer neuen Plattform ca. ein Jahr später, etwas schneller als AMDs alte CPU sein kann? Verrückt!

Wobei, wenn man sich anschaut was Intel die letzte so abgeliefert hat wäre es schon bemerkenswert.

fondness
2021-10-07, 21:08:21
Du findest es vorhersehbar, dass Intel mit einer neuen Architektur in einem neuen Fertigungsprozess auf einer neuen Plattform ca. ein Jahr später schneller als AMDs alte CPU sein kann? Verrückt!

Wobei, wenn man sich anschaut was Intel die letzte so abgeliefert hat ist es schon bemerkenswert, wenn es denn stimmt.

Richtig, es ist so oder so extrem schwach. Immerhin gibt es jetzt keine ausreden mehr. Alles was Intel seit Skylake zusammen gebracht hat kommt jetzt auf den Tisch, und das ist offensichtlich nicht viel mehr als das, was AMD bereits vor einem Jahr abgeliefert hat. Wenn die gaming Leistung noch dazu deutlich abfällt wie es sich andeutet dann gute Nacht.

robbitop
2021-10-07, 21:44:42
Du findest es vorhersehbar, dass Intel mit einer neuen Architektur in einem neuen Fertigungsprozess auf einer neuen Plattform ca. ein Jahr später, etwas schneller als AMDs alte CPU sein kann? Verrückt!

Wobei, wenn man sich anschaut was Intel die letzte so abgeliefert hat wäre es schon bemerkenswert.
Neuer Fertigungsprozess? 10 nm ist nicht besonders neu. Intel ist ganz offensichtlich erwacht und wird wieder regelmäßig neue uArchs abliefern.

HOT
2021-10-07, 21:45:25
Abfallen wird die nicht, ADL ist mit Sicherheit schneller. Nur deutet sich an, dass der große Vorsprung sich vor allem auf Rechendurchsatz beschränkt also Cinema4D, Premiere pro usw. Spiele werden sicherlich gut von den Caches profitieren, aber ob das gegen Zen3D reicht mal sehen.

fondness
2021-10-07, 21:51:37
Neuer Fertigungsprozess? 10 nm ist nicht besonders neu. Intel ist ganz offensichtlich erwacht und wird wieder regelmäßig neue uArchs abliefern.

Es ist die xte Überarbeitung von 10nm und laut Intel besser als tsmc 7nm.

w0mbat
2021-10-07, 22:02:24
Neuer Fertigungsprozess? 10 nm ist nicht besonders neu.
Im Desktop ist 10nm ESF aka Intel 7 neu.

Intel ist ganz offensichtlich erwacht und wird wieder regelmäßig neue uArchs abliefern.
Da würde ich noch abwarten, ob da wirklich was "erwacht" ist. Aber wir können nur hoffen.

Tobalt
2021-10-07, 22:05:11
damals kollidierte halt conroe quasi zeitgleich mit bulldozer.

Dann wechselte intel in den Winterschlaf nach sandy bridge sodass sie lange brauchten um auf Zen zu reagieren.

Dieses Mal sieht die situation zum ersten mal sein Athlon Xp und Pentium3 wieder spannend (?) aus und macht lust auf die kommenden Jahre ?!

Freestaler
2021-10-07, 22:42:59
"Windows 11 bug could reduce Ryzen CPU performance by up to 15%, AMD says"

https://arstechnica.com/gadgets/2021/10/windows-11-bug-could-reduce-ryzen-cpu-performance-by-up-to-15-amd-says/

Ob das die relative Schnelligkeit von Intel ein Stück erklärt? :freak:

Welche relative Geschwindigkeit. Die 20% legt Intel auf Win10 AMD drauf (AMD Werte sind public und nicht von Intel selbst). Intel ist ST und MT sicher in den gezeigten Bench weiter und hat die Power (evtl auch mit sehr hohen TDPs). Gametest werden spannend. Win11 ADL vs. WIN10 AMD wirds wohl am Anfang werden.

@Tobalt, ja hoffe auch auf ein paar "geile" Jahre wo HW wirklich wieder freude zum entdecken, diskutieren und probieren macht.

maximus_hertus
2021-10-08, 01:04:46
damals kollidierte halt conroe quasi zeitgleich mit bulldozer.



Conroe ist 2006, Bulldozer 2011. Wie sollen die kollidieren?

Daredevil
2021-10-08, 01:29:40
Du findest es vorhersehbar, dass Intel mit einer neuen Architektur in einem neuen Fertigungsprozess auf einer neuen Plattform ca. ein Jahr später, etwas schneller als AMDs alte CPU sein kann? Verrückt!

Wobei, wenn man sich anschaut was Intel die letzte so abgeliefert hat wäre es schon bemerkenswert.
Dafür, dass Intel seit Zen2 hier als "tot" betitelt wird, ist das schon eine 180 Grad Wende. Überraschend ist das hier sicherlich für viele, weil Intel auf einmal nicht nur optimiert, sondern in diesem Schritt seit langem mal wieder revolutioniert.

Zossel
2021-10-08, 06:37:59
https://www.anandtech.com/show/16881/a-deep-dive-into-intels-alder-lake-microarchitectures/2

On the question of Linux, Intel only went as far to say that Windows 11 was the priority, and they’re working upstreaming a variety of features in the Linux kernel but it will take time. An Intel spokesperson said more details closer to product launch, however these things will take a while, perhaps months and years, to get to a state that could be feature-parity equivalent with Windows 11.

Das klingt nach: Zu komplex um gut zu sein.

Tobalt
2021-10-08, 07:14:36
Conroe ist 2006, Bulldozer 2011. Wie sollen die kollidieren?
stimmt. hatte ich falsch in Erinnerung.
Fakt ist aber dass es zur Jahrtausendwende das letzte mal eine Art spannendes CPU rennen gab

Nightspider
2021-10-08, 07:27:16
Neuer Fertigungsprozess? 10 nm ist nicht besonders neu. Intel ist ganz offensichtlich erwacht und wird wieder regelmäßig neue uArchs abliefern.

Superduper FinFet ist laut Intel ein neuer Prozess. ADL wäre im alten Wenigerduper Finfet Prozess nicht so gut.

Thunder99
2021-10-08, 08:23:52
15% bei "esport" games also wo man 300fps hat und dann auch nur ein könnte. ist halt quatsch. Und bestimmt liegts an AMD wie in 99% der Fälle.

Ernsthaft? :rolleyes:
Es liegt an MS und AMD, ggf. hat Intel seine Mitschuld..., Wer weiß das schon

robbitop
2021-10-08, 09:34:26
Im Desktop ist 10nm ESF aka Intel 7 neu.


Da würde ich noch abwarten, ob da wirklich was "erwacht" ist. Aber wir können nur hoffen.

Die Roadmap zeigt jetzt wieder jedes Jahr neue uArchs und die Option auf backports (ich vermute, dass die Designs und Synthetisierungstools jetzt gleich damit im Hinterkopf ausgelegt werden) damit sowas wie 10 nm nicht wieder uArchs verschiebt. Und sie werden dieses Risiko mittels zusätzlichem Einsatzes von Fremdfertigern weiter reduzieren.
Intel zu unterschätzen war schon immer naiv. Zum Glück hat AMD wie gesagt aus 2006 gelernt.

Im Desktop mag dieser spezifische Prozess neu sein. Aber es ist nur die 4. Iteration eines nicht mehr taufrischen Prozesses. Egal ob Desktop oder mobile. Wirklich neu ist das für mich jedenfalls nicht.

damals kollidierte halt conroe quasi zeitgleich mit bulldozer.
Dazwischen waren 5 Jahre. Conroe kam 2006. Bulldozer erst 2011. Zeitgleich ist was anderes.

basix
2021-10-08, 11:13:58
Ernsthaft? :rolleyes:
Es liegt an MS und AMD, ggf. hat Intel seine Mitschuld..., Wer weiß das schon

Microsoft entwickelt das Betriebssystem, nicht AMD. Und AMDs neueste Prozessoren sind seit etwa 1 Jahr auf dem Markt. Ich sehe da den Fehler klar bei Microsoft. Einen Fix gibt es anscheinend ja bereits.

mocad_tom
2021-10-08, 12:08:44
Ich finde, es war vorhersehbar. Erst Zen 3 schlug Intel beim Gaming (uralte Skylake uArch und hauch dünn den komischen Backportkrüppel) und das auch nicht mit besonders großer Führung.


Der "Backportkrüppel" liefert aber in Win 11 ziemlich gut ab.

Microsoft hat seit 2016 damit geliebäugelt in Windows für alles mögliche VBS einsetzen zu wollen.
Browser-Tab in einem eigenen Mini-Gast-OS, Viren-Scanner in eigenem Mini-Gast-OS, Kern Isolierung.

Jetzt wird also gejammert, weil AMD die Abkürzung gesucht hat und der L3 Cache nur dann schnell ist, wenn Virtualisierung abgeschaltet ist?

Bei Aanadtech in den Reviews hat man sich gewundert, warum die Caches bei Ryzen 3 so schnell sind - hier ist die Erklärung:
Es gibt einen schnellen Pfad durch den TLB hin zur Cache Zelle, wenn man keine Virtualisierung an hat.
Schaltet man die Virtualisiert an, so muss ein aufwändigerer Pfad durchschritten werden und Zack sind die sauguten Latenzen futsch.

Das wird ein Win11 22H1 auch nicht gerade rücken können.

Und bei Intel wurde mit "Virtualization first" gedacht / gearbeitet.

Das selbe sehen wir jetzt beim M1.

Hauptsache diese Prozessoren hatten ein Jahr lang eine gute Presse.

Das sie für Virtualisierung nix taugen, kommt erst jetzt ans Tageslicht.

Ich frage mich was Netflix da für Märchen rausposaunt hat:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/57128-netflix-liefert-400-gbit-s-pro-server-aus-amd-epyc-ist-ampere-und-intel-ueberlegen.html

Netflix arbeitet sowieso Serverless.
Alles was sie hier Aufzählen würden sie um den Faktor drei beschleunigen können, wenn sie nicht AWS-Instanzen (und discless Instanzen) mieten sondern selber Hardware hinstellen würden.

Ich fand die Aufzählung ihrer Forschungsergebnisse einfach nur hirnrissig.

Appenzeller auf dem Architecture Day erzählt über die Richtung wo es hingeht - Netflix Ingeneure erzählen von der guten alten Zeit.
https://youtu.be/3jU_YhZ1NQA?t=5504

Freestaler
2021-10-08, 12:47:18
@mocad_tom, Aem wieso ist den die Latenz Geschichte im DEV Preview Build die neuer als RTM sind gefixt und die latenzen wieder besser? Hast du fakten zu deinen Gedanken gänge?

https://www.notebookcheck.net/AMD-and-Microsoft-finally-acknowledge-poor-L3-cache-performance-and-CPU-scheduling-issues-with-Ryzen-processors-in-Windows-11-after-nearly-three-months-of-complaining.569990.0.html

w0mbat
2021-10-08, 12:56:16
@mocad_tom: 1. braucht niemand, wirklich niemand virtualisierung im Desktop. 2. ist der bug schon gefixed, deine Ausführungen sind einfach falsch.

Der_Korken
2021-10-08, 13:10:33
Abwarten wie gut der Fix wirklich ist. Die 32ns ohne Fix waren natürlich absurd schlecht, aber selbst mit Fix sind die Werte noch lange nicht auf Windows 10 Niveau: https://www.computerbase.de/2021-10/bis-zu-15-prozent-leistungsverlust-bei-amd-unter-windows-11-bestaetigt/

Latenz passt zwar wieder, aber Write und Copy haben nur 1/3 bzw. 1/4 des Durchsatzes wie vorher.

w0mbat
2021-10-08, 13:19:55
Also meine Spiele laufen wie vorher, ist wohl einfach nur ein AIDA64 Anzeigefehler.

Virtual
2021-10-08, 13:44:25
Kaum mit gutem Gewissen und gesundem Verstand zu leugnen, stand Intel notwendigerweise Pate bei der Entwicklung des Win11 Schedulers.
Eine klassische Wintel-Kooperation, bei der AMDs aktuelle Prozessoren sicher nicht im Mittelpunkt der Design-Entscheidungen standen ... und nun sind wir wieder beim Thema.

Es ist nicht völlig abwegig zu vermuten ... Alderlakes Architektur als Maßstab für den runderneuerten Win11 Scheduler könnte durchaus den einen oder anderen "negativen Seiteneffekt" auf die Leistungsfähigkeit aktueller AMD CPUs haben, die hoffentlich alle nachträglich seitens MS & AMD korrigiert werden können. Microsoft würde ich dabei sicherlich keine böse Absicht unterstellen wollen, wohingegen Intel vermeintlichen "Inkompatibilitäten" mit AMDs Prozessoren zumindest nicht gestört haben dürfte.

Ohnehin setzt auf Win 11 dieses Jahr nur der Zocker, der sich eine Alderlake-CPU zulegen will. Alle anderen sollten zumindest auf eine gewisse Reife von Win 11 warten. Nicht ganz vom Zufall getrieben kommen beide fast zeitgleich auf den Markt. Völlig egal, wer zuerst durchs Reife-Ziel geht.

TheAntitheist
2021-10-08, 13:46:07
Ernsthaft? :rolleyes:
Es liegt an MS und AMD, ggf. hat Intel seine Mitschuld..., Wer weiß das schon
als ob AMD nicht schon seit ewigkeiten Builds von W11 hätte...

Blediator16
2021-10-08, 13:51:29
als ob AMD nicht schon seit ewigkeiten Builds von W11 hätte...

Intel hat doch seit Ewigkeiten Win10 Builds wieso eigentlich dirngend Win11:confused:

TheAntitheist
2021-10-08, 13:57:21
Intel hat doch seit Ewigkeiten Win10 Builds wieso eigentlich dirngend Win11:confused:
weil MS den scheduler nicht für win10 ändern wird? hä? warum sollte man alte software noch für neue hardware anpassen. Oder warum sollte Intel ihre hardware einschränken weil die Software es nicht her gibt? oh man

AMD hat doch nicht mal versprochene GPU features gebracht weil "windows 10" es nicht kann, konnte es dann aber anscheiend doch bei r6000, nur die r5000 reihe hatte wohl zu viele Fehler.

WedgeAntilles
2021-10-08, 14:02:42
Intel hat doch seit Ewigkeiten Win10 Builds wieso eigentlich dirngend Win11:confused:
Ich bin nicht sicher, ob du zum ersten Mal von Alder Lake hörst.
AL basiert auf einer neuen Architektur aus Big und Little Cores.
Da muss aber die Software mitspielen - und der Scheduler dafür wird eben in Win 11 entsprechend angepasst.
Win 10 bekommt den nicht, so dass für Alder Lake eben Win 11 sehr sinnvoll sein wird.

fondness
2021-10-08, 14:03:59
Der "Backportkrüppel" liefert aber in Win 11 ziemlich gut ab.


Backportkrüppel ist ohnehin Blödsinn. Es wurde jetzt oft genug kommuniziert, dass es ein vollwerter backport ist, es also keine Nachteile dadurch gibt, abgesehen natürlich vom schlechten Prozess.

Blediator16
2021-10-08, 14:12:43
weil MS den scheduler nicht für win10 ändern wird? hä? warum sollte man alte software noch für neue hardware anpassen. Oder warum sollte Intel ihre hardware einschränken weil die Software es nicht her gibt? oh man


AMD hat doch nicht mal versprochene GPU features gebracht weil "windows 10" es nicht kann, konnte es dann aber anscheiend doch bei r6000, nur die r5000 reihe hatte wohl zu viele Fehler.
Ich bin nicht sicher, ob du zum ersten Mal von Alder Lake hörst.
AL basiert auf einer neuen Architektur aus Big und Little Cores.
Da muss aber die Software mitspielen - und der Scheduler dafür wird eben in Win 11 entsprechend angepasst.
Win 10 bekommt den nicht, so dass für Alder Lake eben Win 11 sehr sinnvoll sein wird.

Moment mal. MS soll für Intel den scheduler ändern und im gleichen Atemzug ist AMD schuld an dem Win11 Bug gerade oder wie kommt ihr auf die Annahme, dass es 100% AMDs Schuld ist. Irgendwas stimmt hier doch nicht :confused:

aufkrawall
2021-10-08, 14:32:53
Es scheint ja wohl eher am eigentlichen Scheduler zu liegen als an den Chipsatztreibern von AMD. Den Scheduler entwickelt Microsoft selbst. Also sind sie auch dafür verantwortlich, dass er richtig mit Hardware x läuft. Ist schon wieder ein ziemliches Trauerspiel von der Firma...

Lurtz
2021-10-08, 14:36:38
Vor allem nachdem man die CPU-Kompatibilität aus Sicherheits- und Performance-Gründen so sehr eingeschränkt hat und jetzt nicht mal ein Jahr alte CPUs vernünftig unterstützt :D

mocad_tom
2021-10-08, 15:02:49
@wombat

Die fünf Phasen der Trauer

Spätestens wann Android für Win11 kommt schaltet jeder Virtualisierung an.


Wir müssen 4 Effekte aktuell auseinanderhalten - die Journos tun sich da aber aktuell noch hart.

Punkt 1:
Win 11 in der Beta war behaftet mit viel Telematik. Das hat Messwerte von sich aus verändert.
(kleiner Tip, nie Erwachsenenfilmeseiten mit Win 11 Beta ansurfen)


Punkt 2:
Bei Ryzen wurde beim L3 Cache nicht auf das Chiplet geachtet.
(der Bug wird gefixt)

Punkt 3:
Bei Ryzen mit zwei Chiplet wurde das hoch- und runtertakten nicht komplett gut gemacht.
(der Bug wird auch gefixt)

Punkt 4:
Ist VBS aktiviert wird der L3 Cache deutlich langsamer.
(da wird nix gefixt - wie auch)

Jeder, der jetzt WSL2, Android auf Win11, Kern Isolierung, VBS oder Hyper-V nutzen will, der muss mit diesem Performance-Nachteil zurechtkommen.

An einer weiteren Stelle knatscht es noch.
WDDM 3.0 kann die Grafikleistung der GPU in Portionen aufteilen.
Das wird über den Systemweit einheitlichen Kontextswitch gemacht.

Damit kann ich dann in das Android-Subsystem eine kleine virtuelle nvidia-Karte reinsetzen.

Und jetzt rate mal, wer bei diesen Kontextswitches schneller ist?

Der Bruch (das Wegschneiden von legacy) ist so heftig, dass eine Geforce 550 auf einem Rocket-Lake-PCIe-Port schon nicht mehr bis zum BIOS kommt.
Rocket Lake will VT-d initialisieren - klappt aber nicht.

Zossel
2021-10-08, 15:04:16
Es ist nicht völlig abwegig zu vermuten ... Alderlakes Architektur als Maßstab für den runderneuerten Win11 Scheduler könnte durchaus den einen oder anderen "negativen Seiteneffekt" auf die Leistungsfähigkeit aktueller AMD CPUs haben, die hoffentlich alle nachträglich seitens MS & AMD korrigiert werden können. Microsoft würde ich dabei sicherlich keine böse Absicht unterstellen wollen, wohingegen Intel vermeintlichen "Inkompatibilitäten" mit AMDs Prozessoren zumindest nicht gestört haben dürfte.

Bleibt die Frage offen wie die Auswirkungen auf alte Intel CPUs sind.
Oder warum es keine gibt.

WedgeAntilles
2021-10-08, 15:15:23
Moment mal. MS soll für Intel den scheduler ändern und im gleichen Atemzug ist AMD schuld an dem Win11 Bug gerade oder wie kommt ihr auf die Annahme, dass es 100% AMDs Schuld ist. Irgendwas stimmt hier doch nicht :confused:

Ich weiß nicht auf wen du dich beziehst. Ich habe auf deine Frage geantwortet.
Von AMD habe ich kein Wort gesagt und weiß jetzt auch nicht, was genau AMDs Schuld wo sein soll.

Du hast gefragt, warum für AL Win 11 sinnvoll sei. Wo da AMD vorkommt begreife ich nicht.

r3ptil3
2021-10-08, 15:31:28
Bis die Reviews für Alder Lake draussen sind, gibts vermutlich bereits schon einen Ryzen-Fix per Windows-Update.

Die ganz fleissigen Tester werden auch Win10 berücksichtigen, spätestens da wird klar, ob Intel Vorteile durch Win11 hat oder nicht.

Hakim
2021-10-08, 15:37:40
Können wir W11 und AMD probs woanders debattieren? Wird leider anstrengend hier wenn man Neuigkeiten zu ADL lesen will

Lehdro
2021-10-08, 15:45:33
Punkt 4:
Ist VBS aktiviert wird der L3 Cache deutlich langsamer.
(da wird nix gefixt - wie auch)

Erst einmal: Quelle dafür?
Zweitens: Windows 10 hat auch schon VBS & HVCI. Das ist aber deutlich schneller als VBS & HVCI auf Win 11. Laut deiner Logik ist das unmöglich, siehe Benchmarks hier. (https://www.computerbase.de/2021-09/windows-11-ul-benchmarks-weist-auf-leistungsverlust-durch-vbs-hin/#abschnitt_vbs_ist_nicht_gleich_vbs)
Drittens: VBS ≠ VBS, da wird teilweise mehr mitgemeint als eigentlich geschrieben, z.B. das schon genannte HVCI.

robbitop
2021-10-08, 16:43:32
Backportkrüppel ist ohnehin Blödsinn. Es wurde jetzt oft genug kommuniziert, dass es ein vollwerter backport ist, es also keine Nachteile dadurch gibt, abgesehen natürlich vom schlechten Prozess.

IIRC war die Cache Latenz ist zB deutlich schlechter als bei Sunny Cove. Das hatte Ian IIRC als einen direkt sichtbaren Nachteil des Backports benannt. Leider gibt es keinen Desktop Sunny Cove so dass man nicht 1:1 nachbenchen kann.

mocad_tom
2021-10-08, 17:31:36
@Lehdro

Jedem ist ja Spectre, Meltdown und Rowhammer ein Begriff.

Und jeder hat schon gesagt: "grrrr Intel diese Arschkrampen - was fällt denen eigentlich ein - AMD hat ja so eine tolle Art ihren Speicher zu schützen"

Schalte ich VBS ein und MBEC nicht - es fühlt sich einfach !!FALSCH!! an.

Seit Jahren werden wir als Entwickler von MS dahin erzogen in den Compiler-Settings von Visual Studio
- Data Execution Prevention DEP (aka NX-Bit)
- ASLR (Address Space Layout Randomization)
- SafeSEH (Safe Exception Handlers)
an zu schalten.

Seit Jahren werden Virenscanner dadurch ausgehebelt, weil manche Entwicklerteams nicht fähig sind diese Basic-Features anzuschalten.

Heartbleed (die SSL-Lücke) - man schaltet ASLR an und die Lücke ist nicht mehr da - wie von Zauberhand.

So jetzt will man ähnliche Schutzmechanismen in der Virtualisierung etablieren.
Und natürlich muss man hierfür Infrastruktur in Hardware schaffen und die richtigen Bits und Lookaside Buffer hinstellen/ausbauen.

Und man muss für Abwärtskompatibilität sorgen.

Und es wird ziemlich schwierig zu erklären, warum man mit einem viel höheren Transistorbudget nur ähnliche Leistung erreicht, wenn man die Features nicht aktiviert (in einem Bare-Metal-Win-10 ohne Virtualisierung).

Erst mit der Aktivierung der Features und einem marginalen Verlust an Leistung kann man beweisen, was im Vorfeld hineingebacken wurde.

Als Bsp. -> im A15 wurde Nested Virtualization reingebacken. Etwas, das AMD und Intel seit 2016 können.
Im M1 ist Nested Virt nicht drin.
Bei A15 hat das richtig viele Transistoren verbrannt und man hat nur ähnlich viel Leistung wie beim A14 erhalten.

Wird ein riesen Spaß den Parallels-Entwicklern zu zu sehen (meine ich schadenfreudig).

Zossel
2021-10-08, 17:46:44
Seit Jahren werden wir als Entwickler von MS dahin erzogen in den Compiler-Settings von Visual Studio
- Data Execution Prevention DEP (aka NX-Bit)
- ASLR (Address Space Layout Randomization)
- SafeSEH (Safe Exception Handlers)
an zu schalten.


Zumindest die die ersten beiden Optionen sind IMHO keine Compiler Optionen, oder backen das die Buildsysteme von Windows in die Executables und der Loader aktiviert das je nach Executable/Process?


Als Bsp. -> im A15 wurde Nested Virtualization reingebacken. Etwas, das AMD und Intel seit 2016 können.
Im M1 ist Nested Virt nicht drin.
Bei A15 hat das richtig viele Transistoren verbrannt und man hat nur ähnlich viel Leistung wie beim A14 erhalten.


Braucht man das wirklich für Medienabspielsysteme?

mocad_tom
2021-10-08, 17:58:36
@Zossel
>Zumindest die die ersten beiden Optionen sind IMHO keine Compiler Optionen,
>oder backen das die Buildsysteme von Windows in die Executables und der
>Loader aktiviert das je nach Executable/Process?

Schmeiß google an

- https://docs.microsoft.com/de-de/cpp/build/reference/safeseh-image-has-safe-exception-handlers?view=msvc-160

- https://docs.microsoft.com/de-de/cpp/build/reference/dynamicbase-use-address-space-layout-randomization?view=msvc-160

- https://docs.microsoft.com/en-us/cpp/build/reference/gs-buffer-security-check?view=msvc-160

@Zossel
>Braucht man das wirklich für Medienabspielsysteme?
Auf dem Land draussen gab es auch lange bloß ein Plumpsklo.

Linux war sich lange zu schön ASLR in den Builds anzuschalten.
Dann kam Heartbleed.

w0mbat
2021-10-08, 19:01:56
@mocad_tom: Alles völlig irrelevant für einen gaming PC.

iamthebear
2021-10-08, 22:58:37
Ernsthaft? :rolleyes:
Es liegt an MS und AMD, ggf. hat Intel seine Mitschuld..., Wer weiß das schon

Also ich weiß nicht ob man hier von "Schuld" sprechen kann. Zen hat eben je nach Generation und Kernanzahl eine Menge architekturspezifische Sonderheiten, die es beim Scheduling zu beachten gibt. Microsoft hat sich hier eine Menge Zeit genommen das Ganze zu optimieren, damit alles so gut läuft wie es heute tut auch wenn es ein 64 Kern Threadripper ist. Wenn dies bei einem neuen Betriebssystem auf Anhieb nicht ganz so gut funktioniert ist das halt eben so.
Umgekehrt nimmt sich MS nun eine Menge Zeit, damit die Big/Little Sachen so gut wie möglich laufen und hier wird am Anfang auch nicht alles glatt laufen, wobei Spiele hier meistens der Belastungstest sind.

Die Roadmap zeigt jetzt wieder jedes Jahr neue uArchs und die Option auf backports (ich vermute, dass die Designs und Synthetisierungstools jetzt gleich damit im Hinterkopf ausgelegt werden) damit sowas wie 10 nm nicht wieder uArchs verschiebt. Und sie werden dieses Risiko mittels zusätzlichem Einsatzes von Fremdfertigern weiter reduzieren.

Die Frage ist halt generell, was man sich von einer neuen Architektur erwartet. In der Regel sind die Gründe für eine neue Architektur:
.) Man hat einen Shrink durchgeführt, wodurch man ein erhöhtes Transistorbudget hat. Ohne Shrink erübrigt sich das.
.) Die alte Architektur hatte noch gröbere Mängel und konnte durch Redesign verbessert werden (Beispiel Zen+ mit den Speicherlatenzen, Zen3 mit dem gesharten L3 über 8 Kerne statt 4). Dieser Vorteil erschöpft sich jedoch ziemlich schnell wenn die vorhergehende Architektur schon sehr gut war.
.) Es haben sich die Ausgangssituationen geändert und man will sich an die neuen Anforderungen anpassen (z.B. man will stromeffizienter sein, man will mehr auf Multi Core optimieren etc.). Wenn die Ausgangsbedingungen noch gleich sind erübrigt sich das.

Was man bei Rocket Lake sieht: Skaylake war schon eine auf 14nm optimierte ausgereifte Architektur ohne große Schwachstellen. Man hat bereits höhere Fertigungskosten/Verlustleistung akzeptiert und ist von 4 auf 10 Kerne gegangen.
Was erwartet man sich also von einer neuen Architektur? Rocket Lake hat die IPC verbessert, dafür aber Verlustleistung und Fläche erhöht und man hat nun 8 Kerne statt 10. Und das waren gesammelte neue Ideen von 5 Jahren.

Wenn Intel nun Alder Lake bringt, später mit Raptor Lake optimiert. AngenommenIntel 4 hat dieselben Probleme wie 10nm welchen Sinn hätte es Meteor Lake mit Intel 7 neu raus zu bringen? Man wird da nicht viel mehr bringen können als mit Raptor Lake.

Was TSMCs CPUs angeht: Das war eine politische Entscheidung von Bob Swan. Dieser hatte mangels Fachkompetenz Probleme sich firmenintern gegenüber den Leuten aus der Fertigung durchzusetzen und hat so versucht die Abhängigkeit lösen und so seine Position zu stärken.
Mit Pat Gelsinger sind die TSMC CPU Pläne weitgehend wieder gestorben außer diejenigen, die schon in Umsetzung sind. TSMC 3nm ist auch keine Alternative zur eigenen Fertigung, da das Designen von Chips mittlerweile schweineteuer ist und sehr lange braucht. Intel kann nicht spontan beschließen z.B. Meteor Lake bei TSMC aufzulegen. Dies braucht eine Vorlaufzeit von mindestens 2 Jahren und TSMC hat Verträge, dass Intel Designer, die für TSMC designen nicht gleichzeitig für Mitbewerberfertigungen designen dürfen und das noch für die nächsten 2 Jahre. TSMC wird auch bei weitem nicht so viel Know How an Intel weitergeben als an AMD, die kein Mitbewerber mehr sind und sich exklusiv für TSMC entschieden haben.

Microsoft entwickelt das Betriebssystem, nicht AMD. Und AMDs neueste Prozessoren sind seit etwa 1 Jahr auf dem Markt. Ich sehe da den Fehler klar bei Microsoft. Einen Fix gibt es anscheinend ja bereits.

Zen ist eben deutlich optimierungsbedürftiger als Skylake. Ich sehe ehrlich gesagt Microsoft nicht in der Pflicht ihren Scheduler für einzelne CPU Designs zu optimieren. Wenn das ein Hersteller haben will, dann muss er entsprechende Agreements treffen wenn er entsprechende Designentscheidungen trifft. Intel macht Big/Little auch nur deshalb, weil sie eine entsprechende Partnerschaft haben und so für Optimierungen sorgen können.

Microsoft hat seit 2016 damit geliebäugelt in Windows für alles mögliche VBS einsetzen zu wollen.
Browser-Tab in einem eigenen Mini-Gast-OS, Viren-Scanner in eigenem Mini-Gast-OS, Kern Isolierung.

Jetzt wird also gejammert, weil AMD die Abkürzung gesucht hat und der L3 Cache nur dann schnell ist, wenn Virtualisierung abgeschaltet ist?

Bei Aanadtech in den Reviews hat man sich gewundert, warum die Caches bei Ryzen 3 so schnell sind - hier ist die Erklärung:
Es gibt einen schnellen Pfad durch den TLB hin zur Cache Zelle, wenn man keine Virtualisierung an hat.
Schaltet man die Virtualisiert an, so muss ein aufwändigerer Pfad durchschritten werden und Zack sind die sauguten Latenzen futsch.

Das wird ein Win11 22H1 auch nicht gerade rücken können.

Und bei Intel wurde mit "Virtualization first" gedacht / gearbeitet.

Das selbe sehen wir jetzt beim M1.

Hauptsache diese Prozessoren hatten ein Jahr lang eine gute Presse.

Das sie für Virtualisierung nix taugen, kommt erst jetzt ans Tageslicht.

Sehe ich auch so. Das ist eben ein bewusstes Risiko, das man eingeht. Intel sich damals auch für übertriebene Optimierungen auf Kosten der Sicherheit entschieden und bei Spectre/Meltdown ist ihnen das auf die Füße gefallen.

Wenn AMD Virtualisierung ignoriert, so wird das vermutlich ähnlich enden. Derzeit reicht es schon aus wenn Hyper-V aktiviert ist. In 2-3 Jahren werden Android Apps ihren Weg auf Desktop Systeme finden (z.B. diverse Spiele), Firmen habe virtuelle Maschinen für diverse nicht mehr kompatible Legacy Software usw. Und hier rede ich noch nicht einmal von den neuen Konzepten für Virenscanner etc.

Ich frage mich was Netflix da für Märchen rausposaunt hat:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/57128-netflix-liefert-400-gbit-s-pro-server-aus-amd-epyc-ist-ampere-und-intel-ueberlegen.html

Netflix arbeitet sowieso Serverless.
Alles was sie hier Aufzählen würden sie um den Faktor drei beschleunigen können, wenn sie nicht AWS-Instanzen (und discless Instanzen) mieten sondern selber Hardware hinstellen würden.

Hab das mal grob überschlagen:
400gbit/s 24/7 sind 130PB Traffic im Monat. Das kostet zum normalen Tarif von 8 Cent/GB um die 10 Mio. im Monat. Wen juckt es bei den Preis noch ob da 1 oder 5 Server im Rechenzentrum stehen. Ich halte das eher für eine Aktion um mehr Aufmerksamkeit zu bekommen.

@mocad_tom: 1. braucht niemand, wirklich niemand virtualisierung im Desktop. 2. ist der bug schon gefixed, deine Ausführungen sind einfach falsch.

Also ich brauche Hyper-V täglich für Anwendungen die nicht Win10 x64 kompatibel sind.
Ich habe eine XP Maschine (da sehr schlank und für den Zweck ausreichend), eine Win7 Maschine (die darf ins LAN, hat aber eine Anwendung die auf Win10 nicht stabil läuft) und eine Win10 x86 Maschine für eine Anwendung, die nicht 64 Bit kompatibel ist

Kaum mit gutem Gewissen und gesundem Verstand zu leugnen, stand Intel notwendigerweise Pate bei der Entwicklung des Win11 Schedulers.
Eine klassische Wintel-Kooperation, bei der AMDs aktuelle Prozessoren sicher nicht im Mittelpunkt der Design-Entscheidungen standen ... und nun sind wir wieder beim Thema.

Für den Thread Director hat sich Intel bestimmt wie sie es gerne hätten aber beim allgemeinen Scheduling an sich für andere CPUs weiß ich nicht inwieweit Intel hier überhaupt betailigt ist.
Ich denke, dass aktuell der Fokus von MS eher darin liegt, dass sie im Mobilebereich zu Apple konkurrenzfähige Lösungen anbieten können bzw. dass sie im Serverbereich 128+ Threads ordentlich schedulen können, damit ihnen Linux nicht den Markt abgräbt.

Ohnehin setzt auf Win 11 dieses Jahr nur der Zocker, der sich eine Alderlake-CPU zulegen will. Alle anderen sollten zumindest auf eine gewisse Reife von Win 11 warten. Nicht ganz vom Zufall getrieben kommen beide fast zeitgleich auf den Markt. Völlig egal, wer zuerst durchs Reife-Ziel geht.

Also ich glaube dass generell jeder neue PC mit Win11 ausgeliefert werden wird und so schlimm, dass man unbedingt zurückwechseln muss sind die 2-3% in einzelnen Programmen nun auch nicht. VBS kann man ja ausschalten. Ich denke man sollte das Ganze nicht überdramatisieren. Bei Win7/10 gab es auch genug Situationen in denen der Vorgänger etwas schneller gelaufen ist. Dann kommen 2-3 neue Treiberupdates und Windows Updates und von den Problem ist sowieso nur mehr die Hälfte übrig.

robbitop
2021-10-08, 23:03:53
Androidspiele auf Windows wird die Killerapplikation. :D
Nicht. Sicherlich ist der Kram auch nicht extrem leistungshungrig ist. Der Kram sollte selbst auf low end PCs flüssig laufen. Insofern sind ein paar Prozent wegen irgendwelcher Virtualisierungsengpässe wahrscheinlich kaum relevant.

w0mbat
2021-10-09, 00:20:19
Ich sehe ehrlich gesagt Microsoft nicht in der Pflicht ihren Scheduler für einzelne CPU Designs zu optimieren.
Klar ist das die Pflicht von MS. Ich bin der Kunde und wenn MS seine Arbeit nicht macht, werde ich kein Windows kaufen. Ganz einfach.

Du tust so als ob MS hier was nettes für AMD oder Intel machen würde, das verstehst du aber komplett falsch und hat nichts mit der Realität zu tun.

iamthebear
2021-10-09, 01:11:06
Natürlich profitiert Microsoft indirekt davon wenn Hardware mit ihrem Betriebssystem besser laufen und wenn es um allgemeine Dinge geht wie z.B. die ideale Threadverteilung mit SMT wird man das auch gerne machen aber es ist echt nicht die Aufgabe von MS gratis die immer exotischer werdenden Optimierungswünsche der CPU Hersteller zu erfüllen nur damit diese 2-3% besser als der Mitbewerber aussehen.

w0mbat
2021-10-09, 01:15:57
[...] aber es ist echt nicht die Aufgabe von MS gratis die immer exotischer werdenden Optimierungswünsche der CPU Hersteller zu erfüllen nur damit diese 2-3% besser als der Mitbewerber aussehen.
Nicht nur ist dies die Aufgabe von MS, es ist sogar die einzig wirklich wichtige Aufgabe. Das ist ihr gesamtes Geschäftsmodell.

Ich glaub du trollst oder wie kannst du so daneben liegen? :eek:

Birdman
2021-10-09, 02:27:16
Netflix arbeitet sowieso Serverless.
Alles was sie hier Aufzählen würden sie um den Faktor drei beschleunigen können, wenn sie nicht AWS-Instanzen (und discless Instanzen) mieten sondern selber Hardware hinstellen würden.

Äh nein, Netflix hat keine AWS Instanzen, sondern 10-tausende physische server weltweit verteilt stehen.
Nur dass diese gar nicht Netflix gehören, sondern Netflix kauf/bezahlt und baut diese und "verschenkt" sie dann den ISPs und Hostern, welche die dann bei sich ins Datacenter stellen. (und ja, die gehören dann wirklich den jeweiligen ISPs - wenn die wollten können sie so ein System dann einfach wieder vom Netz nehmen und das wars...keine Rückgabe nötig, keine Mindestvertragslauffrist wie lange man so ein Server betreiben muss, nix.)

MiamiNice
2021-10-09, 03:03:51
Klar ist das die Pflicht von MS. Ich bin der Kunde und wenn MS seine Arbeit nicht macht, werde ich kein Windows kaufen. Ganz einfach.

Du tust so als ob MS hier was nettes für AMD oder Intel machen würde, das verstehst du aber komplett falsch und hat nichts mit der Realität zu tun.

Unabhängig der Optimierung für diverse Architekturen diverser Hersteller dürfte MS diese Sorge imho kaum antreiben.