PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake - Review-Thread


Seiten : 1 2 [3] 4 5 6 7 8

Edgecrusher86
2021-11-16, 21:41:43
Meine mich zu erinnern, dass -100 bei 5GHz gingen.

Geht man ein bisschen unter die 5Ghz kann man plötzlich unglaublich weit runter mit der Spannung, was sich auch an den Temperaturen (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12846663#post12846663) widerspiegelt.


Danke für die Info. :)

Lehdro
2021-11-16, 22:00:32
Wo war jez die Aufregung? War doch bekannt, dass Alder Lake effizienter als Vermeer ist ... frage mich eher, wieso bei Igor so krasse Differenzen zwischen 5950X und 5900X auftreten was die Leistungsaufnahme in Spielen anbelangt?
Ich verweise mal auf die Werte (https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-gaming-benchmark-test/2/#abschnitt_die_leistungsaufnahme_in_spielen) und die Werte (https://www.capframex.com/tests/Alder%20Lake-S%2012900K%20ist%20der%20neue%20Gaming%20K%C3%B6nig). So klar ist da gar nichts gewesen ohne den Nachtest von Igor, da die Werte komplett konträr zu seinen waren. Wie wir jetzt wissen sind CB und Igors initialer Test zwei Extrema, die deutlich abweichen voneinander. So deutlich, dass sich das Fazit verschob.

y33H@
2021-11-16, 22:17:09
Ich hab das jez nicht im Detail ausgerechnet, aber sowohl CB als auch CPX und Igor haben alle Werte, die aufzeigen, dass ein 12900K in Spielen grob ähnlich viel Energie benötigt wie ein 5950X und dabei mehr Fps erreicht, sprich effizienter ist.

Lehdro
2021-11-16, 22:36:45
Ich hab das jez nicht im Detail ausgerechnet, aber sowohl CB als auch CPX und Igor haben alle Werte, die aufzeigen, dass ein 12900K in Spielen grob ähnlich viel Energie benötigt wie ein 5950X und dabei mehr Fps erreicht, sprich effizienter ist.
Bei CB braucht der 12900k im Schnitt 10% mehr Energie für 10% mehr Leistung = selbe Effizienz. Bei CPX ist von effizienter bis zu massiv ineffizienter alles dabei, je nach Konfig. Bei Igor kam ein klares "massiv effizienter" raus. Kannst du auch Lotto spielen wenn du dir die drei Quellen rannimmst. Dank Igor wissen wir jetzt genau wann ADL massiv effizienter ist und wann eben nicht. Das bestätigt auch die Validität der anderen Quellen, da dort die beschriebenen Konfigurationen des Testsetups ziemlich gut hinhauen mit dem was Igor ermittelt hat.

Geldmann3
2021-11-17, 00:15:42
Folgend auf die Kurven zum Leistungs- und Temperaturverhalten des Core i9 12900k (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12846663&postcount=452), nun eine kleine Analyse der unterschiedlichen Hardware-Thread-Typen bezüglich ihrer jeweiligen Leistungsaufnahme sowie Performance unter Last.

https://i.ibb.co/DbnGJ0k/12900-K-Performance-Power-Kopie.png (https://i.ibb.co/0fHs55s/12900-K-Performance-Power.png)

Die Performance-Kerne in Verbindung mit Hyperthreading leisten selbstverständlich am meisten, verbrauchen jedoch auch ohne die Effizienz-Kerne bereits stattliche 186 Watt des gesamten Energiebudgets des Prozessors.

Schaltet man Hyperthreading aus, verlieren die Kerne rund 22% ihrer Multithreading-Performance, verbrauchen jedoch weiterhin 160 W Strom und verlieren somit an Effizienz.

Ein Effizienz-Kern vollbringt auf einem Viertel der Chipfläche eines großen Kerns noch ganze 42% von dessen Leistung, was dazu führt, dass alle 8 Efficiency-Cores lediglich 65 Watt aus der Steckdose ziehen.

Zu guter Letzt wollte ich auch die Hyperthreads noch einmal in die Effizienzbetrachtung miteinbeziehen. Da mir in Hardware keine Möglichkeit bekannt ist, Tasks ausschließlich auf den Hyperthreads laufen zu lassen, habe ich deren Performance und Leistungsaufnahme aus Performance Cores + HT - Performance Cores - No HT errechnet. Zuerst war mir nicht klar, wie präzise das Aufstellen einer solchen Berechnung sein kann, da einzelne Kerne, aufgrund des größeren thermischen und Leistungsbudgets theoretisch höher boosten könnten, wenn andere nicht aktiv sind. Doch rechnet man die Leistungsaufnahme aller einzelnen Threads zusammen, kommt man im oben stehenden Diagramm auf 251 Watt, was doch extrem nah an dem Power-Limit meines 12900K von 250 Watt liegt. Daher gehe ich davon aus, dass wir hier durchaus eine recht präzise Annäherung an die realen Werte vor uns haben. Die Performance-Kerne beziehen rund 22% ihrer Multikern-Leistung aus den Hyperthreads, letztere ziehen dabei lediglich 26 Watt zusätzlich und sind somit alles in allem betrachtet die Art von Threads, welche am effizientesten für eine Leistungssteigerung sorgt.

Werfen wir als Nächstes also einen abschließenden Blick auf die Performance pro Watt der unterschiedlichen Kerne und Threads.
Diesen Vergleich wollte ich übrigens schon lange mal machen, seit ich zum ersten Mal von Alder-Lake gehört habe.

https://i.ibb.co/Ry63ZVS/12900-K-Performance-Watt-Kopie.png (https://i.ibb.co/pzDQG2f/12900-K-Performance-Watt.png)

Zwar handelt es sich bei der Effizienzerrechnung der Hyperthreads, wie beschrieben, um eine etwas abstrakte Herleitung, jedoch ist hier sehr schön zu sehen, dass diese am wirkungsvollsten arbeiten.

Die Effizienzkerne kommen hier lediglich auf 76% derselben Performance pro Watt.

Mit 64% folgen jedoch bereits, überraschend nah, die Performance-Kerne in Verbindung mit ihren aktivierten Hyperthreads. Intel erreicht mit den Effizienzkernen folglich mehr einen Flächenvorteil als einen Effizienzvorteil. Auf derselben Fläche bringt Intel nämlich 68% mehr Performance als die eines großen Kerns unter. Die 20% an zusätzlicher Effizienz sind zwar ebenfalls nicht verachtenswert, doch hier hätte ich mehr erwartet.

Das Schlusslicht bilden bei der Effizienz, recht erwartbar, die Performance-Kerne ohne Hyperthreading.

Platos
2021-11-17, 10:41:32
Mich würde mal interessieren, warum die E-Cores kein HT haben. So viel Fläche verbraucht HT ja eig. nicht. Oder warum lohnt sich das nicht für Intel?

y33H@
2021-11-17, 11:53:19
Seit die Atoms auf OoO umgestellt wurden, gibt's kein HT mehr - ist aus Intels Sicht besser, habe aber ehrlich gesagt nie nachgefragt bzw mir eine Erklärung liefern lassen. Gerade für Perf/mm² ist SMT ja sonst ziemlich beliebt.

WedgeAntilles
2021-11-17, 12:30:42
Bei CB braucht der 12900k im Schnitt 10% mehr Energie für 10% mehr Leistung = selbe Effizienz. Bei CPX ist von effizienter bis zu massiv ineffizienter alles dabei, je nach Konfig. Bei Igor kam ein klares "massiv effizienter" raus. Kannst du auch Lotto spielen wenn du dir die drei Quellen rannimmst. Dank Igor wissen wir jetzt genau wann ADL massiv effizienter ist und wann eben nicht. Das bestätigt auch die Validität der anderen Quellen, da dort die beschriebenen Konfigurationen des Testsetups ziemlich gut hinhauen mit dem was Igor ermittelt hat.
Hattest du Igor nicht ziemlich stark angegriffen und seinen ersten Test als lächerlich oder etwas in der Richtung bezeichnet? :wink:

Aber ernsthaft: Sehr interessant zu lesen gewesen, die zusätzlichen Tests haben viel Licht ins Dunkel gebracht.
Irre ich mich, oder wird Benchen in der Tat immer komplexer und aufwändiger?
Gefühlt war es vor 10 Jahren sehr viel einfacher und eindeutiger wenn man einen Vergleich haben wollte.
Heute gilt: Hier sind die Vergleiche, aber beachtet dazu - und dann kommt eine lange Liste mit Infos zu Ram, Settings, diesem und jenem.

Ich bin froh, dass sich die doch teilweise großen Unterschiede geklärt haben, denn ich halte sowohl von Igor, aber auch von HardwareUnboxed und GamersNexus viel. Wäre da jetzt rausgekommen, dass irgendwo "Murks" gemacht worden wäre, hätte mich das sehr enttäuscht.

TurricanM3
2021-11-17, 13:13:44
würd mich interessieren was du aus den 0815 dingern rausholen kannst. auch gerne gegen stock.

Ich hab gerade noch Dominator geschossen, waren aber nur die 4800C34 lagernd. Immerhin besser als die nackigen 4800C40.
Muss mal schauen wie ich das mit dem Wasserkühler mache. Hab noch einen Cuplex vom letzten Intel, der Anpressdruck ist da aber nicht optimal und manuell einfach erhöhen will ich jetzt nicht. Das kann unschöne Effekte geben. Backplate bei Aquacomputer ist leider erst in Planung. Sehe gerade watercool hat schon alles für S1700 inkl. Backplate. Bestelle ich mir mal schnell noch.

ryan
2021-11-17, 18:25:03
https://i.ibb.co/DbnGJ0k/12900-K-Performance-Power-Kopie.png (https://i.ibb.co/0fHs55s/12900-K-Performance-Power.png)

Die Performance-Kerne in Verbindung mit Hyperthreading leisten selbstverständlich am meisten, verbrauchen jedoch auch ohne die Effizienz-Kerne bereits stattliche 186 Watt des gesamten Energiebudgets des Prozessors.


Ich würde immer P+E mit reinnehmen. Dann kann man sich das E-core delta von P+E und P selber ausrechnen. Ich halte das für genauer solange sich die P cores nicht sauber vollständig deaktivieren lassen.

Lehdro
2021-11-17, 21:11:15
Hattest du Igor nicht ziemlich stark angegriffen und seinen ersten Test als lächerlich oder etwas in der Richtung bezeichnet? :wink:
Seinen Test an sich, sprich die Leistungs und Verbrauchswerte, habe ich nicht kritisiert, nur die Zusammenstellung der Testsubjekte für die Effizienz. Zu dieser Aussage stehe ich auch heute, weil sie in keinster Weise mit seinen eigentlichen Tests kollidiert (die Daten sind sicherlich alle korrekt), nur mit seinem Fazit in der Sektion. AMD nur mit PBO zu testen, die ADL aber mit 125W und 241W ist halt einfach hirnrissig, zumindest wenn man damit Effizienz ertesten will. Da können die Werte noch so korrekt sein, wenn die Kontrahentenwahl derart biased ist, kommt beim Fazit nur Müll raus. Das kann auch niemand ernsthaft verteidigen wollen.

Geldmann3
2021-11-18, 00:13:08
Ich würde immer P+E mit reinnehmen. Dann kann man sich das E-core delta von P+E und P selber ausrechnen. Ich halte das für genauer solange sich die P cores nicht sauber vollständig deaktivieren lassen.

Meinst Du P+HT+E? oder P+E?

Edit:
Habe ein Problem mit dem 12900K.
In Handbrake verwendet er, wie auf dem Screenshot unten zu sehen, immer nur die E-Cores. (Windows 10)
Habe zwar vor dieses Jahr auf Windows 11 zu wechseln, doch ob das noch gefixt wird?

Auch mit Process Lasso lässt sich die Nutzung aller Kerne nicht forcieren.
Solange auch nur 1 E-Core zugewiesen ist, werden die P-Cores nicht verwendet.
Folglich kann ich immer nur die E-Cores oder die P-Cores verwenden, aber nicht beide.
Wenn ich die Hyperthreads deaktiviere, werden die E-Cores wenigstens noch teilweise aktiv.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77412&stc=1&d=1637195263

Also praktisch ist es jetzt kein Problem für mich, ganz angenehm so eine zweite CPU zu haben, die sowas im Hintergrund macht. Doch zum Benchmarken oder für maximale Geschwindigkeit ist das scheiße.

Ein ähnliches Problem habe ich mit 7-Zip. Sobald dieses nicht mehr im Vordergrund läuft, wird dieses beim Packen oder Entpacken komplett auf die E-Cores geschoben. Natürlich toll für die Responsiveness des Systems, aber schlecht für die Geschwindigkeit.

ryan
2021-11-18, 15:52:23
Meinst Du P+HT+E? oder P+E?



Ich meine P+HT+E und P+HT. So bekommt man das delta raus, was die E-Cores zusätzlich verbrauchen. Ich verlinke es nochmal:

https://twitter.com/OneRaichu/status/1458307029135609857

VooDoo7mx
2021-11-18, 16:42:18
Heute kam endlich mein LGA1700 mounting bracket

Win 11 frisch installiert und ganz kurz den 12700K mit CB23 getestet.

@idle ohne UV 2-3W Verbrauch mit aktiver IGP

@stock mit -100 mV UV 132W Verbrauch

OC geht problemlos
@5GHz P / 4GHz E -100mV UV 210W Verbrauch und läuft stabil

RAM läuft erst mal 3600 G1 mit schlechten Timings, da muss ich noch mehr testen.

Jedoch funktioniert das UV mit dem Intel XTU nicht 100% korrekt, ab einen gewissen Wert wird einfach die Spannung nicht weiter gesenkt, egal was ich einstelle.
Also die Spannung geht nicht tiefer als 1,09V@stock: :usad:
Der Offset Mode beim Mainboard zerstört komplett die Performance und halbiert diese. WTF?
Also beim UV ist ggf. noch mehr drin und der Verbrauch sollte sich weiter senken lassen.

Geldmann3
2021-11-18, 17:20:23
Welches Mainboard verwendest Du denn?

Ex3cut3r
2021-11-18, 17:34:58
Wusstet ihr eigentlich das ein i5-12600K beim Cinebench R23 einen 3900X überholt?

Ok, Zen 2 ist schon 2 Jahre alt. Aber trotzdem, finde das erstaunlich, trotz 2 Kerne weniger und insgesamt 8 Threads weniger. Da hat Intel wirklich super Arbeit geleistet. Und erschwinglicher als ein 5600X ist er IMO auch noch. Und on Top dürfte der i5-12400f wirklich eine sehr interessante Preis Leistungs Gamer CPU werden. Wer da zum 5600X greift (beim kompletten Neukauf) dem ist nicht zu helfen.

dildo4u
2021-11-18, 17:41:17
Computerbase hat den 3900X 1000 Punkte drüber du musst immer nach den schwarzen Einträgen suchen.

Rebell
2021-11-18, 17:43:00
https://www.reddit.com/r/hardware/comments/qwn1j9/core_i912900k_performance_efficiency_at_various/

ganz interessant finde ich

Thunder99
2021-11-18, 18:56:49
Quelle kam von hier ;D

mocad_tom
2021-11-18, 21:29:26
bei diesen effizienzwerten sieht man, dass sapphire rapids mit 4ghz mit richtig vielen kernen (richtig viel silizium grundfläche) abgeht wie schmitts katze.

aufkrawall
2021-11-18, 21:35:21
Intel erreicht mit den Effizienzkernen folglich mehr einen Flächenvorteil als einen Effizienzvorteil.
Laut derbauer brauchen die für 4,2GHz Allcore auch wahnwitzige 1,3V bzw. hatte er das eingestellt. Ein knappes GHz über dem Sweet Spot? :freak:

dildo4u
2021-11-19, 10:04:10
bei diesen effizienzwerten sieht man, dass sapphire rapids mit 4ghz mit richtig vielen kernen (richtig viel silizium grundfläche) abgeht wie schmitts katze.
SR hat AVX 512 aktiv kommt massiv drauf an welche Code man laufen hat welche Taktraten das Ding dann schaffen wird.


MCE schlägt wieder zu 360 Watt fürs i5 System im CPU only Test.

https://youtu.be/C0p7ICPy224?t=695

mocad_tom
2021-11-19, 15:34:52
Sorry ich weiß es nicht, aber was ist MCE?

dildo4u
2021-11-19, 15:37:51
Übertaktung die manche Boardhersteller mit dem default Bios Profil aktiv haben, z.b ziehen sie alle Kerne auf die Turbo Frequenz die eigentlich nur für 1 bis 2 Kerne gelten soll.

Dr.Doom
2021-11-19, 17:30:35
Kaputtes Mainboard oder kaputte CPU erwischt?

Erworben:
i7-12700K und Gigabyte Z690 Gaming X

Windows (10, zehn) fuhr anfangs normal hoch, aber Leistung war unterirdisch. Im Bios/Uefi mal nachgesehen (E-Core abstellen) und gesehen, dass nur ein RAM-Riegel auf A2 erkannt wird (gesteckt A2 und B2).
RAM-Riegel testweise mal getauscht (A2->B2 und umgekehrt), selbes Ergebnis.
Beide Riegel in A1/A2, beide da.
Beide Riegel in B1/B2, kein booten, nichtmal mehr ins Bios/Üfi.
Beide Riegel komplett raus, auch kein Booten.
Beide Riegel wieder A2/B2, auch kein Booten... ?!

Bios-Reset per Jumper, kein Booten
Bios-Reset per Batterie raus, kein Booten.

(Auch mal komplett anderes RAM-Kit versucht, keine Besserung.)

Alten PC wieder zusammengebaut (8700K, Z370) mit dem RAM von oben. Alles wieder tuti.

RAM: 32 GB G.Skill F4-3200C14-16GTZ (https://www.forum-3dcenter.org/vbulletin/member.php?u=1736&tab=other2) (2x16)
Alternativ: Crucial 3200 CL16 Sparbrötchen (2x8)


Kann vmtl. sowohl CPU als auch Board sein, oder?
Sichtprüfung der Sockelpins hat keine Auffälligkeiten gezeigt.

Bios/Üfi des Boards von F2 auf F4 aktualisiert, inkl. Laden der Defaults.Neues Mainboard ist da, nun tut's.

Dafür -- das hat mich wieder einige Minuten bis Stunden meines Lebens gekostet -- kann ich nun Windows nicht (neu)starten, wenn ein USB-Stick gesteckt ist...?! Der Stick ist nichtmal bootbar. Abgezogen -- alles supi mit dem Start.
Der Stick konnte aber beim vorigen Asrock-Board einfach gesteckt bleiben.

im Bios/Üfi dem Stick die Boot-Berechtigung entzogen, aber wenn der Stick gesteckt ist, kommt der Rechner nichtmal bis zur POST-Zusammenfassung gleich nach dem ersten Licht auf dem Monitor nach dem Einschalten. *seufz*

Ex3cut3r
2021-11-19, 17:48:49
Hast du mal Boot Reihenfolge im Bios angeschaut? Wahrscheinlich ist auf Priorität 1 USB-Stick oder ähnliches drauf. Da einfach das raushauen und/oder die Boot SSD eintragen, als zweites dann nen Stick.

Dr.Doom
2021-11-19, 18:00:17
Schon g'macht:
im Bios/Üfi dem Stick die Boot-Berechtigung entzogen, aber wenn der Stick gesteckt ist, kommt der Rechner nichtmal bis zur POST-Zusammenfassung gleich nach dem ersten Licht auf dem Monitor nach dem Einschalten. *seufz*

Auch "Legacy USB" abgeschaltet, eingeschaltet... egal, verhält sich gleich.

Ach ja, das ist kein Gigabyte Board mehr sondern ein ASUS TUFTUF Gaming Z690-Plus (DDR4).

hq-hq
2021-11-19, 19:20:09
oje wenn ich sowas schon wieder lese mit den Problemen, erinnert mich an mein X570 Board mit dem 5800x... puh würd mir schon gern was neues bestellen zu Weihnachten

hat hier jemand schon ein Asrock Z690 Extreme?

matty2580
2021-11-20, 07:46:49
Zum i5 12400 gibt es erste Benchmarks (bei 3:05):
https://youtu.be/JUF41lzgt_4

DasMonty mein, dass könnte die beste P/L-CPU werden, und vielleicht so gar um die 200 USD liegen.
Von der Performance her liegt der i5 12400 und der Ryzen 5 5600X her gleich, der aber 300 USD kostet.

Geldmann3
2021-11-20, 08:35:55
Deep-Dive: Die Auswirkungen des Power-Limits auf die Multi-Threading-Performance des Intel Core i9 12900K

Eventuell erinnert ihr euch noch an die Messungen zur Performance des Core i9 12900k (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12846663#post12846663) bei unterschiedlichen Power-Limits. Leonidas schrieb dazu (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-november-2021), dass er sich die Ermittlung dieser Werte noch einmal solide, über ,,ein ganzes Benchmark-Feld" wünschen würde, da man den Effekt der eingestellten Leistungsaufnahme anhand der geringen Anzahl an Datenpunkten nur grob schätzen könne. Dabei hat er sich vor allem einen Fokus auf den Bereich zwischen 125 und 175 Watt gewünscht. Weiterhin schrieben einige, dass sie sich die Hinzunahme gängiger TDPs wie 65, 95, 125 und 142 Watt wünschen würden, damit es möglich ist, entsprechende Vergleiche zu den CPUs der Konkurrenz zu ziehen.

Gesagt getan.

Um die Tests weiter zu vertiefen, habe ich mich dafür entschieden, mich auf die Leistungsaufnahmen von 65 bis 210 Watt zu konzentrieren, dabei in 15 Watt Schritten vorzugehen und eine weitere Messung bei 250 Watt vorzunehmen, um herauszufinden, wie weit man bei 210 Watt noch von der maximalen Leistungsfähigkeit des Prozessors entfernt ist, wenn dieser seinen Dauerboost voll ausfährt. Ich habe darüber nachgedacht, noch feingranularer als in 15W Schritten zu messen, jedoch waren die Leistungsunterschiede zwischen den einzelnen Wattagen bereits so gering, dass man sich Zwischenwerte ohne Probleme, relativ präzise extrapolieren kann, wenn man dies möchte. Weiterhin wäre der Testaufwand für eine einzelne Person selbstverständlich explodiert. Immerhin habe ich nun bereits 154 einzelne Messwerte erfasst. Weitere 50 habe ich bestimmt verworfen und wiederholt, weil irgendetwas nicht so funktioniert hat, wie ich es mir gewünscht habe.

Da viele sich einen entsprechenden Test mit dem Cinebench gewünscht haben, fangen wir doch mit diesem an.
An dieser Stelle habe ich mich für den Cinebench R20 entschieden, da dieser relativ schnell durchzuführen ist.

https://i.ibb.co/89tyPdp/Cinebench-R20.png (https://i.ibb.co/89tyPdp/Cinebench-R20.png)

Wie wir sehen, skaliert der 12900K bis 125W noch hervorragend, worauf dann allerdings ein gewisser Knick in der Kurve folgt, welcher bei 165 Watt noch verschärft wird. Zwischen 125 und 250 Watt liegt ein Performanceplus von rund 16%. Beim Rendern muss hier jeder für sich selbst entscheiden, ob ihm 100% mehr Leistungsaufnahme 16% mehr Performance wert ist. Sofern er das überhaupt kühlen kann. Zwischen 195 Watt und 250 W liegen dann noch rund 4% zusätzliche Performance.

Werfen wir als Nächstes einen Blick auf die Temperaturen, sehen wir allerdings, dass meine 420mm Wasserkühlung bei 250W langsam zu versagen beginnt. Eventuell handelt es sich nicht um das optimale Kühlermodell für diese CPU oder man könnte mit Flüssigmetall oder einer Custom-Lösung nachhelfen, jedoch gehe ich durchaus davon aus, dass meine Kühlung zum besten Prozent aller CPU-Kühlungen gehört, gerne könnt ihr mir hier natürlich widersprechen.

Jedenfalls habe ich genug an der Kühlung herumgespielt, besser bekomme ich es nicht hin und wichtig ist bei diesen Tests in meinen Augen ohnehin, dass gleichbleibende Bedingungen herrschen. Weshalb ich zwischen jedem Test jeweils so lange gewartet habe, bis Chipsatz und CPU wieder auf maximal 30°C heruntergekühlt waren. Warum die Temperaturen mit zunehmender Leistungsaufnahme nicht konstant nach oben gehen, sondern fast schon stufenweise, kann ich mir nicht erklären, da Lüfter und Pumpe mit gleichbleibender Geschwindigkeit liefen.

https://i.ibb.co/12Yq1kb/Cinebench-R20-temps.png (https://i.ibb.co/12Yq1kb/Cinebench-R20-temps.png)

An dieser Stelle muss ich anmerken, dass ich während der Durchführung der Benchmarks den Hinweis erhalten habe, dass eine neue BIOS-Version meines Boards die Temperaturen um einige °C senken könnte. Jedoch habe ich dies nicht getan, weil ich (A) gleiche Testbedingungen für alle Durchläufe haben möchte, (B) nicht von vorne beginnen wollte, (C) sehr zufrieden mit meinen Overclocking Ergebnissen bin und (D) neue Bios-Versionen einiger Boards die reale Leistungsaufnahme jetzt wohl auf 225W satt 250W limitieren. Nur so als Hinweis, mit viel Glück könnt ihr mit einem Bios-Update eventuell rund 10°C weniger erwarten. Das habe ich jedenfalls schon so gesehen, ich weiß allerdings nicht, auf welche Boards dies zutrifft. Eventuell möchte man an dieser Stelle einfach doch das Risiko limitieren, dass diese CPUs bei 250W Dauerlast ,,schnell kaputtgehen". Besonders mit schlechter Kühlung kann ich mir sehr gut vorstellen, dass es nicht gut für die Lebenszeit ist, wenn die CPU oft bei um die 100°C läuft.

Nach diesem kleinen Abstecher machen wir doch weiter mit dem Test, mit welchem im Zuge meiner letzten Tests alles begonnen hat. Dem CPU-Z-Benchmark.

https://i.ibb.co/QkKzs3m/CPU-Z-Benchmark.png (https://i.ibb.co/QkKzs3m/CPU-Z-Benchmark.png)

Anders als der Cinebench R20 skaliert der CPU-Z Benchmark ein wenig schlechter. Beim Sprung von 65 auf 250W verzeichnen wir hier lediglich 55% Performancezuwachs, anstatt der rund 66% im Cinebench.

Hier findet der Knick in der Kurve bereits bei rund 110W statt.

Eine Verdopplung der Leistungsaufnahme von 125 auf 250 Watt resultiert noch in rund 11% zusätzlicher Performance.

Gehen wir von 195 auf 250 Watt, gewinnen wir noch rund 2% an Punkten.

Am unteren Rand des Diagrammes sieht man die Auswirkungen des Power-Limits auf die Single-Threading-Performance.

Ja, richtig, man sieht nicht viel, da ein einzelner Kern, egal bei welcher eingestellten Leistungsaufnahme, immer dazu in der Lage ist, seinen Boost voll auszufahren. Bei 250W sehen wir sogar einen minimalen Rückgang der Single-Threading-Performance. Eventuell schmecken dem Kern die 100°C nicht, weshalb ihm hier langsam die Lust zum Boosten vergeht. Wohl bemerkt, steigt die Multi-Threading-Performance allerdings dennoch leicht an. Das ist auch der Grund, weshalb ich vermute, dass das eingestellte Power-Limit keine großen Auswirkungen auf die Spieleperformance haben wird. Spiele sind oft sehr von den schnellsten Threads einer CPU abhängig. Doch mit dem Thema Spieleperformance möchte ich mich gerne zu einem anderen Zeitpunkt, dediziert, beschäftigen.

Betrachten wir als Nächstes die Temperaturkurve in CPU-Z.

https://i.ibb.co/N7XmqQ5/CPU-Z-Benchmark-temps.png (https://i.ibb.co/N7XmqQ5/CPU-Z-Benchmark-temps.png)

Wirklich bergauf geht es mit meiner Kühllösung erst ab ~110 Watt, dann jedoch kontinuierlich. Bei über 200 Watt ist eine adäquate Kühlung der CPU kaum noch möglich, wahrscheinlich kann sie die Wärme nicht schnell genug an die verbaute Wasserkühlung abgeben. Jedoch habe ich ohnehin nicht vor, den 12900K durchgehend mit 250 Watt zu befeuern.

Werfen wir nun einen Blick auf die Kompressions- und Dekompressionfähigkeit des Prozessors bei unterschiedlichen Leistungsaufnahmen.

https://i.ibb.co/G39FZjt/7-Zip.png (https://i.ibb.co/G39FZjt/7-Zip.png)

Während wir bei der Dekompressionsperformance große Leistungssprünge im 7-Zip Benchmark beobachten, tut sich bei der Kompressionsperformance kaum etwas. (+48% vs. +7%). PCGH hat jedoch bereits zum Release von Alder Lake gezeigt (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Specials/Intel-Core-i9-12900K-RAM-Benchmarks-DDR5-vs-DDR4-1382843/), dass ich in diesem Workload wahrscheinlich stark von meinem 3200er DDR4 Ram limitiert werde. Zwar glänzt mein Arbeitsspeicher mit außergewöhnlich niedrigen Latenzen, jedoch steht er DDR5 Ram in puncto Transferrate massiv nach. Andererseits halte ich die gezeigten Werte dennoch für praxisrelavant. DDR5 Ram ist nach dem Release praktisch kaum verfügbar gewesen, viele wollen ihren DDR4 Ram eventuell, genau wie ich, im neuen System weiterverwenden und am Ende hat jedes System irgendwo eine Schwachstelle. Jedoch ist hier zu Bedenken, dass der Kompressionswert wahrscheinlich stärker auf eine höhere Leistungsaufnahme reagieren würde, wenn ich schnelleren Ram verwenden würde, was sich folglich auch auf den Overall-Wert in MIPS auswirkt. Bei welchem wir von 65 auf 250 Watt lediglich eine Steigerung von ~29% verzeichnen. Die Verdopplung der Leistungsaufnahme von 125 auf 250 Watt resultiert hier insgesamt nur noch in einer Leistungssteigerung von 6%.

Werfen wir im nun folgendem Diagramm einen Blick auf die dabei entstehenden Temperaturen, sehen wir, dass die CPU bei solch speicherintensiven Aufgaben weniger gefordert wird, als in den bisher fast rein von der CPU-Performance abhängigen, eher synthetischen Use-Cases. Mit schnellem DDR5 Ram und einem entsprechendem Board, würde ich hier jedoch einige °C mehr im Peak erwarten.

https://i.ibb.co/Hd0vKQ2/7-Zip-Benchmark-temps.png (https://i.ibb.co/Hd0vKQ2/7-Zip-Benchmark-temps.png)

Wenden wir uns als Nächstes dem Intel eigenem XTU2 Benchmark zu, welcher, wie wir gleich auch an den Temperatur und Auslastungswerten sehen werden, ziemlich darauf getrimmt ist, möglichst viele Transistoren in der CPU auszulasten. (Dinge wie AVX512 lasse ich hierbei mal außen vor.)

https://i.ibb.co/LpXTgZC/Intel-Core-i9-12900-K-Performance-at-various-Power-Limits.png (https://i.ibb.co/LpXTgZC/Intel-Core-i9-12900-K-Performance-at-various-Power-Limits.png)

Hier haben wir einen wunderbar skalierenden Benchmark vor uns. Bei einer Steigerung von 65 auf 250 Watt beobachten wir +62% Performance, erst bei etwa 140 Watt knickt die Performance-Kurve ein. Von 140 Watt bis 250 Watt steigt die Performance lediglich noch um 10%. Für eine 10 prozentige Leistungssteigerung benötigen wir folglich ganze 79% mehr Strom.

Bei den thermischen Werten sehen wir gleich, dass dieser Benchmark die CPU stärker belastet, als alles andere, was wir bisher getestet haben. Denn nichts anderes hat es bisher geschafft den 12900K bereits bei 210 Watt Leistungsaufnahme an die 100°C Grenze zu treiben. Auch hat kein anderer Use-Case bisher dafür gesorgt, bereits bei nur 80 Watt 75°C Temperatur zu erzeugen.

https://i.ibb.co/JdNJMPB/XTU2-Benchmark-Temps.png (https://i.ibb.co/JdNJMPB/XTU2-Benchmark-Temps.png)

Schauen wir uns zuletzt noch einmal einen praktischen Use-Case in Form von x264/x265 Transkodierung an. Da Handbrake im Moment noch Probleme mit den neuen Intel-CPUs (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12849873&postcount=512) zu haben scheint, habe ich mich dafür entschieden den x264/x265 Benchmark (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581419) aus dem hier hauseigenen Forum zu bemühen. Dieser scheint nämlich alle vorhandenen Kerne auslasten zu können.

https://i.ibb.co/DCq4xTv/Encoding-Benchmarks.png (https://i.ibb.co/DCq4xTv/Encoding-Benchmarks.png)

Sowohl die x264 als auch x265 Performance nehmen beim Sprung von 65 auf 250 Watt, um rund 62% zu. Beim Sprung von 125 auf 250 Watt bekommen wir immerhin noch 16% an zusätzlicher Performance. Unten sehen wir hingegen ein weiteres Mal die Egalität der Leistungsaufnahme auf die Single-Threading-Performance belegt.

Die Temperaturkurve zeigt eine starke Zunahme der Wärmeentwicklung ab 125 Watt.

https://i.ibb.co/wSyDvX1/Encoding-Benchmark-temps.png (https://i.ibb.co/wSyDvX1/Encoding-Benchmark-temps.png)

Zum Abschluss der Temperaturanalyse noch einmal alle gemessenen Temperaturen auf einem Blick, sowie ein Diagramm mit dem errechneten arithmetischen Mittel aller Messungen.

https://i.ibb.co/ZzV461B/All-temperatures.png (https://i.ibb.co/ZzV461B/All-temperatures.png)

https://i.ibb.co/x5hqR81/All-temperatures-AVG.png (https://i.ibb.co/x5hqR81/All-temperatures-AVG.png)

Insgesamt sehen wir eine deutliche Erhöhung der Steigung ab 125W. Was allerdings stark von der verwendeten Kühllösung abhängig ist.

Nun noch einmal alle Multi-Threading-Performance-Messungen auf einem Blick, gefolgt von deren arithmetischen Mittelwerten.

https://i.ibb.co/BjQBkMx/All-MT-Benchmarks.png (https://i.ibb.co/BjQBkMx/All-MT-Benchmarks.png)

Cinebench R20 hat tatsächlich am Besten von allem skaliert, das Schlusslicht hingegen bildet 7-Zip.

https://i.ibb.co/s9L5xYf/All-MT-Benchmarks-AVG.png (https://i.ibb.co/s9L5xYf/All-MT-Benchmarks-AVG.png)

Insgesamt sehen wir bei einer Steigerung des Power-Limits von 65 auf 250 Watt, über alle Anwendungen hinweg, einen Performancezuwachs von rund 55%. Beim Sprung von 125 auf 250 Watt messen wir noch 16% zusätzliche Multithreading-Performance. Und bei 195 auf 250 Watt 4%. Beim Single-Threading haben wir jedoch gelernt, dass es egal ist, ob man nun 65 Watt oder gar 250 Watt im Bios eingestellt hat. Was daraus folgend wahrscheinlich dazu führt, dass man im Alltag keinen bzw. in Games kaum einen Unterschied durch eine Senkung des Power-Limits um ganze 74% festellen wird. Dedizierte Gaming-Benchmarks zu dem Thema würde ich entsprechend gerne ein anderes Mal folgen lassen.

Sardaukar.nsn
2021-11-20, 08:54:51
Was für ein mega Beitrag. Vielen Dank dafür!

Lowkey
2021-11-20, 09:04:48
Da will jemand berühmt werden.

Auf die Gaming Tests wäre ich auch gespannt, da man vermutlich die E-cores abschalten wird und letztlich vermutlich mit weniger als 65w auskommen kann.

Kommt dein x264/x265 Benchmark Ergebnis noch für die Liste im Forum?




E-Core Test auf TechPowerup (https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/)

Das Abschalten der P-Core bewirkt keine Wunder. Sollte man nicht machen. Leistung eines 6700k wird erreicht, abert minimal höherer Stromverbrauch.

Geldmann3
2021-11-20, 09:20:27
Kommt dein x264/x265 Benchmark Ergebnis noch für die Liste im Forum?
E-Core Test auf TechPowerup (https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/)


Habe gerade mal ein paar Ergebnisse dort (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12852259#post12852259) gepostet. :D

Auch ein sehr interessanter Test von TechPowerup!

dildo4u
2021-11-20, 11:23:58
Die neuen und alten Intel Modelle im Test gegen Zen + ,2,3.

6fIf-C8UjWY

Platos
2021-11-20, 11:56:37
@ Geldmann: Super Test.

Interessant finde ich, dass im Cinebench-Test das P/W von 110W auf 125W nochmals ansteigt. Das wird wohl eine Anomalie sein oder ähnliches? Ich denke, man kann sich hier denken, dass die Kurve mit der gleichen Steigung eig. weiter verlaufen sollte.

Auf jeden Fall sieht man super, dass es sich ab ~125W eigentlich kaum mehr lohnt, noch höher zu takten. Ich denke mir, dass dann auch die Temperatur langsam bei sehr vielen Leuten ohnehin ins kritische steigt. Und von 125W auf 165W gibts gerade mal +8.9% Leistung bei +32% mehr Watt. Und von 165W auf 250W dann noch gerade läppische +6.7% bei 51% mehr Watt.

Auch interessant ist aber, dass bis 125W (oder 110W) das P/L nicht abnimmt, also die Effizienz von 65W mindestens bis 110W gleich bleibt und man nur Perfomance verschenkt. Natürlich muss man beachten, dass das "nur" Cinebench ist und bei Games das evtl. ganz anders aussehen kann (vor allem für mich, der eher hohe Auflösungen bevorzugt). Da gilt schliesslich FPS/W und da kanns durchaus sein, dass die Effizienz da schon bei 65W einen Knick kriegt oder sonst irgendwo. Bei High FPS Gamer sollte das hingegen in etwa ähnlich skalieren.

Geldmann3
2021-11-20, 12:29:30
@ Geldmann: Super Test.

Interessant finde ich, dass im Cinebench-Test das P/W von 110W auf 125W nochmals ansteigt. Das wird wohl eine Anomalie sein oder ähnliches? Ich denke, man kann sich hier denken, dass die Kurve mit der gleichen Steigung eig. weiter verlaufen sollte.


Danke für den Hinweis, ich werde den Benchmark im Laufe des Tages an diesen Stellen noch ein paar mal laufen lassen, um zu prüfen, ob das auf meinem System reproduzierbar ist oder Zufall war. :)

Plötzlich sind da 1000 Punkte mehr...

Edit: An dieser Stelle hätte ich selbst eher mit einem Mess- oder Einstellungsfehler von meiner Seite gerechnet, doch es ist akkurat.

Hier meine Messungen:

Werte im Diagramm:
110 Watt: 7927 pts
125 Watt: 8924 pts

Zur Prüfung nun je 3 weitere Testdurchläufe an dieser Stelle:

110 Watt Runs:
Run 1: 7927 pts
Run 2: 7907 pts
Run 3: 7959 pts

125 Watt Runs:
Run 1: 8901 pts
Run 2: 8888 pts
Run 3: 8933 pts

Bäm, hier gibt es in Cinebench R20 wirklich einen 1000 Punkte Sprung, WTF?

ryan
2021-11-20, 13:10:23
Bei 150W erreicht man bereits 90% Leistung von 250W. Es bleibt dabei, die letzten paar Prozent werden teuer erkauft und imho wäre ein 150W power Limit die goldene mitte gewesen für den 12900K. Bis 150-165W gehen die Temperaturen noch nicht komplett durch die Decke.

Wer das letzte bisschen Leistung rausquetschen will, hätte das power Limit ja trotzdem hochsetzen können. Ein power Limit von 250W wird der eigentlich guten Architektur nicht gerecht.

BlacKi
2021-11-20, 13:17:31
E-Core Test auf TechPowerup (https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/)

Das Abschalten der P-Core bewirkt keine Wunder. Sollte man nicht machen. Leistung eines 6700k wird erreicht, abert minimal höherer Stromverbrauch.


sehr merkwürdig. singlethreaded zeigt die effizienz sehr gute werte. multithreaded liegen sie schlechter als die p cores. irgendwas passt da nicht. oder liegt das an der L3 anbindung?

Thunder99
2021-11-20, 14:42:14
Zum i5 12400 gibt es erste Benchmarks (bei 3:05):
https://youtu.be/JUF41lzgt_4

DasMonty mein, dass könnte die beste P/L-CPU werden, und vielleicht so gar um die 200 USD liegen.
Von der Performance her liegt der i5 12400 und der Ryzen 5 5600X her gleich, der aber 300 USD kostet.
Wenn das so wird, wird der 5600X günstiger und damit der bessere Prozessor, da günstigere Plattform.

BlacKi
2021-11-20, 14:47:08
Wenn das so wird, wird der 5600X günstiger und damit der bessere Prozessor, da günstigere Plattform.
die billigbretter von intel kommen gleichzeitig mit dem 12400. auch wenn die bretter anfangs wohl höher als bei amd sein werden. ich tippe mal 40-50€ teurer.

Lowkey
2021-11-20, 15:20:44
sehr merkwürdig. singlethreaded zeigt die effizienz sehr gute werte. multithreaded liegen sie schlechter als die p cores. irgendwas passt da nicht. oder liegt das an der L3 anbindung?

Früher hat man auch probiert eine CPU durch Bios Einstellungen zu einem anderen Modell zu machen, was nicht funktioniert. Also schaltet man über die P-Cores auch andere Funktionen mit ab, die sich P und E teilen. Das System sieht nicht vor alle P-Cores zu deaktivieren. Vermutlich wäre es interessanter alle P-Cores auf 100mhz zu halten und eben nicht komplett zu deaktivieren.

ryan
2021-11-20, 15:20:58
sehr merkwürdig. singlethreaded zeigt die effizienz sehr gute werte. multithreaded liegen sie schlechter als die p cores. irgendwas passt da nicht. oder liegt das an der L3 anbindung?


Die P-cores laufen nur mit 3.9 Ghz in dem Test, das sollte ein großer Vorteil sein. Die E-cores laufen bei 3.9 Ghz nahe an der "Kotzgrenze" weit über deren Effizienz sweetspot, während sich die P-cores bei 3.9 Ghz in einem für desktop Verhältnisse sehr gutem Effizienzfenster befinden. Die E-cores sind nicht für hohe Taktraten gemacht, das war schon immer so bei den Atom Kernen. Interessant wäre ein Takt und Effizienzscaling bei den E-cores.

Bei dem Test sollte man berücksichtigen, dass der Idle Wert 12 oder 13W über dem eines 6700k liegt, das Board wird mehr verbrauchen.

Platos
2021-11-20, 15:56:40
Interessant wäre ein Takt und Effizienzscaling bei den E-cores.

Bei dem Test sollte man berücksichtigen, dass der Idle Wert 12 oder 13W über dem eines 6700k liegt, das Board wird mehr verbrauchen.

Genau, das wäre interessant. Kann man die kleinen Kerne auch beliebig takten (sofern stabil) ?

Allerdings kann/darf man bei sowas nicht nur die Taktrate beachten. Man müsste da das Powertarget eig. mit einbeziehen, was eine unheimliche Arbeit gibt.

ryan
2021-11-20, 16:25:29
Das sollte möglich sein, ich habe schon übertaktete Gracemont gesehen. Das mit dem power target is auch so eine Sache, die P-cores lassen sich ja anscheinend nicht deaktivieren. Ein delta von P+E und E wäre wohl genauer.

Platos
2021-11-20, 16:47:54
Ja, man könnte evtl. einen P-Core niedrig takten und dann mit Tools nur die E-Cores einer Anwendung zuweisen. Sowas hat ja CB oder Hardwareluxx gemacht (weiss gerade nicht mehr genau wer von den beiden).

VooDoo7mx
2021-11-20, 18:25:13
@Geldmann

Ich hab ein MSI Z690 A Pro DDR4
Warum kombinierst du nicht Undervolting mit den Power Limit? Da könntest du noch viel mehr rausholen.

Also entweder habe ich einen verdammt guten 12700K abbekommen oder die Spannung bei den CPUs ist massivst zu hoch angesetzt.

Mein 12700K packt problemlos 5,1GHz all Core P / 4,1GHz all Core E bei -80mV Offset. Der CPU benötigt dabei so um die 220W für einen CB R23 run. Meine MSI 240er billig AIO muss aber da schon voll aufdrehen damit ich nicht ins Thermal Throttling Land fahre. CPU Temp war max 94°C
Ich glaub der CPU würde wohl noch mehr packen, da reicht aber meine Kühlung (und vielleicht auch das Board) einfach nicht mehr aus.

5 GHz all Core P / 4 GHz all Core E laufen dann schon mit einen -150 mV Offset. Verbrauch geht dann auf 180W runter und das kann tatsächlich schon alltäglich so laufen.

Aber ich bleib bei den Stock Settings mit einen -140 mV UV Offset. Unter CB R23 Volllast 136W Verbrauch in Spielen dann so 30-50W. :ugly:
Bin echt sehr zufrieden mit dem CPU Verbrauch.

BlacKi
2021-11-20, 19:15:26
Die P-cores laufen nur mit 3.9 Ghz in dem Test, das sollte ein großer Vorteil sein. Die E-cores laufen bei 3.9 Ghz nahe an der "Kotzgrenze" weit über deren Effizienz sweetspot, während sich die P-cores bei 3.9 Ghz in einem für desktop Verhältnisse sehr gutem Effizienzfenster befinden. Die E-cores sind nicht für hohe Taktraten gemacht, das war schon immer so bei den Atom Kernen. Interessant wäre ein Takt und Effizienzscaling bei den E-cores.

Bei dem Test sollte man berücksichtigen, dass der Idle Wert 12 oder 13W über dem eines 6700k liegt, das Board wird mehr verbrauchen.
aber takten die e cores nicht standard mit 3,9? und welchen sinn macht es e cores zu verbauen, wenn die p cores mit niedrigerem takt/PL effizienter arbeiten? das macht keinen sinn. ausserdem zeigt single load, das ein guter effizienzgewinn vorhanden ist, nur MT kacken die e cores anscheinend ab.

robbitop
2021-11-20, 19:27:35
Bei den 15W Alderlakes werden wir sehen, in welchem Frequenzbereich Allcore die P und E Cores laufen.
Im Desktop laufen CPUs nicht zwangsläufig im Effizienzswertspot. Da wollen Benchmarks gewonnen werden und TDP ist Nebensache. :)

ryan
2021-11-20, 19:59:53
aber takten die e cores nicht standard mit 3,9?


Beim 12900K ja, also 3.9 Ghz ST und 3.7 Ghz MT offiziell.



und welchen sinn macht es e cores zu verbauen, wenn die p cores mit niedrigerem takt/PL effizienter arbeiten?


Die P-Cores laufen nicht Standard mit 3.9 Ghz beim 12900K, darum geht es doch. Die P-Kerne wurden auf ein Level gebracht, wo sie sich gut im Effizienzfenster befinden, während die E-cores so belassen wurden. Die Standardtaktraten vom 12900K sind auf performance ausgelegt und nicht auf Effizienz, das sieht man doch an den ganzen Effizienztests mit power budget Begrenzung.

3.9 Ghz beim E-core entspricht 4.9 Ghz beim P-core kann man sagen. Die Intention von techpowerup war beide Architekturen mit der gleichen Taktfrequenz zu vergleichen, doch das ist ein sinnloser Vergleich ohne weitergehende Tests.

BlacKi
2021-11-20, 20:17:16
Beim 12900K ja, also 3.9 Ghz ST und 3.7 Ghz MT offiziell.





Die P-Cores laufen nicht Standard mit 3.9 Ghz beim 12900K, darum geht es doch. Die P-Kerne wurden auf ein Level gebracht, wo sie sich gut im Effizienzfenster befinden, während die E-cores so belassen wurden. Die Standardtaktraten vom 12900K sind auf performance ausgelegt und nicht auf Effizienz, das sieht man doch an den ganzen Effizienztests mit power budget Begrenzung.

3.9 Ghz beim E-core entspricht 4.9 Ghz beim P-core kann man sagen. Die Intention von techpowerup war beide Architekturen mit der gleichen Taktfrequenz zu vergleichen, doch das ist ein sinnloser Vergleich ohne weitergehende Tests.
das alles geht an der quintessenz aber vorbei. man hat die hybride architektur gebracht, um effizienzvorteile zu haben, die man durchs runtertakten nicht erreichen kann.

der test widerlegt diese annahme. (ob es da störgrößen gibt mal aussen vor)

der m1 chip von apple hat zwar größere performance unterschiede in den kleinen kernen vs die großen, aber die effizienz der kleinen ist erheblich besser als die der großen. faktor 10, wenn ich das richtig im kopf habe. dort ist die MT effizienz auch erheblich besser bei den kleinen kernen, als große kerne heruntergetaktet.

Bei den 15W Alderlakes werden wir sehen, in welchem Frequenzbereich Allcore die P und E Cores laufen.
Im Desktop laufen CPUs nicht zwangsläufig im Effizienzswertspot. Da wollen Benchmarks gewonnen werden und TDP ist Nebensache. :)

möglich, aber ich glaube eher, das die tests oder die cpus nicht richtig getestet werden. keine ahnung ob 2 p cores @1 ghz wirklich ineffizienter werden als 8 e cores bei 2ghz. die zahlen hab ich jetzt nur beispielhaft genannt.

ryan
2021-11-20, 21:08:25
das alles geht an der quintessenz aber vorbei. man hat die hybride architektur gebracht, um effizienzvorteile zu haben, die man durchs runtertakten nicht erreichen kann.


Nein überhaupt nicht. Sie wurden aufgrund ihrer Flächeneffizienz+Performance gebracht und nicht wegen der Effizienz. Einfach mal die Größe von 8P und 8E vergleichen, dann weißt du warum.

Die Effizienz ist vielleicht im Notebook ein Argument aber nicht beim 12900K. Wenn Intel die Effizienz so wichtig gewesen wäre, hätten sie das power Limit nicht so hoch gesetzt. Also nochmal, der i9-12900K ist von Intel auf Performance ausgelegt. Eine eigentlich effiziente Architektur kann man mit hohen Taktrataten ineffizient werden lassen: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852240&postcount=530

Rein auf die Effizienz betrachtet wären E-core Skalierungstests wie gesagt interessant, also vor allem dann für mobile Versionen. 3.0 Ghz statt 3.7 oder 3.9 Ghz zum Beispiel.

Geldmann3
2021-11-21, 23:13:36
GTA V skaliert ab 65W so gut wie gar nicht mehr, da diese eben ausreichen, um 1-2 Kerne boosten zu lassen, der Rest dient scheinbar nur als ,,Hilfskerne", die einzeln nicht viel Leistung bringen müssen.

https://i.ibb.co/PCZ9WPF/GTA-V-Power-Limits-12900-K.png (https://twitter.com/perschistence/status/1462538507453288448/photo/1)

Dabei beobachte ich das Game immerhin dabei bis zu 15 Kerne zu verwenden. Wirklich profitieren wird es von den Letzten allerdings wahrscheinlich nicht mehr.

BlacKi
2021-11-22, 00:19:34
schade das du kein game genommen hast das mit mehr kernen umgehen kann.

Geldmann3
2021-11-22, 00:26:00
Welches Game würdest Du denn gerne sehen?

Mir würde da der FS 2020 einfallen oder Watchdogs Legion.
Eventuell noch Cyberpunk.

BlacKi
2021-11-22, 00:40:58
cyberpunk mit RT

legion kenne ich von der kernskalierung nicht

Geldmann3
2021-11-22, 00:50:05
Wahrscheinlich müsste ich mich da in den nächsten Tagen erstmal ein bisschen reinspielen, immerhin hat das Game keinen integrierten Benchmark. :D

JVC
2021-11-22, 12:41:53
Deep-Dive: Die Auswirkungen des Power-Limits auf die Multi-Threading-Performance des Intel Core i9 12900K
....

Sehr geil :up:
Danke!

M.f.G. JVC

Lehdro
2021-11-22, 16:56:36
Welches Game würdest Du denn gerne sehen?

Total War Troy mit dem CPU Grasrendering.

Platos
2021-11-22, 17:16:23
cyberpunk mit RT

legion kenne ich von der kernskalierung nicht

+1. Soll ja mit RT on selbst mit 10 Kernen noch gut skalieren.

VooDoo7mx
2021-11-22, 17:45:58
Nachdem ich jetzt alles etwas eingefahren habe, läuft bei mir jetzt auf einmal auch DDR4-4000 problemlos mit Gear 1:

https://abload.de/img/unbenannt9tkin.jpg

Es gibt ja noch deutlich bessere DDR4 4000er Module, Wenn Gear 1 mit DDR 4000 läuft, braucht man doch kein DDR5 mehr. :ugly:

Geldmann3
2021-11-23, 02:21:00
Nachdem ich jetzt alles etwas eingefahren habe, läuft bei mir jetzt auf einmal auch DDR4-4000 problemlos mit Gear 1:

https://abload.de/img/unbenannt9tkin.jpg

Es gibt ja noch deutlich bessere DDR4 4000er Module, Wenn Gear 1 mit DDR 4000 läuft, braucht man doch kein DDR5 mehr. :ugly:

Kraaas! Wusste nicht, dass das möglich ist....

TurricanM3
2021-11-23, 11:35:28
Vorhin waren bei Alternate 6000er bestellbar (die wohl Samsung / Hynix sein sollten). Ich war leider zu spät, hab das gerade erst gelesen:

https://www.alternate.de/G-Skill/DIMM-32-GB-DDR5-6000-Kit-Arbeitsspeicher/html/product/1800966

:(

Dafür kommen heute meine Dominator. Der Corsair Shop verschickt die übrigens aus Hong Kong, kostenlos.

Wuge
2021-11-23, 12:08:45
Nachdem ich jetzt alles etwas eingefahren habe, läuft bei mir jetzt auf einmal auch DDR4-4000 problemlos mit Gear 1:

https://abload.de/img/unbenannt9tkin.jpg

Es gibt ja noch deutlich bessere DDR4 4000er Module, Wenn Gear 1 mit DDR 4000 läuft, braucht man doch kein DDR5 mehr. :ugly:

Wie hast Du das denn eingestellt bzw. was heißt "eingefahren"?

VooDoo7mx
2021-11-23, 16:45:06
Wie hast Du das denn eingestellt bzw. was heißt "eingefahren"?

Also mein RAM nutze ich 2x16 GiB Gskill DDR4-4000 18-22-22-42 @ 1,4V

Am Anfang hab ich ganz plump versucht das XMP Profil zu laden ---> kein Boot
Auch 3800 und 3733 wollten nicht, also erst mal 3600 G1 mit dem XMP Timingswas dann auch lief.

Hab dann etwas bessere Timings eingestellt was dann auch ging, hatte dann aber Crashes die ich erst auf den RAM geschoben habe. Dabei lagen de Crashs aber an den zu starken Undervolting.
Nachdem ich da eine wirklich stabile Grenze ausgelotet habe, habe ich mich nochmal an das RAM testen gemacht. Auf einmal lief dann 3700 G1, 3733 G1, 3800 G1 und auch 4000 G1 was jetzt stabil läuft.
Der 127000K läuft jetzt mit mit Stock Taktraten und -125mV UV und DDR 4000 G1. Bin echt zufrieden so.

ChaosTM
2021-11-23, 18:57:09
In Star Citizen gewinnt ADL** übrigens mit 10-25% Vorsprung gegen den 5900er, allerdings mit Schwächen bei den 1%.
Hab aber bisher nur einen "Benchmark"* gefunden.
Ist natürlich zu wenig für eine Wechsel, aber ich werde das natürlich im Auge behalten. Das Spiel braucht CPU Power ohne Ende. :)
Vielleicht wechsle ich ja nächstes Jahr zum Nachfolger mit wirklich schnellem DDR5 Speicher, falls schon vorhanden.

* die sind immer so eine Sacher, da stark vom Server Load abhängig..

** add.: das war der 12700er

iamthebear
2021-11-24, 00:03:41
@Geldmann3 Echt riesiges Lob für die Benchmarks. Meiner Meinung nach wäre das einen eigenen Thread wert, wenn nicht sogar einen eigenen 3DCenter Artikel. Wäre viel zu schade wenn das irgendwann auf nach ein paar Seiten irgendwo untergeht.

Danke für den Hinweis, ich werde den Benchmark im Laufe des Tages an diesen Stellen noch ein paar mal laufen lassen, um zu prüfen, ob das auf meinem System reproduzierbar ist oder Zufall war. :)

Plötzlich sind da 1000 Punkte mehr...

Edit: An dieser Stelle hätte ich selbst eher mit einem Mess- oder Einstellungsfehler von meiner Seite gerechnet, doch es ist akkurat.

Hier meine Messungen:

Werte im Diagramm:
110 Watt: 7927 pts
125 Watt: 8924 pts

Zur Prüfung nun je 3 weitere Testdurchläufe an dieser Stelle:

110 Watt Runs:
Run 1: 7927 pts
Run 2: 7907 pts
Run 3: 7959 pts

125 Watt Runs:
Run 1: 8901 pts
Run 2: 8888 pts
Run 3: 8933 pts

Bäm, hier gibt es in Cinebench R20 wirklich einen 1000 Punkte Sprung, WTF?

Das Interessante ist, dass der Großteil der Benchmarks diesen Buckel hat nur mit unterschiedlichen Power Limits.
Kann es sein, dass dieser "Buckel" immer bei derselben Taktfrequenz auftritt, was je nachdem wie intensiv die Last ist bei mehr oder weniger Power Limit passiert?

Entweder die Frequenz/Spannungskurven sind noch nicht ideal eingestellt oder es ist ein seltsamer Effekt durch die Kombination von P und E Cores.

CB hat auch ein paar Skalierungstests gemacht und den Takt angegeben:
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/2/#abschnitt_wie_effizient_sind_p_und_ecore

Interessant daran ist, dass sich das Verhältnis von P Core Und E Core Takt ändert. Bei 65W ist dieses noch ca. 1:1.24, was in etwa dem Verhältnis des physischen Maximaltaktes entspricht (5.2 vs. 4.2GHz).
Mit steigendem Powerlimit wird der P Core Takt prozentual stärker erhöht als der E Core Takt, wodurch der P Core Takt bis an die Kotzgrenze getrieben wird während bei den E Cores noch ca. 300MHz mehr Luft verbleiben. Die Frage ist wieso weil thermische Limits sind es nicht da die E Cores immernoch kühler sind als die P Cores.



Was die Temperaturdiagramme angeht, die erst ab 125W loslegen:
Die CPU Temperatur die dir ausgegeben wird ist doch der heißeste Kern. Wenn in dem Benchmark kurz eine Single Threaded Last anliegt, so wird dir bei 65W ein Kern bis auf 5GHz hochboosten und so in ein paar 100ms einen Kern auf 60 Grad bringen selbst wenn dann später mit MT Last vielleicht nur 50 Grad entstehen. Ich denke da müsstest du die aktuellen Temperatur während dem Benchmark auslesen oder den Mittelwert.

das alles geht an der quintessenz aber vorbei. man hat die hybride architektur gebracht, um effizienzvorteile zu haben, die man durchs runtertakten nicht erreichen kann.

der test widerlegt diese annahme. (ob es da störgrößen gibt mal aussen vor)

Der Hauptnutzen liegt darin, dass man auf selber Fläche mehr Kerne verbauen kann, was Vorteile bei stark MT optimierter Software ergibt und zwar wahlweise bei der Performance als auch bei der Verlustleistung da mehr niedrig getaktete Kerne weniger verbrauchen als wenige hoch getaktete Kerne.

Interessant wäre ein Test wo die Last entweder den 8 P Cores oder den 8 E Cores im Task Manager zugewiesen wird und dann mit unterschiedlichen Powerlimits testen.
Ich bin mir ziemlich sicher dass bei 45W (E Cores auf 3.7 GHz) die P Cores bei der Performance noch die Nase vorne haben werden.
Die Frage ist ob die E Cores weiter unten die P Cores ein/überholen werden bzw. wenn ja wo und wieviel.

der m1 chip von apple hat zwar größere performance unterschiede in den kleinen kernen vs die großen, aber die effizienz der kleinen ist erheblich besser als die der großen. faktor 10, wenn ich das richtig im kopf habe. dort ist die MT effizienz auch erheblich besser bei den kleinen kernen, als große kerne heruntergetaktet.

Lassen sich die großen Kerne beim M1 überhaupt so weit runter takten, dass sie die Performance der kleinen Kerne haben? Ansonsten wäre das ein Äpfel vs. Birnen Vergleich.
Energieeffizienz kann man nur sinnvoll vergleichen wenn beide CPUs dieselbe Performance haben.

möglich, aber ich glaube eher, das die tests oder die cpus nicht richtig getestet werden. keine ahnung ob 2 p cores @1 ghz wirklich ineffizienter werden als 8 e cores bei 2ghz. die zahlen hab ich jetzt nur beispielhaft genannt.

8 E Cores mit 2 GHz sind ca. 3 Mal so schnell wie 2 P Cores mit je 1 GHz. Von daher ist das kein sinnvoller Vergleich.

Du kannst vergleichen:
.) 2 P Cores @ 1GHz vs. 2 E Cores @ 1.5GHz (Annahme: Software hat nur 2 Threads. Beide gleich schnell. Das beantwortet die Frage "wer sollte im Batteriebetrieb Hintergrundaufgaben erledigen")
.) 2 P Cores @ 1.5GHz + SMT vs. 4 E Cores @ 1.5GHz (Gleiche Threadanzahl, gleiche Performance)
.) 2 P Cores @ 2GHz + SMT vs. 8 E Cores @ 1GHz (Gleiche Fläche, gleiche Performance, Annahme: Software unterstützt 8 Threads oder mehr, beantwortet die Frage ob E Cores für MT Last im Notebook sinnvoll sind)

Geldmann3
2021-11-24, 00:38:44
In der Tat habe ich heute bei meinen Benchmarks in Cyberpunk 2077 beobachten können, dass beim Laden, bei 10 Watt Power-Limit, die P-Cores abgeschaltet wurden. Außerdem hat das Laden bei 10 Watt plötzlich rund 8 Minuten gedauert, statt deutlich unter einer Minute. Bei 25 Watt war die Ladezeit wieder angemessen. Im Spiel wiederum wurden immer alle Kerne aktiviert, jedoch sehr weit heruntergetaktet. Teilweise auf bis zu 400Mhz.

Je geringer die Wattage eingestellt war, desto mehr schien mir die Last auf den E-Cores zu liegen.

Wie man im Diagramm sieht, skaliert der 12900K in Cyberpunk 2077 ganz gut bis 95 Watt. Beim Sprung von 140 auf 155 Watt kam es nochmal zu einem kleinen Bump.

https://i.ibb.co/MsmfyhK/Cyberpunk-2077.png (https://i.ibb.co/MsmfyhK/Cyberpunk-2077.png)

Zudem habe ich mal meinen 5600X sowie 9900K danebengesetzt. Den 9900K habe ich bei 200 statt 125 W platziert, da diese TDP in meinen Augen realistischer ist. Spannenderweise wird der 9900K vom 12900K bereits bei rund 40W Power-Limit erreicht. Der 9900K hat schlechtere durchschnittliche Bildraten, aber dafür ein besseres 1% low, als der 5600X. Meine Erklärung ist hier einfach, der 5600X hat eine wesentlich höhere IPC, doch 12 Threads sind in dem Game einfach nicht genug. Meine Benchmarks widersprechen hier denen, die PCGH zum Launch des Games mal angestellt hat (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/), jedoch habe ich auch eine andere Benchmarkszene verwendet. (Die Rettungsaktion, Level 1, Japantown) Bei PCGH war der 9900K durchgehend schneller als der 5600X bei mir war der 9900K nur im 1% low schneller. Ich tippe darauf, dass das Game mittlerweile verbessert wurde, was die Performance auf CPUs mit weniger als 16 Threads angeht. Andererseits waren die min FPS bei mir wieder niedriger als bei PCGH. Jedoch war es bei mir auch eine gescriptete Szene, mit viel Action. Übrigens liefen bei mir alle CPUs mit demselben 3200Mhz CL-14-14-14-34 Ram, einfach, weil ich ihn einstecken, das XMP-Profil aktivieren und direkt loslegen konnte.

Was die Temperaturdiagramme angeht, die erst ab 125W loslegen:
Die CPU Temperatur die dir ausgegeben wird ist doch der heißeste Kern. Wenn in dem Benchmark kurz eine Single Threaded Last anliegt, so wird dir bei 65W ein Kern bis auf 5GHz hochboosten und so in ein paar 100ms einen Kern auf 60 Grad bringen selbst wenn dann später mit MT Last vielleicht nur 50 Grad entstehen. Ich denke da müsstest du die aktuellen Temperatur während dem Benchmark auslesen oder den Mittelwert.

Stimme zu, es wäre das Beste gewesen, ich hätte auch noch die Durchschnittstemperaturen erfasst. Doch den heißesten Kern konnte ich so schön angenehm und einfach in meine Tabellen eintragen, wobei ich auch irgend einen Log hätte nehmen können, wenn ich noch strukturierter und professioneller vorgegangen wäre. Doch es war bereits einer der komplexesten Benchmarks, den ich je zusammengesetzt habe, wollte die Komplexität für mich nicht noch weiter steigern. Außerdem ist der heißeste Kern am Ende praktisch das, was man kühlen können muss.

Interessant wäre ein Test wo die Last entweder den 8 P Cores oder den 8 E Cores im Task Manager zugewiesen wird und dann mit unterschiedlichen Powerlimits testen.
Ich bin mir ziemlich sicher dass bei 45W (E Cores auf 3.7 GHz) die P Cores bei der Performance noch die Nase vorne haben werden.
Die Frage ist ob die E Cores weiter unten die P Cores ein/überholen werden bzw. wenn ja wo und wieviel.

Oh ja, das wäre auch mal interessant...

BlacKi
2021-11-24, 01:26:14
danke. der 9900k bei 4,7ghz? 200w?

Geldmann3
2021-11-24, 01:37:02
Habe den 9900K so genommen, wie er out of the box auf dem Z390 AORUS Elite lief. Irgendwie habe ich nicht das Gefühl, dass der auf den meisten Mainboards standardmäßig den Intel Specs entsprechend läuft.

Doch bestimmt nehmen die meisten das einfach hin.

Wenn ich alle Kerne auslaste, geht er auf ca. 195 Watt. Da ich ihn bei mir im Diagramm (in Excel) nicht dort einordnen konnte, habe ich auf 200W aufgerundet.

Beim 12900K habe ich immerhin auch das ,,Power-Limit" angegeben und nicht den ,,Actual-Power-Draw". Daher denke ich, ist es hier fair.

BlacKi
2021-11-24, 01:47:30
das ist aber sehr wage. wenn mce on ist, sind es 5ghz, wenn es laut spec von intel eingestellt ist, dann 4,7. die 200w braucht der sicher auch mit 5ghz nicht in cyberpunk.

Geldmann3
2021-11-24, 01:51:45
Nein, nicht in Cyberpunk, doch die reizt der 12900K in dem Game auch eher selten aus.

Dass ich dieses Power-Limit eingestellt habe, heißt nicht, dass der Strom auch gezogen wird. Genauso beim 9900K.
Der geht im Cinebench zwar auf 195W, nutzt die aber auch nicht durchgehend im Game aus.

In Multithreading Workloads habe ich gemessen, da stimmt das Power-Limit tatsächlich ungefähr mit der wirklichen Leistungsaufnahme der CPU überein.
In Games ist das nicht mehr der Fall.

Doch je nachdem was man eingestellt hat, ändert die CPU ihr Takt und Lastverteilungsverhalten entsprechend.

Edit: Ja, MCE war an, war also nicht in den Specs.
Kam so default, out-of-the-box.
Was schon irgendwie frech ist. Doch entsprechend werden die meisten die CPU mit dem Board so laufen lassen.
Die meisten haben keine Ahnung von sowas und gehen nicht extra hin und deaktivieren sowas im BIOS.
Ist doch eigentlich eine Katastrophe, ohne eine sehr gute Kühlung!?

Habe die beiden CPUs hauptsächlich deshalb hinzugefügt, weil ich neugierig war, in welchem Leistungsbereich wir uns hier grob bewegen.
In deren Config bin ich daher nicht tief reingegangen, man könnte es als ,,Out-Of-The-Box" + XMP bezeichnen.

Platos
2021-11-24, 16:59:51
Frage: Sind die Watt-Wert im letzten Test die Einstellungen im BIOS oder auch die tatsächlichen Verbrauchswerte? Frage ich mich gerade.

Ich finde auch, dass die Tests hier einen eigenen Thread bräuchten bzw. sowas wie "Alder-Lake Tests" oder "Alderlake Benchmark-Thread" oder so.

Geldmann3
2021-11-24, 18:16:17
Die Watt Werte im letzten Test hatte ich lediglich in der Intel Extreme Tuning Utility eingestellt. Sind nicht die tatsächlichen Verbrauchswerte, scheinen diesen aber ziemlich genau zu entsprechen, wenn man die CPU auf allen Kernen voll ausreizt.

Es sei denn, man geht unter etwa 6W, dann verbraucht die CPU tatsächlich ein paar Watt mehr als ausgelesen. :freak:

Habe auch darüber nachgedacht einen eigenen Thread daraus zu machen. Plane noch einige weitere Gaming und Big/Little Core Tests zu machen, wenn ich das zeitlich schaffe und würde danach dann eventuell aus allem nochmal einen großen Artikel basteln.

Eine Verkomplizierung wird schon sein, dass das Forum nur maximal 15 Bilder / Beitrag erlaubt, darauf bin ich bereits bei einigen anderen Artikeln gestoßen, weshalb ich den einen oder anderen Screenshot dann eher gestrichen habe. Natürlich könnte ich Bilder auch einfach verlinken oder mehrere Bilder zu einem verschmelzen, doch das ist dann entweder unschön oder arbeitsaufwändig. ^^

Habe sogar darüber nachgedacht eine eigene Website dazu zu bauen, da könnte ich die Graphen sogar mit Javascript und so dynamisch machen, doch das will ich auch eigentlich nicht, das Forum hier ist schon geil und eine eigene Seite zeitaufwändig. :D
Wobei, haha, im letzten Monat sind bestimmt 100 Stunden ins Benchmarken gegangen. Doch man muss Prioritäten setzen.^^

Platos
2021-11-24, 20:17:10
Ja, glaube ich, das gibt ordentlich aufwand :biggrin:

Aber bei 240W Powertarget wird der Stromverbrauch im Gaming vermutlich nicht soderlich hoch sein (kann man ja gerne bei Igor oder dergleichen nachschauen).

Ich denke mal, dass die CPU sich in etwa ~100W genehmigt in Cyberpunk (selbst bei 200W Powertarget wirds wohl nur selten mal so viel ziehen).

iamthebear
2021-11-24, 22:34:37
In der Tat habe ich heute bei meinen Benchmarks in Cyberpunk 2077 beobachten können, dass beim Laden, bei 10 Watt Power-Limit, die P-Cores abgeschaltet wurden.

Was meinst du mit abgeschaltet? Komplett aus auf Takt 0? Oder hat nur die Windows Scheduler die Last auf die E Cores geschoben? Das wäre durchaus im Bereich des Möglichen wenn der Thread Director Hinweise darauf generiert, dass die E Cores schneller wären, da energieeffizienter.
Cyberpunkt nutzt beim Laden vermutlich keine 24 Threads d.h. es muss eine Entscheidung entweder P Cores oder E Cores getroffen werden während z.B. bei Cinebench einfach alle Kerne mut noch weniger Takt benutzt werden können.

Außerdem hat das Laden bei 10 Watt plötzlich rund 8 Minuten gedauert, statt deutlich unter einer Minute. Bei 25 Watt war die Ladezeit wieder angemessen.

Wäre interessant wieso. Es ist aber auch gut möglich, dass das einfach nur Cyberpunk Bugs sind. 3090 mit 240p Renderauflösung und 1 GHz Takt ist vermutlich die am Meisten getestete Kombination :D
Ich kann mir gut vorstellen, dass hier einfach die Ladeanimation mit 1000fps abgespielt wird und die CPU nicht mehr viel zum Laden kommt.

Im Spiel wiederum wurden immer alle Kerne aktiviert, jedoch sehr weit heruntergetaktet. Teilweise auf bis zu 400Mhz.

Wenn man nach der Performance geht müssten wir irgendwo bei 1.5GHz auf den P Cores gewesen sein. Die 400 MHz könnten sich dadurch ergeben, dass im Schnitt ja nur 8 von 16 Kernen was zu tun haben und die restlichen 8 können dann ja schlafen.

Je geringer die Wattage eingestellt war, desto mehr schien mir die Last auf den E-Cores zu liegen.

Meinst du den Scheduler, der die Last auf die E Cores schiebt oder die Verteilung der TDP zwischen P und E Cores bzw. daraus resultierende Taktraten?

Wie man im Diagramm sieht, skaliert der 12900K in Cyberpunk 2077 ganz gut bis 95 Watt. Beim Sprung von 140 auf 155 Watt kam es nochmal zu einem kleinen Bump.

Der Bump würde wieder für die Theorie sprechen, dass dies bei fixen Taktraten passiert. Da die Last diesmal nur aif den P Cores liegt sieht es wirklich so aus als hätte die Takt/Spannungskurve da einen kleinen Sprung.

Zudem habe ich mal meinen 5600X sowie 9900K danebengesetzt. Den 9900K habe ich bei 200 statt 125 W platziert, da diese TDP in meinen Augen realistischer ist.

Ich denke in der Praxis (mit mindestens 1440p) wird es eher so aussehen! dass die CPU die halbe Zeit auf die GPU warten muss, was dazu führt, dass alle offenen CPUs (12900K bei 242W bzw. 9900K falls er mit MCE betrieben wird) ihre Verlustleistung halbieren werden während alle abgeriegelten CPUs (z.B. 5600X oder 9900K mit 95W Limit) dann weiter hoch takten werden und weiter ihre 65W bzw. 95W verbrauchen werden. Den Effekt hat man ja gut bei Igor gesehen.

Spannenderweise wird der 9900K vom 12900K bereits bei rund 40W Power-Limit erreicht.

Ja das zeigt sehr gut wie sinnlos eigentlich die Maßeinheit Performance/Watt bei nicht linearen Kurven ist. Je nach Messpunkt ist der 12900K 33% schneller oder 400% effizienter.

Meine Erklärung ist hier einfach, der 5600X hat eine wesentlich höhere IPC, doch 12 Threads sind in dem Game einfach nicht genug.

Ich tippe eher darauf, dass Cyberpunk nur ca. 6-8 Threads nutzt. Damit schafft es der 5600X zwar meistens nach vorne. Falls jedoch bei 8 Threads der Windows Scheduler dem limitierenden Main Thread einen 2 Thread auf seinen Kern geschoben hat, dann ist ein Einbruch verständlich.

Ob es überhauot sinnvoll ist die 1% Lows bei einem CPU Test zu vergleichen, davon bin ich noch nicht wirklich überzeugt. Wir messen ja hierbei die Frametimes vor der Ausgabe also die Varianz der Renderzeit (der GPU). Würden wir die Varianz der CPU messen wollen müssten wir beim Einreihen in die Render Queue messen. Ansonsten wäre es möglich, dass ein System die Frames sehr gleichmäßig ausgibt, jedoch der Inhalt (wieviel Ingame Zeit zwischen den Frames vergangen ist) stark streut.

Stimme zu, es wäre das Beste gewesen, ich hätte auch noch die Durchschnittstemperaturen erfasst. Doch den heißesten Kern konnte ich so schön angenehm und einfach in meine Tabellen eintragen, wobei ich auch irgend einen Log hätte nehmen können, wenn ich noch strukturierter und professioneller vorgegangen wäre. Doch es war bereits einer der komplexesten Benchmarks, den ich je zusammengesetzt habe, wollte die Komplexität für mich nicht noch weiter steigern. Außerdem ist der heißeste Kern am Ende praktisch das, was man kühlen können muss.

Dein Test war auch schon so professionell genug. Du machst hier wesentlich mehr als alle "professionellen" Reviewer. Ein Großteil hat unterschiedliche Power Limits und P/E Cores gar nicht getestet sondern einfach nur das Standardprogramm angeworfen und hinten nach noch eine Verlustleustungsmessung mit Cinebench oder Prime95 und fertig.

Wenn wir wissen dass der Temperaturverlauf erst ab ca. 60 Grad aufwärts aussagekräftig ist, dann ist das voll OK. Das ist sowieso der interessanteste Bereich. Mir geht es nur darum, dass keiner daraus falsche Schlüsse zieht.

Geldmann3
2021-11-24, 23:03:20
Was meinst du mit abgeschaltet? Komplett aus auf Takt 0? Oder hat nur die Windows Scheduler die Last auf die E Cores geschoben? Das wäre durchaus im Bereich des Möglichen wenn der Thread Director Hinweise darauf generiert, dass die E Cores schneller wären, da energieeffizienter.
Cyberpunkt nutzt beim Laden vermutlich keine 24 Threads d.h. es muss eine Entscheidung entweder P Cores oder E Cores getroffen werden während z.B. bei Cinebench einfach alle Kerne mut noch weniger Takt benutzt werden können.

Auf den P-Cores lag beim Laden mit 10 Watt 0% Last an.

Normalerweise werden auch beim Laden mehr als 8 Threads verwendet.

Wäre interessant wieso. Es ist aber auch gut möglich, dass das einfach nur Cyberpunk Bugs sind. 3090 mit 240p Renderauflösung und 1 GHz Takt ist vermutlich die am Meisten getestete Kombination
Ich kann mir gut vorstellen, dass hier einfach die Ladeanimation mit 1000fps abgespielt wird und die CPU nicht mehr viel zum Laden kommt.

Ein Bug schien es mir nicht zu sein, da das Spiel beim Hochsetzen des Power-Limits sofort wieder normal lief. Außerdem haben die E-Cores theoretisch selbst bei 10 Watt wahrscheinlich noch die Performance eines FX 8320 oder so.^^ Eventuell hängt es auch mit der massiv verringerten Bandbreite der E-Cores zum Ringbus zusammen. Immerhin hängen 4 E-Cores nur am Interface eines einzelnen P-Cores. Die haben alle Acht also nur die Bandbreite eines Zweikerners. Eventuell ist das für das Spiel eine sehr ungewöhnliche Konfiguration.

Wenn man nach der Performance geht müssten wir irgendwo bei 1.5GHz auf den P Cores gewesen sein. Die 400 MHz könnten sich dadurch ergeben, dass im Schnitt ja nur 8 von 16 Kernen was zu tun haben und die restlichen 8 können dann ja schlafen.
Also laut CapFrameX war im Game so ziemlich jeder der 24 Threads mehr oder weniger belastet, (Jedenfalls ab 25 Watt) die Kerne auf denen die geringste Last lagen, hatten wohl den niedrigsten Takt, ist allerdings durchgehend rotiert. 1,5 Ghz könnte im Schnitt hinkommen.

Meinst du den Scheduler, der die Last auf die E Cores schiebt oder die Verteilung der TDP zwischen P und E Cores bzw. daraus resultierende Taktraten?
Also ich weiß nicht wie die TDP verteilt war, doch die ,,CPU-Auslastung" wie man sie im Taskmanager sieht, lag bei niedrigerer Wattage eher auf den E-Cores.

Ich tippe eher darauf, dass Cyberpunk nur ca. 6-8 Threads nutzt. Damit schafft es der 5600X zwar meistens nach vorne. Falls jedoch bei 8 Threads der Windows Scheduler dem limitierenden Main Thread einen 2 Thread auf seinen Kern geschoben hat, dann ist ein Einbruch verständlich.

Also bei meinem 12900K messe ich in dem Game sogar Load auf allen 24 Threads gleichzeitig. Ob mehr Threads auch Mehrwert bringen ist jedoch fraglich. Würde gerne mal weitere Kernskalierungstests zu dem Game machen, doch erstmal noch ein paar Einzeltests zum 12900K. :D

Yuko
2021-11-25, 16:28:57
https://www.pcgameshardware.de/Core-i7-12700K-CPU-277939/Tests/vs-12900k-vs-5900x-Benchmark-Preis-Release-1384158/

Ex3cut3r
2021-11-25, 17:26:05
Schöner Test, leider fehlt mir dort eine Zen 2 CPU. Wer upgradet von nen Zen 3 oder Intel 11/10er? :confused:
Daher nutzlos.

VooDoo7mx
2021-11-25, 19:36:35
Falls es jemanden interessiert, hier mal der reale Gamevebreauch meiens 12700K mit Raytracing und Rasteriziung Games.
Da Leider MSI Afterburner noch nicht den CPU Takt und Verbrauch von ALder Lake auslesen kann, lasse ich diese von HWInfo anzeigen

12700K@stock -125mV undervolt
DDR4 4000 G1 2x 16GiB 18-22-22-42

Metro Exodus Enhanced Edition
Ultra Preset
Ultra Raytracing Preset
Raytracing Reflektionen an
Motion Blur off
3840x2160 DLSS Quality

https://abload.de/img/metro_qkjk4x.jpg

CyberPunk 2077
Raytracing Ultra Preset
Volumetric Cloud von Ultra auf High
Raytracing Beleuchtung auf Medium
3840x2160 DLSS Balanced
Während Fahrt durch Night City um Corpo Plaza (höchste CPU Last)

https://abload.de/img/cyberpunku6jzw.jpg

Control
Alles Ultra, auch Raytraycing
3840x2160 DLSS Quality (1. Bild)
3840x2160 DLSS Ultra Performance (2.Bild)

https://abload.de/img/controlqq4j9b.jpg

https://abload.de/img/control_upc1ka6.jpg

Shadow of the Tomb Raider
Ultra Preset
HBAO+ auf BTAO
AF von 8x auf 16x
Detailtiefe von Hoch auf Ultra
Raytracing Schatten aus
3840x2160 DLSS Quality (1. Bild)
3840x2160 DLSS Ultra Performance (2.Bild)

https://abload.de/img/tombraider_q1ykvz.jpg

https://abload.de/img/tombraider_up7qjmw.jpg

Marvels Avengers
High Preset
Motion Blur aus
3840x2160 DLSS Quality (1. Bild)
3840x2160 DLSS Ultra Performance (2.Bild)

https://abload.de/img/avengersq9uk3c.jpg

https://abload.de/img/avengers_upbrj45.jpg

Platos
2021-11-25, 22:31:44
Meine CPU würde da ~100W ziehen und hat gerade mal 4C8T :D

Ex3cut3r
2021-11-25, 22:44:40
Hmm welche CPU ist das?

Platos
2021-11-26, 00:10:04
Hmm welche CPU ist das?

Meine ? i7 4820k @ (glaube ich) 4.4Ghz.

Geldmann3
2021-11-26, 01:02:02
Falls es jemanden interessiert, hier mal der reale Gamevebreauch meiens 12700K mit Raytracing und Rasteriziung Games.
Da Leider MSI Afterburner noch nicht den CPU Takt und Verbrauch von ALder Lake auslesen kann, lasse ich diese von HWInfo anzeigen

Danke für den Beitrag, sehr informativ! (y)
Das liefert vielleicht einen Teil der Erklärung, warum ich ab 65 Watt kaum noch Performancezuwächse messen kann. Wobei ich ja in viel niedrigeren Auflösungen messe.

Btw. jemand eine Idee, was mit der Performance im Flight Simulator bei mir los ist? 24 FPS sind doch nicht normal, oder? Hier ein Video (https://drive.google.com/uc?id=1-4vqoD1v_eaPVHV-LmavR7h1kPG9fOfH&export=download), wie shitty das mit dem 12900K und auch dem 9900K bei mir läuft. Das ist übrigens auch gleichzeitig die Benchmarksequenz gewesen. :freak:
Habe bereits hier im dazu passendem Thread um Hilfe gebeten, doch konnte nach über einem Tag keine Möglichkeit finden, die Performance mit allen Settings am Anschlag signifikant zu verbessern.

Wie auch immer, da ich nach 48 Stunden keine Lösung finden konnte, hier dennoch meine Messungen dazu.

https://i.ibb.co/d4ZmBn3/MSFS.png (https://i.ibb.co/d4ZmBn3/MSFS.png)

Pech gehabt Microsoft, ich poste es so, wie es bei mir läuft. :mad:

Skaliert wie GTA V ebenfalls bis 65 Watt. Da hätte ich etwas mehr erwartet. Obwohl es so extrem Jaggy lief, habe ich doch überraschend konsistente Performance-Metriken herausbekommen. Vielleicht ist es ja normal, wenn man alle Settings bis zum Anschlag dreht. (Die Messung aus dem Video habe ich übrigens nicht aufgenommen, da die Aufnahme mit Shadow-Play 10% Performance gekostet hat! Was auch nicht meiner Erfahrung entspricht. Und das in 720p...) Weiterhin habe ich, wie man im Video eventuell gesehen hat, nicht selbst gesteuert, das wäre mir zu variabel, sondern den Flight Rekorder (https://de.flightsim.to/file/8163/flight-recorder) verwendet.

Ja, das Ganze lief mit DX12 (Beta), doch mit DX11 lief es noch schlechter. Was zur Hölle?

dildo4u
2021-11-26, 06:00:54
DX12 ist kaputt es läuft in jedem Fall besser mit 11 hast du noch iregendwelche Addons Aktiv?

Geldmann3
2021-11-26, 10:53:58
Verrückterweise habe ich keinerlei Custom-Add-Ons aktiv. Außer die Sachen, die mit der Premium-Deluxe-Version kommen sowie die World-Updates.

Eventuell liegt es ja am Frankfurter Airport aus der Deluxe Version? Werde nachher nochmal einen Ort auf einem anderen Kontinent laden, um das auszuschließen.

DX12 lief bei mir gestern geschätzt 35% schneller als DX11. Was mich auch gewundert hatte, da viele das Gegenteil berichteten. Selbst Microsoft meinte ja, dass DX12 noch keine Vorteile bieten solle. Daher werde ich heute Abend auch nochmal DX11 vs. DX12 benchen um sicher zu sein.

Mir fiel auf, dass ich etwa 55 FPS hatte, bis ich auf ,,Bereit zum Fliegen" klicke, dann bricht die Framerate rund auf 25FPS ein.

Ex3cut3r
2021-11-26, 14:13:48
Meine ? i7 4820k @ (glaube ich) 4.4Ghz.

Jo. Ok. Das kommt tatsächlich hin. Ist eine (alte) Ivy Bridge-E mit tatsächlich "nur" 4C/8T

ryan
2021-11-26, 19:16:50
Der 12600K boxed kostet derzeit 293€ bei Mindfactory, falls jemand Interesse hat.

TurricanM3
2021-11-26, 22:30:02
Morgen wird gebastelt :love2:

https://abload.de/img/20211126_222726lfkdr.jpg (https://abload.de/image.php?img=20211126_222726lfkdr.jpg)

BlacKi
2021-11-26, 22:50:50
bei mir auch, mit oder ohne noctua mounting kit:biggrin:

mich würde deine ehrliche meinung zur performance gegenüber dem 5950x interessieren.

Geldmann3
2021-11-27, 01:19:21
Für welche CPU habt ihr euch denn entschieden?

Auch in Shadow of the Tomb Raider skaliert der 12900K kaum über die 65 Watt Grenze hinweg. Schlägt dort jedoch bei etwa gleichem Stromverbrauch den 5600X.

https://i.ibb.co/N3WFL3w/SOTR.png (https://i.ibb.co/N3WFL3w/SOTR.png)

Genau wie in Cyberpunk 2077 wird der 9900K bereits bei rund 40 Watt erreicht, was schon krass ist...

BlacKi
2021-11-27, 01:35:43
ich hab mich für den 12600k entschieden, leider kam der 12900k.

Geldmann3
2021-11-27, 01:44:39
Die haben Dir einfach mal die falsche CPU geschickt?
Haben sie Dir denn nur einen 12600K berechnet? :biggrin:

BlacKi
2021-11-27, 02:20:34
ja, 259,99€ für nen 12900k:biggrin:

Thunder99
2021-11-27, 07:55:03
Was für ein Praktikant/Mitarbeiter hat da geschlafen :freak:

GZ!

dildo4u
2021-11-27, 07:57:19
MF hat schon Z690 Boards für 180€.

https://www.mindfactory.de/Highlights/MindStar

iamthebear
2021-11-27, 10:51:03
Sind das die Boards wo dann jeder 12900K 8GHz schafft oder die die explodieren so wie die Netzteile :biggrin:
Also ehrlich von Gigabyte würde ich mittlerweile nicht einmal mehr ein paar Gehäuseschrauben kaufen so wie die Firma derzeit agiert :P

TurricanM3
2021-11-27, 11:10:44
bei mir auch, mit oder ohne noctua mounting kit:biggrin:

mich würde deine ehrliche meinung zur performance gegenüber dem 5950x interessieren.

Ich hab leider nur den alten Kryos next ohne 1700er Halterung. Der neue ist nicht mal verschickt worden. :(
Anpressdruck wird also nicht optimal sein.

PS: Grats zu deinem Schnapper :biggrin:

ryan
2021-11-27, 12:22:23
Sind das die Boards wo dann jeder 12900K 8GHz schafft oder die die explodieren so wie die Netzteile :biggrin:
Also ehrlich von Gigabyte würde ich mittlerweile nicht einmal mehr ein paar Gehäuseschrauben kaufen so wie die Firma derzeit agiert :P


Gigabyte verbaut bei den ATX Boards mindestens 16 Phasen, das ist nicht schlechter als bei Asus oder MSI. Also zumindest rein von der Anzahl, deren ATX Boards fangen bei 14 Phasen an. Aufpassen muss man nur bei Asrock, die haben 8 Phasen bei einigen ATX: https://twitter.com/HardwareUnboxed/status/1455098465793429506
https://docs.google.com/spreadsheets/d/1jz81QR1Noz6Jrw98YxpQYV4szfdEphOrQGzhftN1-0o/edit#gid=0

Lowkey
2021-11-27, 14:47:04
Wir haben 2021, wo man nicht mehr nach Hersteller, sondern nach Modell gehen muss. Und man kann selten vom Vorgänger auf den Nachfolger schließen. Alles beginnt immer bei Null. Irgendwer kauft ein Asrock und es brennt fast durch. Also rennt er durchs Netz und verkündet den Untergang von Asrock - wegen einem Board.

The_Invisible
2021-11-27, 14:55:09
Morgen wird gebastelt :love2:

https://abload.de/img/20211126_222726lfkdr.jpg (https://abload.de/image.php?img=20211126_222726lfkdr.jpg)

Du hast ja auch Anno1800 mit dem 5950x gespielt, würde mich Mal interessieren inwiefern das mit AD besser geht ;-)

ryan
2021-11-27, 15:13:21
Wir haben 2021, wo man nicht mehr nach Hersteller, sondern nach Modell gehen muss. Und man kann selten vom Vorgänger auf den Nachfolger schließen. Alles beginnt immer bei Null. Irgendwer kauft ein Asrock und es brennt fast durch. Also rennt er durchs Netz und verkündet den Untergang von Asrock - wegen einem Board.



Schau dir das spreadsheet an, Asrock liegt weit unter der Konkurrenz bei der Phasenanzahl. Minimum 14 bei der Konkurrenz (ATX), 8 bei Asrock. 200€ für das Phantom Gaming 4 mit nur 8 Phasen. Hardware Unboxed hat eins gekauft und sagt, mehr als 135Watt geht nicht. Da wäre ich erstmal vorsichtig bei Asrock generell.

BlacKi
2021-11-27, 15:36:28
Ich hab leider nur den alten Kryos next ohne 1700er Halterung. Der neue ist nicht mal verschickt worden. :(
Anpressdruck wird also nicht optimal sein.

PS: Grats zu deinem Schnapper :biggrin:


spielt das denn bei LM denn eine rolle? LM hat doch nicht wirklich einen widerstand, weshalb man ja auch nur sparsam auftragen muss.

VooDoo7mx
2021-11-27, 17:22:57
Schau dir das spreadsheet an, Asrock liegt weit unter der Konkurrenz bei der Phasenanzahl. Minimum 14 bei der Konkurrenz (ATX), 8 bei Asrock. 200€ für das Phantom Gaming 4 mit nur 8 Phasen. Hardware Unboxed hat eins gekauft und sagt, mehr als 135Watt geht nicht. Da wäre ich erstmal vorsichtig bei Asrock generell.

Also das was Asrock da raushaut ist einfach nur eine Frechheit.
Wenn dafür das Board wenigstens deutlich günstiger wäre, dann wäre es ja in Ordnung aber so. Ein Low End z690 Board für weniger als 150€ was dann jedoch auch nur die 125W packt wäre ja auch ne Alternative.

Ich hab das günstigste MSI Mainboard und das hat schon 14 Phasen für die CPU. Hab damit auch schon 230W durch die CPU gesagt, absolut keine Probleme.

Viele schimpfen ja auf die teuren Z690 Board Preise, doch das günstige MSI hat für ein 190€ Board doch ein sehr gutes P/L Verhältnis.
14 Phasen für die CPU, ausreichende VRM Kühlung, 4 M.2 Steckplätze wovon 3 PCIE 4 sind mit 1 Kühler, 7 Lüfteranschlüsse und einen für ne Wakü Pumpe sind und sogar 2 ARGB Header die man eher bei "gaming" Boards Vororten würde.

Wenn man mal ins AMD Land schaut, haben da selbst die teuersten B550 nur 12 Phasen und die kosten schon deutlich über 200€.

Lowkey
2021-11-27, 17:28:33
Irgendeine Feindschaft läuft zwischen Asrock und HU. Die machen nun nicht Produktplacement, sondern Displacement.

Phasen bedeuten nicht immer irgendwas. Wenn man bei Actually Hardcore Overclocking reinschaut, dann kommt es auf die gesamte Verdrahtung an und echte Failboards können auch viele Phasen haben.

TurricanM3
2021-11-27, 17:51:56
Erste CPU drin, ist SP technisch schon mal brauchbar, P cores SP100:

https://abload.de/img/211127235914kejl7.png (https://abload.de/image.php?img=211127235914kejl7.png)

Leider ist das System brutal langsam. Irgendwas stimmt nicht.
Hat hier jemand sein altes Win10 von Ryzen kommend übernehmen können?

Du hast ja auch Anno1800 mit dem 5950x gespielt, würde mich Mal interessieren inwiefern das mit AD besser geht ;-)

Werde ich testen ja. =)
Muss aber sagen, das war mein erster AMD seit über einem Jahrzehnt und ich war damit echt zufrieden. Lief 1a.

Noch ein Abschiebspic:

https://abload.de/img/20211127_1538130xjlw.jpg (https://abload.de/image.php?img=20211127_1538130xjlw.jpg)

spielt das denn bei LM denn eine rolle? LM hat doch nicht wirklich einen widerstand, weshalb man ja auch nur sparsam auftragen muss.

Kein LM hier. Ist auch noch nichts geköpft. Wenn LM dann aber nur bei direct die oder unter den IHS. Mit IHS zwischen Kühler bin ich da kein Freund von.

Ex3cut3r
2021-11-27, 17:55:29
Finde schwarz schöner als dieses Militär Braun. :biggrin:

Viel Spaß damit.

ryan
2021-11-27, 18:27:59
Irgendeine Feindschaft läuft zwischen Asrock und HU. Die machen nun nicht Produktplacement, sondern Displacement.

Phasen bedeuten nicht immer irgendwas. Wenn man bei Actually Hardcore Overclocking reinschaut, dann kommt es auf die gesamte Verdrahtung an und echte Failboards können auch viele Phasen haben.


Ja genau, Asrock ist nur das arme Opfer von HU, also langsam wird es albern.

Die reine Anzahl ist nicht alles, doch in dem Fall schon bei so einem großen Unterschied. 8 Phasen ist B560 Niveau, das ist vielleicht Standard für 150€ Boards. Bei einem 200€ teuren Z690 erwartet man mehr Reserven.

Die anderen Hersteller verbauen nicht aus Spaß mindestens 14 Phasen und teurer sind Gigabyte und MSI auch nicht, sogar etwas günstiger. Oder glaubst du wirklich, die 8 Asrock Phasen sind am Ende leistungsfähiger als 14 oder 16 Phasen von Asus, MSI, Gigabyte?

Emil_i_Lönneberga
2021-11-27, 19:08:19
@TurricanM3:

Der Kryos Next ist einfach ein Meisterwerk, das wird mir im Vergleich mit anderen Kühler immer wieder bewusst. Leider fehlt mir noch deine Nickel Variante.

https://www.xtremerigs.net/wp-content/uploads/2016/10/DSC_9590.jpg

https://www.xtremerigs.net/wp-content/uploads/2016/10/DSC_9582.jpg

https://www.xtremerigs.net/wp-content/uploads/2016/10/DSC_9601.jpg

Schön zu sehen, dass du den Next auf den Sockel 1700 übernommen hast.

ryan
2021-11-27, 20:05:29
Der Vorsprung gegenüber Ryzen 5000 ist allerdings derart gravierend, dass selbst künftige Modelle mit 3D V-Cache nicht an dieses hohe Leistungsniveau heranreichen dürften. OC gegen OC ist AMDs aktuelle Generation klar deklassiert und DDR5 mit Transferraten jenseits der 7000MT/s kommen erst noch. Vermutlich wird dann aber Zen 4 bereits verfügbar sein und ebenfalls von schnellem DDR5 profitieren.
https://www.capframex.com/tests/Alder%20Lake%20mit%20schnellem%20DDR5%20gegen%20Ryzen%205000


Mit OC RAM geht der 12900K richtig ab, Wahnsinn.

Ex3cut3r
2021-11-27, 20:25:09
https://www.capframex.com/tests/Alder%20Lake%20mit%20schnellem%20DDR5%20gegen%20Ryzen%205000

Sehr schöner Test, erstaunlich wie oft man schneller unterwegs ist, mit einer AMD GPU, auch wenn das RAM Setting exakt gleich ist. Ansonsten starker Wurf von Intel, sind ganz klar wieder Nummer 1, selbst mit 3D-Cache dürfte AMD nicht an das Ergebnis mit RAM Tuning rankommen. Wer da noch auf AMD setzt, selbst schuld. Vor allem da X570 nun auch noch technologisch hinten dran ist, PCIe 4.0 vs 5.0. :redface:

So ein 12400f dürfte ein sehr schöne Preis/Leistungs Gamer CPU werden, der 5600X ist dagegen leider vollkommen überteuert und langsamer. Wenn AMD wenigstens Preismäßig dagegen angehen wurde, aber nein, die kommen nicht runter von ihren Preisen, dass muss man sich mal geben. Wie kann man nur so arrogant sein? Unglaublich.

MSABK
2021-11-27, 21:39:39
die kommen nicht runter von ihren Preisen, dass muss man sich mal geben. Wie kann man nur so arrogant sein? Unglaublich.

Angebot und Nachfrage bestimmt den Preis.

Lurtz
2021-11-27, 22:23:52
https://www.capframex.com/tests/Alder%20Lake%20mit%20schnellem%20DDR5%20gegen%20Ryzen%205000

Mit OC RAM geht der 12900K richtig ab, Wahnsinn.
CapFrameX mag ja ein tolles Tool sein, aber wenn man deren Twitter-Kanal verfolgt, hat man den Eindruck man liest einen Intel-PR-Kanal.

Edit: Und der 5900X mit dem hier verglichen wird, kostet immerhin ca. 180€ weniger als der 12900K.

Ex3cut3r
2021-11-28, 00:00:22
Angebot und Nachfrage bestimmt den Preis.

Schon wieder dieses Argument? Wer soll denn jetzt noch mit dem AlderLake rls. eine veraltete AMD Plattform (X570) und überteuerte CPUs (5600X) kaufen? :freak:

Zen 3:
+Stromverbrauch
+B550 Mainboard Preise

-Teurer
-Weniger Spieleleistung
-Weniger Kerne
-Kein PCIe 5.0


Alderlake:
+Günstiger
+Spiele King
+Mehr Kerne
+PCIe 5.0

-Stromverbrauch (nur in Anwendungen relevant)
-Mainboard Preise (günstigstes Board, 188,20€ MSI Pro Z690-P DDR4)

Warum sollte man einen 5800X kaufen, wer der i5-12600k den schon schlägt, warum sollte man noch einen 5900X kaufen, wenn der i7-12700k den schlägt?

Bei einem Neukauf definitiv Intel, sonst verliert man Leistung bei gleicher Preisklasse. 5800X wird deklassiert von 12600k ~ 360€ vs 298€
5900X wird wiederum deklassiert vom 12700k ~ 495€ vs 408,60€

Anders, sieht es mit den Leuten aus, die schon X570 haben. Zum Beispiel mit einer Zen 2 CPU, da macht es noch irgendwo Sinn, weil Sie nicht die ganze Plattform wechseln wollen, allerdings wird kein 3600 User plötzlich das doppelte für einen 5600X auf den Tisch legen, da muss noch einiges passieren bei AMD! Auch wenn Sie es nicht wahr haben wollen.

BlacKi
2021-11-28, 00:46:52
mit dem ram oc komm ich noch garnicht klar. ich hoffe da tut sich noch was mit bios updates. ich spiele gleich mal das aktuelle auf, aber in den notes sieht man nichts aufregendes. erster vorabtest in cities skylines mit 3200cl13 selbst mit aida 53ms sinds +37%(+40% 3600cl14)gegenüber meinem 8700k5ghz 4266cl17.:freak:

3600cl14 ist mit dem 12900k 25,6% schneller als mein alter:)

dabei fange ich mit dem tuning erst gerade an.



Edit: Und der 5900X mit dem hier verglichen wird, kostet immerhin ca. 180€ weniger als der 12900K.


das riecht leicht salzig:wink:

ryan
2021-11-28, 01:02:39
CapFrameX mag ja ein tolles Tool sein, aber wenn man deren Twitter-Kanal verfolgt, hat man den Eindruck man liest einen Intel-PR-Kanal.


Und weiter? Möchtest du ihnen jetzt Betrug unterstellen, weil die Werte für deinen Geschmack zu sehr pro Intel ausfallen?


Edit: Und der 5900X mit dem hier verglichen wird, kostet immerhin ca. 180€ weniger als der 12900K.


Dann rechne dir 1% für den 5950x dazu, als wenn das den Unterschied macht.

dildo4u
2021-11-28, 06:39:46
CapFrameX mag ja ein tolles Tool sein, aber wenn man deren Twitter-Kanal verfolgt, hat man den Eindruck man liest einen Intel-PR-Kanal.

Edit: Und der 5900X mit dem hier verglichen wird, kostet immerhin ca. 180€ weniger als der 12900K.
Sieht plausibel aus nur ist nicht mal Basis 4800 Ram verfügbar, wird interresant was zu erst und in Masse kommt Zen 3D oder DDR5 Ram.

w0mbat
2021-11-28, 11:28:18
Und weiter? Möchtest du ihnen jetzt Betrug unterstellen, weil die Werte für deinen Geschmack zu sehr pro Intel ausfallen?

Wieso ist alles immer gleich "Betrug"? Dass CapFrameX Intel fanboy ist weiß man schon eine Weile.

Birdman
2021-11-28, 12:25:16
Interessant sind für mich auch die DDR4 / DDR5 Vergleiche.
i.d.R hält das DDR4-4000 System problemlos mit, dann gibt es aber einzelne Games wo DDR5 einfach massiv davonzieht. (und da sieht dann auch AMD kein Land)

Was natürlich den Schluss nahelegt, dass Zen3D bei genau diesen Games und Applikationen auch nichts an der Performance-Hirarchie wird ändern können.

dildo4u
2021-11-28, 12:57:42
AMD umgeht mit dem Cache einfach den schwachen Speicherkontroller, du kannst Intel mit 4800 DDR3 betreiben wenn du lustig bis keine Option für Zen 3.

https://youtu.be/F-aqzc0_WSc?t=173

Ist sogar kaufbar:

https://geizhals.de/?cat=ramddr3&v=l&hloc=de&sort=p&bl1_id=30&xf=15903_DDR4%7E254_4800

TurricanM3
2021-11-28, 13:09:55
Habe mal Anno1800 mein uraltes Savegame mit 40k Einwohnern getestet.

5950X (5050MHz) 3733C14 1:1 mit komplett durchoptimierten Subs:

https://abload.de/thumb/anno1800_2021_11_27_1wyjgh.png (https://abload.de/image.php?img=anno1800_2021_11_27_1wyjgh.png)

Viel mehr optimieren konnte man den nicht.

12900k @5300/4000 DDR5@5400C34 (Subs über Apex preset, da geht sicher noch was):

https://abload.de/thumb/anno1800_2021_11_28_1gik7s.png (https://abload.de/image.php?img=anno1800_2021_11_28_1gik7s.png)

:eek:

Ich musste allerdings Windows drüberbügeln (inplace) da zuerst alles in Slowmo lief. Anno1800 liegt Intel zwar eher, aber um ehrlich zu sein erscheint mir das zu krass. :ucrazy:
Oder das Game hat irgendwelche Eigenheiten, die das zum benchen weniger eignen. Ich kann also nicht 100% garantieren, dass das so korrekt ist. Habe aber extra je 2x gebencht und immer ~ 2Min. gewartet bis sich alles füllt und bei exakt 70:22:00 den screenshot gemacht.

MiamiNice
2021-11-28, 13:53:33
Doch das ist so korrekt ;)
Die Ryzens waren schon immer mies - ist nur nicht aufgefallen weil das Intel Zeug quasi Uralt gewesen ist. Auch in anderen Single Core Games gibt es derartige Steigerungen, z.b. Sword of Legends.

dildo4u
2021-11-28, 14:06:58
Normal 90% der Games werden nicht für PC gebaut daher achten die Meisten Entwickler drauf das man nicht nur 10% der CPU nutzt.
Besseres Threading würde auch Intel helfen das sie jetzt aufgeholt haben alles bis 50% würde helfen da es auf den dicken Kernen laufen könnte.

Ex3cut3r
2021-11-28, 14:39:55
Habe mal Anno1800 mein uraltes Savegame mit 40k Einwohnern getestet.

5950X (5050MHz) 3733C14 1:1 mit komplett durchoptimierten Subs:

https://abload.de/thumb/anno1800_2021_11_27_1wyjgh.png (https://abload.de/image.php?img=anno1800_2021_11_27_1wyjgh.png)

Viel mehr optimieren konnte man den nicht.

12900k @5300/4000 DDR5@5400C34 (Subs über Apex preset, da geht sicher noch was):

https://abload.de/thumb/anno1800_2021_11_28_1gik7s.png (https://abload.de/image.php?img=anno1800_2021_11_28_1gik7s.png)

:eek:

Ich musste allerdings Windows drüberbügeln (inplace) da zuerst alles in Slowmo lief. Anno1800 liegt Intel zwar eher, aber um ehrlich zu sein erscheint mir das zu krass. :ucrazy:
Oder das Game hat irgendwelche Eigenheiten, die das zum benchen weniger eignen. Ich kann also nicht 100% garantieren, dass das so korrekt ist. Habe aber extra je 2x gebencht und immer ~ 2Min. gewartet bis sich alles füllt und bei exakt 70:22:00 den screenshot gemacht.

Krass, 51,06% mehr Leistung. :biggrin:

Ich sage doch auch. Zen 3 ist total überbewertet, wenn man OC + OC gegenüberstellt. KA was immer alle im 3DCenter mit Zen hatten.

TurricanM3
2021-11-28, 14:45:24
Doch das ist so korrekt ;)
Die Ryzens waren schon immer mies - ist nur nicht aufgefallen weil das Intel Zeug quasi Uralt gewesen ist. Auch in anderen Single Core Games gibt es derartige Steigerungen, z.b. Sword of Legends.

Anno1800 ist schon eher ein Intel Sonderfall. Ich war mit dem Ryzen sehr zufrieden.

Weihnachtsbaum kann ich mir das Jahr glaube sparen :biggrin:

https://abload.de/img/20211127_173228u3jw1.jpg (https://abload.de/image.php?img=20211127_173228u3jw1.jpg)

Rancor
2021-11-28, 15:12:21
Doch das ist so korrekt ;)
Die Ryzens waren schon immer mies - ist nur nicht aufgefallen weil das Intel Zeug quasi Uralt gewesen ist. Auch in anderen Single Core Games gibt es derartige Steigerungen, z.b. Sword of Legends.
Naja besser als alles was Intel vor Alder Lake gemacht haben sind sie schon ;)

Krass, 51,06% mehr Leistung. :biggrin:

Ich sage doch auch. Zen 3 ist total überbewertet, wenn man OC + OC gegenüberstellt. KA was immer alle im 3DCenter mit Zen hatten.

Und wenn die 3D Ryzens kommen und Alder Lake wegfegen, dann laberst du wieder andersherum. Dann kommt Tigerlake und du laberst wieder anders.. Raffst du es eigentlich nicht?

Ex3cut3r
2021-11-28, 15:13:43
Selbst mit 3D Cache kann man nicht 50% aufholen.

Rancor
2021-11-28, 15:26:18
Selbst mit 3D Cache kann man nicht 50% aufholen.

Ja in diesem einem Spiel nicht. Overall wird man sie vermutlich schon schlagen können, es sei denn man vergleich das gegen ein DDR5 ( was auf lange zeit nicht vernünftig verfügbar sein wird ) System. Da wird man logischerweise chancenlos bleiben. Die Karten werden dann mit Zen4 neu gemischt. Ich finde den CPU Markt schon so spannend wie lange nicht mehr.

robbitop
2021-11-28, 15:35:51
Die Frage ist wie repräsentativ dieser Einzelfall ist.

MiamiNice
2021-11-28, 16:18:43
Naja besser als alles was Intel vor Alder Lake gemacht haben sind sie schon ;)


Ist ja das was ich sage. Im Prinzip hat alles bis zum ADL auf alte Sachen aufgebaut. Skylake ist ja nicht groß was anderes als ein Core 2 Duo.

Lehdro
2021-11-28, 17:12:40
Skylake ist ja nicht groß was anderes als ein Core 2 Duo.
Was denkst du eigentlich was ADL ist? ADL ist auch "nur" auf TGL aufgebaut. Nur haben manche halt im Desktop oft die Ansicht das auf SKL direkt ADL folgt, was aber entwicklungstechnisch einfach falsch ist. Da steckt halt noch so viel dazwischen, was aber im Desktop teilweise übersprungen (ICL, TGL) oder gar misshandelt (RKL) wurde.

Massiv umbauen im CPU Bereich ist extrem selten, das sieht man maximal einmal alle 10-20 Jahre. Selbst der Skylake und damit auch der Core 2 kann seine Wurzeln nicht verleugnen, nur liegen die halt nicht beim Pentium 4, sondern beim P6. Und das war immerhin die grundlegende Architektur seit dem Pentium I. Somit ist der Pentium 4 der eigentliche Ausreißer, alles andere kann seine Ahnenreihe bis zum P6 (https://en.wikipedia.org/wiki/P6_(microarchitecture)) zurückverfolgen. Die E-Cores können ihre Abstammung übigens ebenso auf die Core Archtitektur und damit den P6 zurückführen (Dothan -> Stealy -> Atom -> E-Cores). Bei Intel ist das nun einmal alles bis auf den Pentium 4 massiv iterativ aufgebaut.

VooDoo7mx
2021-11-28, 18:04:49
Habe mal Anno1800 mein uraltes Savegame mit 40k Einwohnern getestet.

5950X (5050MHz) 3733C14 1:1 mit komplett durchoptimierten Subs:

https://abload.de/thumb/anno1800_2021_11_27_1wyjgh.png (https://abload.de/image.php?img=anno1800_2021_11_27_1wyjgh.png)

Viel mehr optimieren konnte man den nicht.

12900k @5300/4000 DDR5@5400C34 (Subs über Apex preset, da geht sicher noch was):

https://abload.de/thumb/anno1800_2021_11_28_1gik7s.png (https://abload.de/image.php?img=anno1800_2021_11_28_1gik7s.png)

:eek:

Ich musste allerdings Windows drüberbügeln (inplace) da zuerst alles in Slowmo lief. Anno1800 liegt Intel zwar eher, aber um ehrlich zu sein erscheint mir das zu krass. :ucrazy:
Oder das Game hat irgendwelche Eigenheiten, die das zum benchen weniger eignen. Ich kann also nicht 100% garantieren, dass das so korrekt ist. Habe aber extra je 2x gebencht und immer ~ 2Min. gewartet bis sich alles füllt und bei exakt 70:22:00 den screenshot gemacht.

Wieb´viel verbraucht denn deine CPU bei Multicore Volllast, also z.B: CB R23 MT?

Die Frage ist wie repräsentativ dieser Einzelfall ist.

Man kann quasi als Grundregel festhalten, dass um so schlechter ein Spiel oder auch eine Anwendung an Multicore angepasst ist, Zen 3 umso stärker ins hintertreffen gerät.

Und gerade Spiele die PC exklusiv sind oder primär für den PC entwickelt wurden, sind auch oft die, die am schlechtesten auf Multicore laufen.
Das betrifft besonders Strategiespiele, die auch oftmals abseits vom Hype erscheinen und auch erst gar nicht getestet werden.
Es testet ja praktisch niemand so ein Anno1800 Lategame Save. Nur der übliche Hypemüll überall.
Auch so Titel wie Stellaris die mit großen Galaxien im Lategame haufenweise Singlecore Leistung brauchen. Oder auch X4 mit einen 1000h+ Savegame.
Ist ja das was ich sage. Im Prinzip hat alles bis zum ADL auf alte Sachen aufgebaut. Skylake ist ja nicht groß was anderes als ein Core 2 Duo.
:facepalm:

TurricanM3
2021-11-28, 18:35:05
Ich hatte nur kurz ausgelotet was sie min. für 5000 CB23 braucht, hier der Screen, da siehst du den Verbrauch auch (Spannung allerdings recht niedrig):

https://abload.de/thumb/cb23_5000qijph.png (https://abload.de/image.php?img=cb23_5000qijph.png)

Das ist aber alles noch nicht final. Der Kühler sitzt nicht richtig bzw. Anpressdruck wird nicht optimal sein. Wärmeleitpaste ist auch nur ein vertikaler Streifen drauf, da ich das sowieso alles noch mal richtig montiere dann mit dem neuen Kryos.

robbitop
2021-11-28, 21:31:01
Voodoo
@Grundregel
Kann man da so sagen? Ich sehe das anders. Far Cry ist auch nicht besonders toll in MT und läuft auf Ryzens sehr gut relativ zu Intel. Ich finde das kann man nicht verallgemeinern. Jedes Spiel hat mit seinem Code so seine eigene Charakteristik die je nach uArch und der Konstallation von Flaschenhälsen zu zT unterschiedlichen Ergebnissen kommen kann.

aufkrawall
2021-11-28, 22:34:30
Erklär das mal Miami. Nein, besser nicht. Ist zwecklos...

QUERSCHLÄGER
2021-11-28, 22:50:30
Ich weiß nicht, wann ich das letzte Mal so einen Müll gelesen habe wie da oben. Ryzen war schon immer mies, hat nur keiner gemerkt, grandios. Wäre ich ein Pferd, ich tät wiehern. Ich kann mir das nur so erklären, daß er sich eventuell ein neues Mauspad gekauft hat und ihm seit Tagen die Ausdünstungen in's Gehirn steigen. Vielleicht leckt er auch an seinen Heizkörpern, ich weiß es nicht.

Und nein, ich habe seit einem Barton wie hier irgendwo mal erwähnt die letzten 18 oder 19 Jahre keinen AMD mehr besessen.

--------------------

Habe mal Anno1800 mein uraltes Savegame [TEXT TEXT]

Gibt es das auch mit Anzeige der Kernauslastung? Die Gesamtanzeige isn büschen langweilig.

aufkrawall
2021-11-28, 23:33:20
Gibt es das auch mit Anzeige der Kernauslastung? Die Gesamtanzeige isn büschen langweilig.
Nope. Die Anzeige pro Thread/Kern ist durch das Thread-Hopping von Windows relativ nutzlos.

QUERSCHLÄGER
2021-11-28, 23:59:45
Schade. Wollte mal gucken, ob da wirklich die kleinen Kerne schon mit rumfluppen oder ob die brachliegen.

aufkrawall
2021-11-29, 00:01:21
Ok, das kann man natürlich schon sehen. Aber die werden halt ~nichts machen, wenn das Spiel nicht mal einen Vierkerner gescheit auslasten kann.

QUERSCHLÄGER
2021-11-29, 00:29:28
Na, dann wirst du ja beim Spielen überhaupt nie was von den lütschen Gnubbeln haben, bevor eine neue Generation im Laden ist. Bevor ein Spiel mal 8 Kerne + Ht gescheit wird auslasten können, werden noch Jahre vergehen. Ich sehe jedenfalls keine große Produktion in der Entwicklung, bei der das innerhalb der nächsten Zeit der Fall sein könnte.

Wobei, mein Anwendungsgebiet ist eh ein anderes: 1080p bis maximal 75hz (wobei ich wie eh und je bei 60Bilder/s deckele). Insofern könnte vielleicht jemand was davon haben, der wirklich hohe Bildraten will. Meine 60fps wird die nächsten 5 Jahre vermutlich auch ein 11400 noch stemmen können.

Aber ich verstehe langsam, warum man beim 12400 vom eigentlichen Star der Reihe spricht. Er wird hoffentlich ordentlich bumms haben, läßt für die meisten Spieler die wohl nutzlosen e-Kernchen weg und kostet dementsprechend weniger. Schaue mir den im nächsten Jahr mal an.

The_Invisible
2021-11-29, 07:47:31
Habe mal Anno1800 mein uraltes Savegame mit 40k Einwohnern getestet.

5950X (5050MHz) 3733C14 1:1 mit komplett durchoptimierten Subs:

https://abload.de/thumb/anno1800_2021_11_27_1wyjgh.png (https://abload.de/image.php?img=anno1800_2021_11_27_1wyjgh.png)

Viel mehr optimieren konnte man den nicht.

12900k @5300/4000 DDR5@5400C34 (Subs über Apex preset, da geht sicher noch was):

https://abload.de/thumb/anno1800_2021_11_28_1gik7s.png (https://abload.de/image.php?img=anno1800_2021_11_28_1gik7s.png)

:eek:

Ich musste allerdings Windows drüberbügeln (inplace) da zuerst alles in Slowmo lief. Anno1800 liegt Intel zwar eher, aber um ehrlich zu sein erscheint mir das zu krass. :ucrazy:
Oder das Game hat irgendwelche Eigenheiten, die das zum benchen weniger eignen. Ich kann also nicht 100% garantieren, dass das so korrekt ist. Habe aber extra je 2x gebencht und immer ~ 2Min. gewartet bis sich alles füllt und bei exakt 70:22:00 den screenshot gemacht.

50% sind ja echt krass, hätte ich nicht erwartet :eek:

Als Anno Fan will man da eigentlich sofort aufrüsten, interessant wären noch CitySkylines, Stellaris usw dürfte dann ja dort auch einiges bringen. Weitere Vergleichsbenchmarks wären interessant ; )

Lowkey
2021-11-29, 09:35:03
Anno 1800, 5950x vs 12900k

33% hier PCGH (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Tests/Release-Benchmark-Core-i9-12900K-Core-i5-12600K-1382613/2/#a9)
33% dort Golem (https://www.golem.de/news/core-i9-12900k-alder-lake-im-test-das-intelperium-schlaegt-zurueck-2111-160611-8.html)
Fast nichts @ Igor (https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/5/)

Eventuell braucht man das Savegame zum Gegentesten.

@T3

Für den Vergleich noch eine Runde x264/x265 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581419)?

Twodee
2021-11-29, 09:40:21
Anno 1800, 5950x vs 12900k

33% hier PCGH (https://www.pcgameshardware.de/Alder-Lake-S-Codename-277726/Tests/Release-Benchmark-Core-i9-12900K-Core-i5-12600K-1382613/2/#a9)
33% dort Golem (https://www.golem.de/news/core-i9-12900k-alder-lake-im-test-das-intelperium-schlaegt-zurueck-2111-160611-8.html)
Fast nichts @ Igor (https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/5/)

Eventuell braucht man das Savegame zum Gegentesten.

@T3

Für den Vergleich noch eine Runde x264/x265 (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=581419)?
Igor verwendet halt eine RX6900XT

TurricanM3
2021-11-29, 10:40:16
Ich hab max. OC vs. max OC verglichen, inkl. RAM Tuning und Subs.
Und aus dem Intel kann man mehr rausholen, da bin ich noch nicht fertig. Hab ja leider nur die Micron Gammel-RAMs bekommen. Mit Samsung / Hynix wird da mehr gehen.

Als Anno Fan will man da eigentlich sofort aufrüsten, interessant wären noch CitySkylines, Stellaris usw dürfte dann ja dort auch einiges bringen. Weitere Vergleichsbenchmarks wären interessant ; )

Ich spiele aktuell nichts anderes, sorry. Den AMD werde ich auch nicht mehr einbauen.

BlacKi
2021-11-29, 18:35:40
Igor verwendet halt eine RX6900XT
gpu limit? zumindest deuten die 1% lows darauf hin.
gerade in dx12 würde ich cpu tests eher mit nv karten machen, weil dort nv karten früher und einfacher ins cpu limit kommen und so mehr unterschiede zu sehen sind.

Dr.Doom
2021-11-29, 18:50:11
Deutet ein WHEA-Logger Eintrag mit ID 1 (eins) in der Ereignisanzeige auf eine defekte CPU hin?
Tritt nur am Anfang (beim Start/Booten/Hochfahren) einmal auf, beim Stressen mit Foltertools nicht.

12700k ohne jegliches CPU-OC, nur XMP-Profil des Speichers geladen (3200/CL14).

iamthebear
2021-11-29, 20:08:43
Igor verwendet halt eine RX6900XT

Igor hat noch einmal mit einer 3090 nachgetestet. Damit sind zwar die Verbrauchswerte beim 5950X so wie bei den Anderen. An der Anno Performance hat sich aber nicht viel geändert.

https://www.igorslab.de/core-i9-12900kf-und-ryzen-5950x-gegen-geforce-rtx-3090-und-radeon-rx-6900xt-wenn-amd-nvidia-mag-und-intel-alles-egal-ist-nachgetestet/2/

Der hat aber offensichtlich jetzt kein Endgame Savegame gebencht, denn er hatte um die 240fps. Ich schätze einfach, dass der Code, der im Endgame bremst ganz anders ist als bei einem neuen Game einfach nur Draw Calls raus pfeffern.

gpu limit? zumindest deuten die 1% lows darauf hin.
gerade in dx12 würde ich cpu tests eher mit nv karten machen, weil dort nv karten früher und einfacher ins cpu limit kommen und so mehr unterschiede zu sehen sind.

Nein nicht GPU Limit. Nvidia hat einen deutlich höheren Driver Overhead, was bei DirectX12 Spielen je nach Titel 10-20% CPU Performance kostet. Mit AMD GPUs benchmarked man eben hauptsächlich das Spiel, bei Nvidia zu einem großen Teil auch den Driver Overhead. Dieser skaliert zwar meistens ähnlich wie das Spiel aber das muss nicht zwingend so sein.

Ex3cut3r
2021-11-29, 20:39:49
Deutet ein WHEA-Logger Eintrag mit ID 1 (eins) in der Ereignisanzeige auf eine defekte CPU hin?
Tritt nur am Anfang (beim Start/Booten/Hochfahren) einmal auf, beim Stressen mit Foltertools nicht.

12700k ohne jegliches CPU-OC, nur XMP-Profil des Speichers geladen (3200/CL14).

Nun ja. Wenn das wirklich stock, nur mit XMP passiert, ist das etwas beunruhigend. Allerdings könnte es auch vlt. ein Software Fehler/Chipsatz Fehler sein. Alderlake ist halt noch ganz frisch, da sind gewisse Bugs erstmal nicht auszuschließen.

Hast du den Windows neu aufgesetzt?

BlacKi
2021-11-29, 20:47:43
ich würds tatsächlich an der benchmarkszene festmachen. wenn man die systeme vergleicht, sind zwar unterschiede festzustellen, aber die unterschiede sind nicht 1zu1 an der hardware festzumachen.

VooDoo7mx
2021-11-29, 21:40:51
Hat zwar nur indirekt was mit dem Alder Lake zu tun, da selbst mein "billig" Z690 Board 4 m.2 Slots hat, hab ich mir mal beim Amazon Black Friday 2x Crucial P2 2TB für 2x140€ geholt.
Sind zwar nur billig QLC SSDs ohne DRAM aber zum laden und speichern von Spielen reicht es locker.

Da weder MSI noch Intel es irgendwie erklär oder auch nur eine Anleitung bereits stellt wie man ein Raid erstellt, war ich kurz vor dem verzweifeln.
Hab dann aber ein gutes Youtube Video gefunden und es damit hinbekommen
Hier ist das Ergebnis:

https://abload.de/img/screenshot2021-11-2927ek8m.jpg

ZeroStrat
2021-11-30, 09:40:48
Wieso ist alles immer gleich "Betrug"? Dass CapFrameX Intel fanboy ist weiß man schon eine Weile.

Wenn man einmal in so eine Schublade drinsteckt, dann wird's schwierig. Ich mag AMD genau so. Was ich nicht mag, sind Fanboys, die vieles kaputt machen in der Tech Szene mit ihrer Mentalität.

Aber das Schöne ist, ich bin 100% transparent. Alle Settings werden offen kommuniziert, auf Youtube gibt's die Szenen, also wenn was nicht passt, nachstellen und beweisen.

Twodee
2021-11-30, 09:45:47
gpu limit? zumindest deuten die 1% lows darauf hin.
gerade in dx12 würde ich cpu tests eher mit nv karten machen, weil dort nv karten früher und einfacher ins cpu limit kommen und so mehr unterschiede zu sehen sind.

cpu limit - treiberoverhead bedingt?

Bei 1080p scheint die RX6900 am schnellsten zu sein.
https://www.gamestar.de/artikel/radeon-rx-6900-xt-test,3364864,seite2.html
Jetzt fehlt noch ein Vergleich mit einem 5000er Ryzen.

Wuge
2021-11-30, 11:12:45
Deutet ein WHEA-Logger Eintrag mit ID 1 (eins) in der Ereignisanzeige auf eine defekte CPU hin?
Tritt nur am Anfang (beim Start/Booten/Hochfahren) einmal auf, beim Stressen mit Foltertools nicht.

12700k ohne jegliches CPU-OC, nur XMP-Profil des Speichers geladen (3200/CL14).

Ich tippe, dass Dein RAM nicht stabil ist. Stell mal 2133 ein testweise.

mocad_tom
2021-11-30, 13:37:49
Ein erster 12700K läuft hier schon.

Generalprobe war umwerfend.

Ab dem 24.12. stehen dann noch zwei weitere rum.

Alle mit gutem DDR4 Ram - aber der Markt für DDR4-4000 (und besser) raucht gerade richtig weg.

Mainboards und Prozessoren alles da - Speicher wie in der Mangelwirtschaft.

Der Noctua NH-D9L ist vllt. ein feines Lüfterchen.

Lowkey
2021-11-30, 14:19:57
Die 4600er 32gb für 199 Euro habe ich leider verpasst. Sonst noch was?

BlacKi
2021-11-30, 15:46:21
cpu limit - treiberoverhead bedingt?

Bei 1080p scheint die RX6900 am schnellsten zu sein.
https://www.gamestar.de/artikel/radeon-rx-6900-xt-test,3364864,seite2.html
Jetzt fehlt noch ein Vergleich mit einem 5000er Ryzen.
ja, da die geforce karten früher ins limit rennen, zeigen sich unter dx12 bei geforce schneller unterschiede.

bei stark ausgebauten maps sind die fps cpu seitig generell niedriger, deshalb: je niedriger die fps in der benchmarkszene, je aussagekräftiger die performance differenz.

sieht man schön an igors test, denn die fps unter 720p sind erheblich höher, und vermutlich immer noch gpu limited. bei 240+ fps auch kein wunder.

Ex3cut3r
2021-11-30, 15:49:28
Wenn man einmal in so eine Schublade drinsteckt, dann wird's schwierig. Ich mag AMD genau so. Was ich nicht mag, sind Fanboys, die vieles kaputt machen in der Tech Szene mit ihrer Mentalität.

Aber das Schöne ist, ich bin 100% transparent. Alle Settings werden offen kommuniziert, auf Youtube gibt's die Szenen, also wenn was nicht passt, nachstellen und beweisen.

Gute Einstellung, ich bin dir sehr dankbar. OC gegen OC wird IMO viel zu wenig getestet. Ich kaufe mir doch kein B-Die um XMP zu nutzen, und da sind solche Benchmarks genau richtig.

Lass dich nicht unterkriegen, dass 3DCenter ist halt voller AMD Fanboys. Klar, ohne Ryzen gäbe es sowas wie Intels 12er Serie nicht. Dafür bin AMD auch dankbar.

aufkrawall
2021-11-30, 15:52:21
OC gegen OC wird IMO viel zu wenig getestet.
Vor allen Dingen gescheite RAM-Einstellungen. Jeder B-Die macht gute Secondary Timings ohne langes Gefrickel mit, aber keiner testet das. Und dann wird sich gewundert, warum sie Leute lieber YT schauen...

Dr.Doom
2021-11-30, 16:05:16
Ich kaufe mir doch kein B-Die um XMP zu nutzen, und da sind solche Benchmarks genau richtig. Dann ist mein RAM gar kein B-Die -- sobald ich da irgendwas um 1 verändere startet der Rechner nciht mehr durch und die Defaul-RAM-Settings werden geladen (beim alten Z370-Board und auch beim neuen Z690-Board). :ugly:

BlacKi
2021-11-30, 16:21:35
bei meinem z690 board muss es auch noch ein paar bios updates geben. das ist echt grausam. sowohl das msiz370 und das asrock z390 waren was stabilität und einstellmöglichkeiten angeht dem gigabyte board hier meilenweit vorraus.

man stellt den ram auf 3600 und dann bootet 2800? dann stellt man auf 3200 von 3600 kommend und schon bootet das board nichtmehr. frust pur.

ausserdem macht irgendwas hdd geräusche wenn die ssds arbeiten. könnte auch am neuen netzteil liegen. ich überlege echt, ein msi oder asus board zu bestellen.

nie wieder gigabyte MB.

Lowkey
2021-11-30, 16:37:49
Die GA B550 sind super, aber die Bewertungen von GA z690 sind grausam schlecht.

mocad_tom
2021-11-30, 16:41:44
Schau mal genau auf den Screenshot von CapFrameX:

https://twitter.com/CapFrameX/status/1458486529681240074

DDR4-4000
CL 17
tRCD 18
tRP 18
tRAS 38
tRC 56

Der hat wahnsinnig geilen RAM, leider schreibt er nicht dazu welchen.

Ich habe einen Kingston FURY Renegade DDR4-4000 CL19-23-23

So. Und anstatt, dass das Mainboard den Speicher mit DDR4-4000 laufen lässt, hat das Mainboard seinen eigenen Kopf.

Bei meinem Kingston Speicher ist am Ende dies dabei rausgekommen:

DDR4-3400
CL 17
tRCD 18
tRP 18
tRAS 36
tRC 54

Das Mainboard mag von sich aus scharfe CL- und tCRD-Werte und arbeitet lieber mit langsamerem Speichertakt.

Ich habe dann in die XMP-Profile vom Speicher reingeschaut - und bei CL17 steht genau DDR4-3400 drin.

Und dies läuft mit Memtest Rocksolid.

Demnächst kommt G.Skill Speicher und die kann ich dann mit DDR4-4000 und CL17 laufen lassen.

Alles GEAR1 versteht sich.

Das was in den XMP-Profilen drin steht lässt sich in Memtest auch genau so gegenverifizieren.

Und die DDR4-3400 mit GEAR1 und scharfen Timings sind schneller, als sie sich jetzt gerade anhören.


G.Skill Trident Z Neo DDR4-4000 F4-4000C16D-32GTZNA CL16-16-16-36

BlacKi
2021-11-30, 16:49:29
bei mir ist das maximum 5,2ghz 3800 cl15-15-15-28-43-1t. ich bin damit 30-50% schneller als mein alter 8700k mit 5ghz 4266 cl17-17-17-28-43-2t.

das ist schon ein sehr großer sprung von dem ersten cfl auf alderlake, selbst ohne ddr5.

ich finde es erstaunlich, das die temps trotz 270w kaum höher liegen als beim 5ghz cfl, trotz selbem kühler und wlp statt LM.

Edit: hier mal meine benches in balkenlänge festgehalten.

https://abload.de/thumb/cpuz12xokpl.png (https://abload.de/image.php?img=cpuz12xokpl.png)

https://abload.de/thumb/aida12eojch.png (https://abload.de/image.php?img=aida12eojch.png)

https://abload.de/thumb/cp12hgk0x.png (https://abload.de/image.php?img=cp12hgk0x.png)

https://abload.de/thumb/cs12i5kej.png (https://abload.de/image.php?img=cs12i5kej.png)

https://abload.de/thumb/de12nej6t.png (https://abload.de/image.php?img=de12nej6t.png)

https://abload.de/thumb/es12zhk34.png (https://abload.de/image.php?img=es12zhk34.png)

Freestaler
2021-11-30, 18:58:40
@Blacki, benchresults des 8700k mit gleichen Spiel und Treiberversion erstellt? Schon nochmal ne schiebe drauf.

BlacKi
2021-11-30, 19:05:04
ja. bis auf tarkov, da gabs ein update, aber kein großes. die benches vom sonntag mit derselben version waren leicht schlechter, aber da hatte ich noch andere timings und 200 mhz weniger core clock. also für mich jedenfalls legid.

Freestaler
2021-11-30, 19:13:26
Krass das auch die 1% low so noch hochziehen. Hätte ich nun zum 8700k nicht erwartet. 50%. Woher kommt das weder 9,10 noch 11 gen haben dazu je so zugelegt. Sicher das du nicht in der Konfig nen Fehler hast? Z.B. neu mit DLSS? ;-)

Lowkey
2021-11-30, 19:19:13
Krass ist eher der Sprung von Max. OC 8700k auf not-yet-final-OC 12900k. Alleine Cities geht nur auf IPC+Takt und nicht auf Kerne.

BlacKi
2021-11-30, 19:22:33
ich hab alle benches im cpu limit gemacht. das ist garnicht so leicht. für cyberpunk hab ich 720p + dlss ultraperformance gebraucht und trotzdem hatte ich mit dem 12900k dann manchmal 80% gpu load XD aber die selben settings wie beim 8700k. ich visiere die settings so an, das etwa 60% gpu load beim 8700k anliegen, dann sind das beim 12900k so etwa +-80% cpu load.

ich hatte auch bf benches mit bot matches vorbereitet, aber ich bin auch mit der neuen cpu bei den selben 116fps hängen geblieben. hab da keine erklärung für. deshalb halte ich auch die benches mit dem 8700k für zu schwach in bf.

Freestaler
2021-11-30, 19:41:18
Liegt Nvidia ADL soviel besser? Rein cpu kanns über all die Games doch nicht sein. 50% zu einem 8700k OC in ST lasstigen Games hat bis dato noch keiner so gezeigt. Sorry aber da ist der Wurm drin irgendwie, https://youtu.be/TPtGfICbRJ0

720p mit ultraperfdlss triggert doch sonstwas. Reines saubere cpu limit sehen wir so nicht.

BlacKi
2021-11-30, 20:09:11
Liegt Nvidia ADL soviel besser? Rein cpu kanns über all die Games doch nicht sein. 50% zu einem 8700k OC in ST lasstigen Games hat bis dato noch keiner so gezeigt. Sorry aber da ist der Wurm drin irgendwie, https://youtu.be/TPtGfICbRJ0

720p mit ultraperfdlss triggert doch sonstwas. Reines saubere cpu limit sehen wir so nicht.


wie gesagt, die settings sind gleich. ich hab im vorfeld sichergestellt, das ich nachträglich nichts mehr verstellen muss um im cpu limit zu bleiben. das video zeigt sehr schön welchen scheißdreck die leute testen. 1440p in einem cpu test...

-=Popeye=-
2021-11-30, 20:21:46
Krass das auch die 1% low so noch hochziehen. Hätte ich nun zum 8700k nicht erwartet. 50%. Woher kommt das weder 9,10 noch 11 gen haben dazu je so zugelegt. Sicher das du nicht in der Konfig nen Fehler hast? Z.B. neu mit DLSS? ;-)

Lässt sich ganz einfach mit zB diesen Benchmarks nachprüfen...

https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-battlefield-5-cpu.571753/

https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-shadow-of-the-tomb-raider-cpu.570843/

https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-cyberpunk-2077-cpu.601159/

https://extreme.pcgameshardware.de/threads/anno-1800-cpu-benchmark-pcgh-szene.570830/

https://extreme.pcgameshardware.de/threads/pcgh-community-benchmarks-kingdom-come-deliverance-cpu.566165/

... wenn alles mit meiner Bestellung klappt könnte ich hier die Tage i9-9900KS mit i7-12700K vergleichen.

Beide CPUs würden mit einer Custom RX 6900 XT und DDR4 befeuert werden, der i9-9900KS läuft aktuell mit 4x8GB 4266 CL15-15-15-35 2T und die RAM Settings beim i7-12700K stehen noch in den Sternen.

edit: getestet wird dann in 720p und 1080p

robbitop
2021-11-30, 21:01:07
8700K könnte aber auch wegen Security mitigations geplagt sein. Mir fiel das schon oft auf, dass CML trotz gleicher Cores und sogar langsameren Ringbus oft schneller pro Kern und Takt ist als CFL und zwar nicht unwesentlich.

mocad_tom
2021-11-30, 21:04:13
Ich habe einen 12700K
Aber soweit ich das sehe kann ein 12700K das gleiche wie ein 12900K man muss nur erstmal blicken, was das Mainboard / die CPU überhaupt von einem will.
Das war gleich am Anfang ziemlich frustrierend.

ASUS ROG Strix Z690-A Gaming WIFI D4 mit BIOS von mitte November

BlacKi
2021-11-30, 21:22:34
8700K könnte aber auch wegen Security mitigations geplagt sein. Mir fiel das schon oft auf, dass CML trotz gleicher Cores und sogar langsameren Ringbus oft schneller pro Kern und Takt ist als CFL und zwar nicht unwesentlich.


wenn du die benchmarkliste durchgehst, dann siehst du auch zum schnellsten 10900k +50% vom 8700k kommend in cyberpunk.



die benchmarkszene aus dem pcgh forum verursacht bei mir 13% time in gpu load, und ich bekomme dort gerade mal 130fps hin.


ich versuche jetzt noch eine geringere auflösung.
€dit: würde die seitenverhältnisse verändern.

VooDoo7mx
2021-11-30, 22:12:50
Hier nochmal einen Vergleich zwischen meiner 2 Windows Computer bei einen PC exklusiven Spiel was praktisch nur auf 1 Thread läuft. Es handelt sich um das ARPG Grim Dawn.
1920x1080p lowest Details, 100% im CPU Limit.

Verglichen wird eine Ryzen 7 5800H CPU mit dem 12700K.
Beide haben Dual Channel 32GiB DDR4. AMD CPU hat 3200MHz CL 22-22-22 /Jedec Spec) und der 12700K 4000 CL 18-22-22 RAM.

https://abload.de/img/grimdawn_ryzen4bkh4.jpg

https://abload.de/img/grimdawn-intelngkf2.jpg

Doppelt so schnell.:ugly:

Auch mal den Stromvergleich vergleichen. :ugly:

Ich weiß, ich weiß das ist nicht hundert Prozent fair, Ein Desktop Zen 3 hat mehr Takt, mehr L3 Cache und besseren RAM. Aber allzu viel mehr als vielleicht 20% wird der hier auch nicht draufgeben können.

Mal als Vergleich bei Cinebench R23 ST ist der Alder Lake 37% schneller, bei Grim Dawn 100%.
Soviel zu ST Gaming Performance...

aufkrawall
2021-11-30, 22:36:26
Aber allzu viel mehr als vielleicht 20% wird der hier auch nicht draufgeben können.

Wat? Der Mobile-Chip hat Krüppel-Cache und 3200 CL22... :freak: ;D
Du hast wohl noch nicht viele RAM-Benchmarks gemacht.

mocad_tom
2021-11-30, 22:38:55
Wir haben den Alderlake aufgesetzt, um Datenbank-Sicherungen vom einen Datenbank-System zum anderen Datenbanksystem zu konvertieren.
In einem Dokumenten-Management-System liegen unzählige Dateien den einzelnen Kunden-Datenbankeinträgen zugeordnet.
Das ist weitestgehend single threaded.
Wahrscheinlich halt auch, weil PCIe an Alderlake schneller wurde(und damit IO/nvme), aber die Zeit zum konvertieren hat sich ggü skylake halbiert.

Der_Korken
2021-11-30, 23:32:49
Bei so Extrembeispielen, wo Intel CPUs manchmal absurd viel schneller als die AMD-Modelle, frage ich mich woran das technisch liegt. Grim Dawn wurde 2016 released als es noch nicht mal Zen 1 gab. Als Zen 1 released wurde, konnte man noch sagen, dass Zen an sich noch nicht gut optimiert ist, aber das kann bei Zen 3 nicht mehr gelten. Kann es vielleicht eine Compiler-Geschichte sein? Man muss es mal so sehen, dass sich die Grundarchitektur (Quadcore-Design, Cachehierachie, SMT, Mikroarchitektur) bei Intel von 2008 (!) bis 2017 nicht verändert hat und Intel zu jedem Zeitpunkt die Leistungskrone samt größten Marktanteil innehatte, ab 2013 quasi ein Monopol. Nur 2011 kamen noch µ-Op-Cache und AVX dazu.

Wenn man dann ins Jahr 2016 blickt, dann würde es mich nicht überraschen, wenn jeder in der Praxis verwendete x86-Compiler so ziemlich auf die Eigenheiten der Intel-Architektur angepasst ist, weil man ja schnellen Code erzeugen will und schnell ist, was auf quasi allen aktuellen CPUs schnell ist. Bei Ashes of the Singularity wurde nach Zen-Release afaik ein Patch gebracht, der bestimmte Instruktionsfolgen im Code vermeidet, weil sie auf Ryzen deutlich langsamer liefen als auf Skylake. Hat direkt mal >20% im CPU-Limit gebracht, nur durch so eine kleine Optimierung.

Wie gesagt, ist nur so ein Gedanke. Auf dem Papier hat Intel nirgendwo mehr so extreme Vorteile wie 2017 seit AMD den Cache über 8 Kerne teilt, bei Takt fast aufgeschlossen hat und sich die Speicherlatenz stark angenähert hat (bei Intel etwas höher durch ADL, bei Zen etwas tiefer durch Zen 3).

iamthebear
2021-11-30, 23:51:17
Es könnte auch einfach daran liegen, dass einzelne Applikationen nun in den L3 Cache passen, was vorher nicht der Fall war. Das hat bei Zen2 auf Zen3 auch einige Spiele extrem beschleunigt.

8700K: 12MB
10900K: 20MB
12900K: 30MB

Der L2 ist auch von 256KB auf 1.25MB deutlich angewachsen.



Andere Frage in die Runde:
Hat eigentlich schon jemand getestet wie sich ADL mit Hyper-V verträgt? Werden da den virtuellen Maschinen die P Cores oder E Cores zugewiesen? Bzw. gibt es da sonst irgendwelche Probleme?

TurricanM3
2021-12-01, 00:06:49
Hab heute mal das Asus Ai Overclocking probiert.
Das scheint ganz brauchbar zu laufen.

Boostet bis 5400pC/4100eC:

https://abload.de/img/ffffffffffffffffffmfj4y.png (https://abload.de/image.php?img=ffffffffffffffffffmfj4y.png)

Rechts avg aus 4h Ano1800.

Ingame:

https://abload.de/img/anno1800_2021_11_30_2rjju2.png (https://abload.de/image.php?img=anno1800_2021_11_30_2rjju2.png)

Keine Ahnung warum das CPX overlay so krumme Werte ausspuckt. Nicht wundern, spiele mit 45fps cap. :(

Hat hier mal jemand per core OC probiert?

ZeroStrat
2021-12-01, 09:41:02
Schau mal genau auf den Screenshot von CapFrameX:

https://twitter.com/CapFrameX/status/1458486529681240074

DDR4-4000
CL 17
tRCD 18
tRP 18
tRAS 38
tRC 56

Der hat wahnsinnig geilen RAM, leider schreibt er nicht dazu welchen.


Frag mich doch. ^^ Es ist dieser Speicher hier: https://www.gskill.com/product/165/184/1594279359/F4-4266C17D-32GVKB


Keine Ahnung warum das CPX overlay so krumme Werte ausspuckt. Nicht wundern, spiele mit 45fps cap. :(

Das ist ein gute Frage. Wir müssen uns das mal anschauen. Kann sein, dass die Detektion des Bus Speeds leicht abweicht. Der Fehler ist sehr gering, aber ich werd's alsbald überarbeiten.

Lowkey
2021-12-01, 09:55:26
Mir fehlt ein einfacher, aussagekräftiger, realer Spielebenchmark zum Vergleich der Systeme.

ZeroStrat
2021-12-01, 10:05:38
8700K könnte aber auch wegen Security mitigations geplagt sein. Mir fiel das schon oft auf, dass CML trotz gleicher Cores und sogar langsameren Ringbus oft schneller pro Kern und Takt ist als CFL und zwar nicht unwesentlich.

Ich habe Tests mit dem 8700K gemacht. Mitigations on vs. off sind das gerne mal 10% Unterschied. Der 9900K hat die Probs ab einem gewissen Stepping nicht mehr.

dildo4u
2021-12-01, 10:11:01
Mir fehlt ein einfacher, aussagekräftiger, realer Spielebenchmark zum Vergleich der Systeme.
Kommt doch komplett drauf an was du zockst.
Offensichtlich liegt Intel die ganzen Aufbauspiele, da die Entwickler dort nicht drauf achten das viele langsame Kerne genutzt werden wie es bei den Konsolen Ports der Fall ist.

Age of Empires fällt komplett aus der Reihe ansonsten kannste 5800X kaufen und hast keine Nachteile.

https://youtu.be/LzhwVLUVork?t=516

Dachte die E-Cores saugen weil sie kein HT haben aber er meint es liegt an Core to Core Latenz.

pWxMyundiZY

TurricanM3
2021-12-01, 11:07:15
Das ist ein gute Frage. Wir müssen uns das mal anschauen. Kann sein, dass die Detektion des Bus Speeds leicht abweicht. Der Fehler ist sehr gering, aber ich werd's alsbald überarbeiten.

Das ist eigentlich wirklich nicht so wichtig. Im Afterburner kann man Korrekturoffsets einstellen. Evtl. so?

robbitop
2021-12-01, 12:42:30
Ich habe Tests mit dem 8700K gemacht. Mitigations on vs. off sind das gerne mal 10% Unterschied. Der 9900K hat die Probs ab einem gewissen Stepping nicht mehr.
Naja das ist mMn ggf etwas vielschichtiger. Gewisse Funktionen sind ggf. per ucode update dann einfach abgeschaltet. Da würde man dann mitigations off vs on nichts mehr sehen. Trotzdem ist die baseline dann langsamer. Andere Dinge werden vom Spieleentwickler schon entsprechend anders kompiliert. IIRC hat erst CML viele der Mitigations in echter Hardware, ohne dass was abgeschaltet werden muss. Ich bezweifle, dass man wirklich ohne ganz alte BIOS Stände und Softwarestände (sowohl Spiele als auch OS) das 100%ig sicherstellen kann.

Es gibt außerhalb der mitigations eigentlich keinen Grund warum CML schneller sein sollte als Coffeelake. Takt und Corenormiert. Und dennoch ist das so. :)

ZeroStrat
2021-12-01, 13:23:16
Es gibt außerhalb der mitigations eigentlich keinen Grund warum CML schneller sein sollte als Coffeelake. Takt und Corenormiert. Und dennoch ist das so. :)

Hast du dazu konkrete Zahlen? Mir sind da bis auf Mitigations keine Unterschiede bekannt.

aufkrawall
2021-12-01, 14:47:33
Microcode-Update via Windows hatte mir mit SKL auch mit abgeschalteten Mitigations in SotTR leicht die Performance reduziert.

mocad_tom
2021-12-01, 17:00:16
Frag mich doch. ^^ Es ist dieser Speicher hier: https://www.gskill.com/product/165/184/1594279359/F4-4266C17D-32GVKB



Alles vergriffen oder übel teuer oder beides.

(danke für die Info ^^ )

vllt. sollte man mal zusammentragen welche DDR4-Speicher mit welchen Timings laufen.

Ich habe den Eindruck DDR4 hält ordentlich mit (und ist bei scharfen Timings sogar im Vorteil) - nur Benches mit einer hohen Anforderung an die Bandbreite (7-Zip) haben einen Vorteil durch DDR5.

BlacKi
2021-12-01, 17:16:19
Es gibt außerhalb der mitigations eigentlich keinen Grund warum CML schneller sein sollte als Coffeelake. Takt und Corenormiert. Und dennoch ist das so. :)
cache, aber das sind keine 10%, fließen aber dann doch ins gesammtergebnis mit rein. oder meint ihr 8700k vs 9600k vs 10600k?

es gibt aber auch windows mitigations. da muss man dann aber ein 2018er windows nehmen, sonst sind die standard aktiv.

Alles vergriffen oder übel teuer oder beides.

(danke für die Info ^^ )

vllt. sollte man mal zusammentragen welche DDR4-Speicher mit welchen Timings laufen.

Ich habe den Eindruck DDR4 hält ordentlich mit (und ist bei scharfen Timings sogar im Vorteil) - nur Benches mit einer hohen Anforderung an die Bandbreite (7-Zip) haben einen Vorteil durch DDR5.

wären 4000er cl 16 nicht besser und günstiger? https://geizhals.de/g-skill-ripjaws-v-schwarz-dimm-kit-32gb-f4-4000c16d-32gvka-a2516569.html?hloc=at&hloc=de

Kommt doch komplett drauf an was du zockst.
Offensichtlich liegt Intel die ganzen Aufbauspiele, da die Entwickler dort nicht drauf achten das viele langsame Kerne genutzt werden wie es bei den Konsolen Ports der Fall ist.

Age of Empires fällt komplett aus der Reihe ansonsten kannste 5800X kaufen und hast keine Nachteile.

https://youtu.be/LzhwVLUVork?t=516

Dachte die E-Cores saugen weil sie kein HT haben aber er meint es liegt an Core to Core Latenz.

https://youtu.be/pWxMyundiZY
die testconfig macht aber so keinen sinn. eigentlich zeigen die werte sehr starke e core performance. ich meine die 8 thread kombination müsste eigentlich mindestens 33% schneller sein als die mit 6, ist aber nur 20% schneller. klar wollte man zuerst die cache einflüsse testen, aber dann das urteil zum schluss, das die e cores mit der hälfte an threads nur etwas mehr als die hälfte der performance der p cores haben, schlecht sei, ist lächerlich. warum hat man nicht 8 p cores gegen 8 e cores getestet? zumindest um die e cores richtig einzuordnen. weil so ist das fazit nicht aussagekräftig.

robbitop
2021-12-01, 17:48:17
Core normiert sagte ich. Entsprechend auch gleicher L3.

Lowkey
2021-12-01, 19:39:49
Kommt doch komplett drauf an was du zockst.
Offensichtlich liegt Intel die ganzen Aufbauspiele, da die Entwickler dort nicht drauf achten das viele langsame Kerne genutzt werden wie es bei den Konsolen Ports der Fall ist.

Age of Empires fällt komplett aus der Reihe ansonsten kannste 5800X kaufen und hast keine Nachteile.


Mehr oder weniger stellt sich dank TurricanM3 wieder die Frage, was Alderlake mit max OC (Luft/Wasser) und Speicher OC schafft. Quasi ein Test mit höherem PL ohne E-Kerne. Und wegen der neuen, fehlerhaften Biose mit zahlreichen unbekannten Einstellungen dauert es noch Monate zum finalen Alderlake System.

dildo4u
2021-12-01, 19:54:53
die testconfig macht aber so keinen sinn. eigentlich zeigen die werte sehr starke e core performance. ich meine die 8 thread kombination müsste eigentlich mindestens 33% schneller sein als die mit 6, ist aber nur 20% schneller. klar wollte man zuerst die cache einflüsse testen, aber dann das urteil zum schluss, das die e cores mit der hälfte an threads nur etwas mehr als die hälfte der performance der p cores haben, schlecht sei, ist lächerlich. warum hat man nicht 8 p cores gegen 8 e cores getestet? zumindest um die e cores richtig einzuordnen. weil so ist das fazit nicht aussagekräftig.
Er sagt ja extra im Video das das alles nicht wirklich relevant für die Lebenzeit dieser Modelle ist.
Und zum Glück kommt der i3 mit P Cores damit bleiben uns E-core Only Modelle bis runter zur 100€ Klasse eh erspart .

https://videocardz.com/newz/intel-core-i3-12100-quad-core-alder-lake-cpu-tested-faster-than-ryzen-3-3300x

BlacKi
2021-12-01, 20:31:25
Er sagt ja extra im Video das das alles nicht wirklich relevant für die Lebenzeit dieser Modelle ist.
Und zum Glück kommt der i3 mit P Cores damit bleiben uns E-core Only Modelle bis runter zur 100€ Klasse eh erspart .

https://videocardz.com/newz/intel-core-i3-12100-quad-core-alder-lake-cpu-tested-faster-than-ryzen-3-3300x


die haben aber nicht die kerne gebenched. die haben 4t vs 8t getestet. d.h. die sind nicht unbedingt halb so langsam. und wenn die in enge tdps gepackt werden, dann throttlen die p cores auf das niveau der e cores runter, was sie damit wieder nutzbar machen.

Savay
2021-12-01, 20:32:51
Ich weiß, ich weiß das ist nicht hundert Prozent fair, Ein Desktop Zen 3 hat mehr Takt, mehr L3 Cache und besseren RAM. Aber allzu viel mehr als vielleicht 20% wird der hier auch nicht draufgeben können.

Woher willst du das wissen?
Wenn es wirklich an der Cachhierarchie liegt sitzt da evtl. auch mehr als 20% drin.

In Valorant ist ein 5900X 90% schneller als ein 5700G...

dildo4u
2021-12-01, 20:33:28
Ist es nicht relevant für alle Modelle unter dem i9 oder verstehe ich was falsch?

BlacKi
2021-12-01, 20:59:11
also ich bekomme hier tatsächlich nochmal einen boost in den fps ohne die e cores, auch bei spielen die nur 1-2 kerne nutzen. auch das deaktivieren von HT bringt nochmals ein paar fps.

8c8t(112%) vs 8c16t(106%) vs 16c24t(100%)
https://abload.de/img/rgdfgsdygagxxkvd.png

mocad_tom
2021-12-01, 21:19:11
Wenn die höheren Core-to-Core-Latenzen bei den E-Cores nicht wären, dann könnte ich mir die Config "P-Cores aktiv/E-Cores aktiv aber bei den P-Cores HT abschalten" gut vorstellen.

BlacKi
2021-12-01, 22:48:04
ich glaub, ich hätte mir doch das billig msi board holen sollen. er konnte ja direkt 4000cl17 per preset booten, mit denselben ram wie ich, nur nochmals 20€ billiger.

werd ich morgen gleich mal ordern.

Geldmann3
2021-12-02, 03:27:35
Nach einigen Tagen der Benchmark-Pause hier die Performance-Skalierung bei unterschiedlichen Power-Limits des 12900K in Watchdogs Legion.

https://i.ibb.co/GtffL4V/Watchdogs-Legion.png (https://i.ibb.co/GtffL4V/Watchdogs-Legion.png)

Auch hier ist die Skalierung bis 65 Watt noch recht eindeutig. Bei höheren Power-Limits scheint die Performance tendenziell zwar noch minimal zu steigen, was allerdings in keinem Verhältnis mehr zur Erhöhung der Leistungsaufnahme steht. Interessanterweise lagen der 5600X und der 9900K hier mal so ziemlich gleichauf. Wobei der 9900K deutlich mehr schluckt... Wenn auch weit unter 200 Watt, was out-of-the-box das Powerlimit auf diesem Board zu sein scheint. Deutlich über 100 Watt sind es allerdings durchaus.

Dr.Doom
2021-12-02, 09:06:07
Nun ja. Wenn das wirklich stock, nur mit XMP passiert, ist das etwas beunruhigend. Allerdings könnte es auch vlt. ein Software Fehler/Chipsatz Fehler sein. Alderlake ist halt noch ganz frisch, da sind gewisse Bugs erstmal nicht auszuschließen.

Hast du den Windows neu aufgesetzt?Jein. Mit dem alten Rechner ein Z370/8700k-Image gezogen, umgebaut, gebootet, neue Treiber.
WHEA, nur ein einziger beim Hochfahren -- niemals nie einer beim Stressen
Z690/12700k-Image gezogen
Windows zurückgesetzt/aufgefrischt mit "nichts behalten"
wieder Treiber und Updates
WHEA, nur ein einziger beim Hochfahren
Partition mal geplättet und Win10 "richtig" neu installiert
Treiber, Updates
WHEA, nur ein einziger beim Hochfahren

Z690/12700k-Image wieder zurückgespielt, da kein Besserung


Ich tippe, dass Dein RAM nicht stabil ist. Stell mal 2133 ein testweise.
Hab' mal testweise den RAM komplett, also alles, auf Auto gelassen.
Das Asus-Board macht dann zwar tatsächlich 3200 Mhz Takt, aber nur 19er-Primärtimings, die nirgendwo im RAM-SPD stehen, aber legt auch 1.5V an.
Damit kommt genauso die WHEA-Meldung wie beim Setzen von 2133Mhz RAM-Takt.

Hab' mal Google bemüht zu dem WHEA-Error mit ID 1, aber nichts für meinen Fall rausbekommen.
Beim WHEA-Fehler in der Ereignisanzeige gibt es ein "raw data"-Feld, dieses kann man mal probieren, von Hex nach ASCII zu wandeln. Im Internetz stand bei den gefundenen Beispielen irgendwo im Zeichen-Wust was von einer Western Digital-Platte oder einer Samsung-SDD (und diverse andere Geräte). Bei meinem "raw data"-Feld sind aber keine Klartext-Fetzen zu finden.

Generell finde ich das ASUS-Üfie etwas... unübersichtlich mit seinen zig Unter-unter-unter-Kategorien. Hatte versucht, so Dinge wie VCCSA und VCCIO zu finden, aber war bisher nicht erfolgreich -- kann aber auch daran liegen, dass es die nicht mehr gibt (vorher Z370-Board, nun Z690 -- ist ja nicht so, dass da nicht etwas Zeit zwischen liegt...).

Auch verarscht mich das Board hinsichtlich dieses (&&§()%$ RGB-Geschisses. Habe zwar "Aura off" gewählt, aber... während des Betriebs sind die Lampen aus, fahre ich den Rechner runter -- runterfahren dauert ~30s -- dann wäre ich beim ersten Nachsehen, wieso der Rechner zwar aus ist, aber die Lüfter noch laufen, die Power-LED noch leuchtet und die HDD-LED noch gelegentlich kurz aufblinkt, fast erblindet, weil plötzlich die grelle LED-Kirmes ansprang und den Raum in bunte Farben tränkte während immerhin die Lüfter und die Power/HDD-LED ausgingen.
Aber die RGB-Kacke blieb pulsierend dabei, Ärger zu verbreiten...!?!?!?
Hab' dann den Stecker gezogen und mich schmollend vor den Fernseher gesetzt.

Aber wenn ich den Rechner komplett vom Strom nehme, und dann wieder starte, dann startet der Rechner nach dem Betätigen der Power-Taste wieder zweimal: Taste drücken, PC geht an, nach zwei Sekunden geht er wieder aus, paar Sekunden später wieder an und startet dann durch.
Boah, ey, früher war zwar alles langsamer, aber nicht zwingend schlechter...

Slipknot79
2021-12-02, 09:44:48
Jein. Mit dem alten Rechner ein Z370/8700k-Image gezogen, umgebaut, gebootet, neue Treiber.
WHEA, nur ein einziger beim Hochfahren -- niemals nie einer beim Stressen
Z690/12700k-Image gezogen
Windows zurückgesetzt/aufgefrischt mit "nichts behalten"
wieder Treiber und Updates
WHEA, nur ein einziger beim Hochfahren
Partition mal geplättet und Win10 "richtig" neu installiert
Treiber, Updates
WHEA, nur ein einziger beim Hochfahren

Z690/12700k-Image wieder zurückgespielt, da kein Besserung



Hab' mal testweise den RAM komplett, also alles, auf Auto gelassen.
Das Asus-Board macht dann zwar tatsächlich 3200 Mhz Takt, aber nur 19er-Primärtimings, die nirgendwo im RAM-SPD stehen, aber legt auch 1.5V an.
Damit kommt genauso die WHEA-Meldung wie beim Setzen von 2133Mhz RAM-Takt.

Hab' mal Google bemüht zu dem WHEA-Error mit ID 1, aber nichts für meinen Fall rausbekommen.
Beim WHEA-Fehler in der Ereignisanzeige gibt es ein "raw data"-Feld, dieses kann man mal probieren, von Hex nach ASCII zu wandeln. Im Internetz stand bei den gefundenen Beispielen irgendwo im Zeichen-Wust was von einer Western Digital-Platte oder einer Samsung-SDD (und diverse andere Geräte). Bei meinem "raw data"-Feld sind aber keine Klartext-Fetzen zu finden.

Generell finde ich das ASUS-Üfie etwas... unübersichtlich mit seinen zig Unter-unter-unter-Kategorien. Hatte versucht, so Dinge wie VCCSA und VCCIO zu finden, aber war bisher nicht erfolgreich -- kann aber auch daran liegen, dass es die nicht mehr gibt (vorher Z370-Board, nun Z690 -- ist ja nicht so, dass da nicht etwas Zeit zwischen liegt...).

Auch verarscht mich das Board hinsichtlich dieses (&&§()%$ RGB-Geschisses. Habe zwar "Aura off" gewählt, aber... während des Betriebs sind die Lampen aus, fahre ich den Rechner runter -- runterfahren dauert ~30s -- dann wäre ich beim ersten Nachsehen, wieso der Rechner zwar aus ist, aber die Lüfter noch laufen, die Power-LED noch leuchtet und die HDD-LED noch gelegentlich kurz aufblinkt, fast erblindet, weil plötzlich die grelle LED-Kirmes ansprang und den Raum in bunte Farben tränkte während immerhin die Lüfter und die Power/HDD-LED ausgingen.
Aber die RGB-Kacke blieb pulsierend dabei, Ärger zu verbreiten...!?!?!?
Hab' dann den Stecker gezogen und mich schmollend vor den Fernseher gesetzt.

Aber wenn ich den Rechner komplett vom Strom nehme, und dann wieder starte, dann startet der Rechner nach dem Betätigen der Power-Taste wieder zweimal: Taste drücken, PC geht an, nach zwei Sekunden geht er wieder aus, paar Sekunden später wieder an und startet dann durch.
Boah, ey, früher war zwar alles langsamer, aber nicht zwingend schlechter...



BIOS defaults? Mach mal die Energiesparoptionen C-States (oder wie das bei ADL auch immer heißen mag) im BIOS auf default.

mocad_tom
2021-12-02, 09:56:48
@DrDoom

Was für eine BIOS-Version, welches Board?

Da muss Betriebssystem und BIOS/Board irgendwas beim Energiemanagement aushandeln und da kneift es kurz und dann wird was anderes ausgehandelt - das ist nicht dein Speicher.

BIOS updaten und ME updaten

Dr.Doom
2021-12-02, 10:02:02
Asus TUF Gaming Z690-Plus (ohne Wifi), mit dem aktuellen 0707-Bios/Üfi
natürlich im Anschluss an das Update die defaults geladen.

mocad_tom
2021-12-02, 12:53:33
Hast du OS auf Sata oder auf nvme?

Ist maus tastatur USB oder PS2 oder funk?

Wenn du whynotwin11 runterlädst und startest hast du MBR oder GPT?

Boot method legacy oder UEFI?

Dr.Doom
2021-12-02, 12:55:21
nvme, usb, gpt, üfi

ZeroStrat
2021-12-02, 14:45:00
Nach einigen Tagen der Benchmark-Pause hier die Performance-Skalierung bei unterschiedlichen Power-Limits des 12900K in Watchdogs Legion.

Wie bekommst du denn den 12900K auf 250W in Watchdogs? ^^ Oder sind das jeweils nur eingestellte Limits im BIOS?

Wenn die höheren Core-to-Core-Latenzen bei den E-Cores nicht wären, dann könnte ich mir die Config "P-Cores aktiv/E-Cores aktiv aber bei den P-Cores HT abschalten" gut vorstellen.

Ich hatte mir mal die Performance angeschaut, wenn ein Ryzen wenige Cores nutzen kann und die Hälfte davon zudem über den IF kommunizieren muss. Es ist vielleicht nicht die perfekte Methodik, aber es hat gezeigt, dass die Performance kaum leidet, wenn man eine hohe Wahrscheinlichkeit für Inter-CCD-Kommunikation forciert. Hier einfach nur den IF-Takt zu senken, würde leider auch dazu führen, dass die Speicheranbindung (Bandbreite und Latenzen) stark beeinflusst werden würde.

https://cms.capframex.com/api/assets/capframex-com/0bea41eb-ad72-484b-a65d-f87495427112/cx-2021-01-11-12-30-45-comparison.png

Was das größere Problem bei den E-Cores sein dürfte, sind die höheren Speicherlatenzen. Zur Info, ich habe den Latenztest per Process Lasso zur Ausführung auf den E-Cores erzwungen. Mit der Taskmanager Affinität ist man hier zum Scheitern verurteilt.

https://cms.capframex.com/api/assets/capframex-com/114a13cb-bd4a-4b6e-97fd-0095cbb0e6c3/grafik.png

TurricanM3
2021-12-02, 15:16:11
Beim Apex kann man mit dem neuen beta Bios die eCores über die Bildlauf Taste in Win deaktivieren. :smile:

Geldmann3
2021-12-02, 16:10:04
Wie bekommst du denn den 12900K auf 250W in Watchdogs? ^^ Oder sind das jeweils nur eingestellte Limits im BIOS?


Das ist nur das eingestellte, maximale Power-Limit, was sich die CPU genehmigen darf, wenn sie möchte. Den Rest habe ich der Automatik überlassen. In anspruchsvollen Productivity-Workloads (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12852240#post12852240) entspricht das dann auch etwa der Leistungsaufnahme.

Der_Korken
2021-12-02, 17:00:30
Ich hatte mir mal die Performance angeschaut, wenn ein Ryzen wenige Cores nutzen kann und die Hälfte davon zudem über den IF kommunizieren muss. Es ist vielleicht nicht die perfekte Methodik, aber es hat gezeigt, dass die Performance kaum leidet, wenn man eine hohe Wahrscheinlichkeit für Inter-CCD-Kommunikation forciert. Hier einfach nur den IF-Takt zu senken, würde leider auch dazu führen, dass die Speicheranbindung (Bandbreite und Latenzen) stark beeinflusst werden würde.


Solche Vergleiche sind immer interessant. Ein weiteres Indiz dafür, dass Zen 3 nicht deswegen zugelegt hat, weil die Kerne jetzt im selben CCX sitzen, sondern weil der Main-Thread den L3 von ehemals zwei CCXs jetzt für sich allein nutzen kann. Man sieht ja auch wie stark Cezanne mit halbiertem L3 gegenüber Vermeer in Spielen abfällt.


Was das größere Problem bei den E-Cores sein dürfte, sind die höheren Speicherlatenzen.

Nicht nur die Speicherlatenzen sind höher sondern auch die Cache-Latenzen sind durchgängig höher als bei den P-Cores - und zwar stellenweise um 50-100%. Das sieht auf dem linear skalierten Diagramm vielleicht harmloser aus als es ist.

BlacKi
2021-12-02, 17:48:51
Beim Apex kann man mit dem neuen beta Bios die eCores über die Bildlauf Taste in Win deaktivieren. :smile:
das hat auch mein board. allerdings kann ich mein board trotzallem nicht wirklich weiterempfehlen.

mocad_tom
2021-12-02, 19:02:18
Kingston FURY Renegade DDR4-4000 CL19-23-23
DDR4-3400
CL 17
tRCD 18
tRP 18
tRAS 36
tRC 54

G.Skill Trident Z Neo DDR4-4000 CL16-16-16-36
DDR4-3800
CL 17
tRCD 18
tRP 18
tRAS 36
tRC 54

Von BlacKi:
Patriot Viper Steel DDR4-4400 CL19-19-19-39
DDR4-3800
CL 15
tRCD 15
tRP 15
tRAS 28
tRC 43

von ZeroStrat
G.skill Ripjaws V DDR4-4266MHz CL17-18-18-38
DDR4-4000
CL 17
tRCD 18
tRP 18
tRAS 38
tRC 56


I'm beginning to see a pattern.
Was haltet ihr davon?

BlacKi
2021-12-02, 19:07:01
genauer sind es die hier
https://geizhals.de/patriot-viper-steel-dimm-kit-16gb-pvs416g440c9k-a1978524.html?hloc=at&hloc=de
auf dem hier

https://geizhals.de/gigabyte-z690-gaming-x-ddr4-a2625098.html

der speicher, den robot mit dem msi pro board auf 4000 betreibt, welches ich mir heute geordert habe, und dürfte morgen eintreffen.

mocad_tom
2021-12-02, 20:36:29
https://www.reddit.com/r/intel/comments/qpzxx2/alder_lake_ddr4_and_z690_at_gear_1/


Gibt es denn noch eine andere Möglichkeit zu sehen, ob man im Gear 1 ist, ausser in den Bios Einstellungen?

Aida?
CPU-z?

Ich find nix.

BlacKi
2021-12-02, 20:45:44
cpu z zeigt controller takt und memory takt an. wenn beides gleichschnell ist, dann ist es gear 1. falls halber takt vom memory beim controller anliegt, dann gear 2.

-=Popeye=-
2021-12-02, 20:50:41
https://www.reddit.com/r/intel/comments/qpzxx2/alder_lake_ddr4_and_z690_at_gear_1/


Gibt es denn noch eine andere Möglichkeit zu sehen, ob man im Gear 1 ist, ausser in den Bios Einstellungen?

Aida?
CPU-z?

Ich find nix.

ASRock Timing Configurator 4.0.13
https://filehorst.de/download.php?file=eJtvuwir

mocad_tom
2021-12-02, 21:55:20
Okay.

Ich kann Gear1 schalten und über CPU-z prüfen und Gear2 schalten und über CPU-z prüfen.

Ich habe einen 12700k und der kann mit dem IMC das gleiche wie ein 12900k - ich lehne mich da jetzt mal aus dem Fenster.

Wenn das noch feinerer RAM wäre würde da auch noch mehr gehen.

Es gibt auch keine IMC, die besser abgehen und IMC, die schlechter abgehen.


Man kauft RAM nach dem Prinzip "overshooting".

Ein DDR4-4400 CL17-18-18-38 bei 1.5V

Macht mit einem 12700K dann DDR4-4000 CL17-18-18-36 bei 1.25V.
Der 10nm Prozess will im GEAR1 nicht mehr Volt draufgeben.

Man kauft einen noch schnelleren RAM um den dann zu undervolten.

Was ich aber nicht verstehe Igor schreibt beim Rocket Lake Gear 1/Gear 2 Test, dass bei Gear 1 nur Command Rate 2t läuft und erst ab Gear2 Command Rate 1t.
https://www.igorslab.de/intel-rocket-lake-ram-oc-guide-benchmarks-und-tipps/5/

BlacKi du hast Gear 1 und 1t?

BlacKi
2021-12-02, 22:00:14
ich glaub in den meisten fällen sind die bios versionen nicht ausgereift und vermutlich danach die memory controller am limit, zumindest bei 4000. der speicher selbst könnte zwar inkompatibilitäten mit den MB bekommen, aber auch da sehe ich eher die bios versionen in der schuld, wenn man keine 3800-4000mhz erreichen kann. und da kommen eben die hersteller der MB ins spiel. manche packen das an, und manche eher weniger. deswegen werd ich das gigabyte wieder los.

https://abload.de/img/cpuz12xokpl.png

aufkrawall
2021-12-02, 22:12:19
Was ich aber nicht verstehe Igor schreibt beim Rocket Lake Gear 1/Gear 2 Test, dass bei Gear 1 nur Command Rate 2t läuft und erst ab Gear2 Command Rate 1t.

Gibt afaik keinen einzigen Test der letzten Jahre, der CR1 Wichtigkeit bescheinigen würde.

Geldmann3
2021-12-03, 03:29:36
In den folgenden Benchmarks können wir uns anschauen, wie das Verhältnis zwischen Performance und Effizienz-Kernen aussieht, wenn ihnen dasselbe Power-Budget zur Verfügung steht.
Die Ergebnisse sind ziemlich interessant, finde ich.

Ich habe jeweils alle unnötigen Kerne, soweit wie möglich, im BIOS deaktiviert. Im Falle der Tests der Effizienz-Kerne habe ich den letzten verbleibenden P-Core unter Windows mit dem Process-Lasso für CPU-Z unzugänglich gemacht.

Warum CPU-Z?
Ganz einfach. Process-Lasso braucht zu Beginn eines Benchmark-Runs immer einen kurzen Moment, bis es diesem den letzten P-Core wieder entzieht, das heißt, dieser fließt für den ersten Moment in die Performance-Messung mit ein. Was die Messungen verfälscht. Nun hat CPU-Z den Vorteil, dass ich den Stress-Test beliebig lange laufen lassen kann, bis der Wert sich völlig stabilisiert hat. Das geht mit den unterschiedlichen Varianten von Cinebench z.b. entweder gar nicht oder dauert Ewigkeiten.
Da ich über 3 Stunden für alle Messungen gebraucht habe, plane ich kurzfristig eher nicht, diesen Test mit etwas anderem als CPU-Z zu wiederholen.

Die Kernkonfigurationen:
Ich habe mich entschieden 8P Cores + HT, 8E Cores sowie 2P Cores + HT gegeneinander antreten zu lassen.
So ist es uns möglich, die Performance pro Kern pro Watt miteinander zu vergleichen.

Warum 2P Cores + HT?
Weil diese denselben Die-Space einnehmen, wie 8E Cores. Somit können wir einen Performance sowie Effizienzvergleich pro verbrauchten Die-Space auf der CPU anstellen.

Beginnen wir mit einem Blick auf die Taktraten:

https://i.ibb.co/J5kFqrH/Clock-Speed-at-various-Power-Limits.png (https://i.ibb.co/J5kFqrH/Clock-Speed-at-various-Power-Limits.png)

Nicht ganz unerwartet können die 2 P-Cores alleine am höchsten von allen Konfigurationen takten. Dennoch sind die 3,5GHz der 8 P-Cores in diesem Falle beachtlich. Die Taktrate muss bei derselben Leistungsaufnahme immerhin lediglich um 29% gesenkt werden, um die vierfache Anzahl von Kernen mit Strom zu versorgen. Die 8 Effizienzkerne reihen sich beim Takt konstant zwischen den beiden großen Kernkonfigurationen ein und toppen bei einer Leistungsaufnahme von 65 Watt architekturbedingt bei rund 4GHz aus.

Doch wie effizient sind die Effizienzkerne überhaupt?
Das Ergebnis hat mich ziemlich überrascht.

Betrachten wir als Nächstes die dazu passende Performance-Entwicklung der unterschiedlichen Kernkonfigurationen.

https://i.ibb.co/Jm6JcSW/Performance-at-various-Power-Limits.png (https://i.ibb.co/Jm6JcSW/Performance-at-various-Power-Limits.png)

Kern für Kern, sind die guten, alten P-Cores bei gleicher Leistungsaufnahme mit Hyperthreading mit Abstand am effizientesten. :eek:

Sie sind selbst in diesem Low-Power-Bereich, Wattnormiert, ganze 70% schneller als die E-Cores! Bei 25 Watt sind die E-Cores schon so ziemlich an ihrem Effizienz-Sweetspot, während die P-Cores hier erst richtig loslegen. Ich hätte ja erwartet, dass die E-Cores wenigstens bei gleicher Leistungsaufnahme, in der Nähe ihres Sweet-Spots, schneller als die Performance-Kerne sind.

Damit hätte ich nicht gerechnet, die E-Cores scheinen ja gar nicht so effizient zu sein.

Jedenfalls auf den ersten Blick.

Vergleichen wir als Nächstes die 8 E-Cores mit 2 P-Cores, welche denselben Platz auf dem CPU-Die einnehmen. Hier leisten die E-Cores ganze 53% mehr auf derselben Fläche.

Die 2P Cores sind bei derselben Leistungsaufnahme 72% langsamer als die 8 P-Cores.
Die Doppelkernkonfiguration schafft es mit 65 Watt immerhin auf 5,1 Ghz zu boosten, was sie zwar ein Maximum an Leistung erbringen, im Gegensatz zu den 8 Kernern, jedoch sehr ineffizient arbeiten lässt. Die vierfache Menge an Kernen kann mit ein wenig mehr Takt einfach nicht ausgeglichen werden.

Intel spart mit den E-Cores also vor allem eins, Die-Space!
Und auf demselben Die-Space auch jede Menge Performance pro Watt.
Das wird natürlich vor allem für Mobilgeräte wie Notebooks und Tablets ein absolutes Killerfeature. Auch Serverprozessoren mit sehr vielen kleinen Kernen wären theoretisch denkbar. Bei Many-Core CPUs sind die einzelnen Kerne in der Regel sowieso power-limitiert. Für Server, auf denen man auf keinem Kern eine maximale Single-Core-Performance benötigt, könnte man somit rund 50% mehr Performance bereitstellen oder anders betrachtet, gar die 4 fache Anzahl von Kernen vermieten. Wobei es für mich gerade eher nicht so aussieht, als hätte Intel Pläne in diese Richtung. Eher wird man die Vorteile heterogener CPU-Architekturen kurzfristig im Mobile-Space ausfahren.

Freestaler
2021-12-03, 07:07:38
Danke für den Test. Einmal mehr -> ECores sind gewinnenoptimierung für Intel. Nichts für den Kunden.

dildo4u
2021-12-03, 07:29:15
Danke für den Test. Einmal mehr -> ECores sind gewinnenoptimierung für Intel. Nichts für den Kunden.

Kommt doch drauf an was du mit dem System machst der 11900k war komplett überteuert als Videoschnitt CPU jetzt steht Intel Meilen über AMD.
Skaliert gut von 4 auf 8 Ecores.
Und der I5 auf Level mit dem 700€ Spitzenmodell von AMD, ein reiner 6 Core sollte deutlich weiter unten sein.

https://abload.de/img/adobexvjsj.png

https://www.pugetsystems.com/labs/articles/Adobe-Premiere-Pro-12th-Gen-Intel-Core-vs-AMD-Ryzen-5000-Series-2242/#BenchmarkResults

Freestaler
2021-12-03, 07:47:42
@dildo4u, Falsche Aussage, mit 16P Cores bei gleichen Powerbudget wäre er deutlich schneller. 8P&8E ist zwar schnell, aber die ECore sind nicht effizienz im Bezug Watt pro Leistung wie gern sugestiert wird für ein BigLittle aufbau. Bei gleichen Powerbudget wäre 16p immer schneller als 8p+8e. Also reine Gewinnoptimierung für Intel. Es gibt auch keine andere offensichtliche Gründe warum 16p (oder 8p+8p) nicht gehen sollte. Kühlbarkeit bei gleichen Powerbudget geht, DIE grösse würde auch nicht gesprengt usw.

dildo4u
2021-12-03, 08:01:07
Die Server CPUs die 16 P Kerne nutzen sind locker bei 400Watt wird man imo sehen sobald Sapphire Rapids auf den Markt kommt.
Mir sind die Intel Boards schon teuer genug, ich hoffe das wir uns im Desktop nicht noch weiter nach oben bewegen was TDPs angeht.

Freestaler
2021-12-03, 08:23:32
Und? Wenn Intel Powerbudget bis 400W geht dann ist ihre Entscheidung. Was hat das mit den Ecores zu tun? 8p+8e mit 400w wäre immernoch längsämer. Ändert nichts an der unsinnigkeit von Biglittle im Desktop so wie es Intel umsetzt.

Geldmann3
2021-12-03, 08:41:34
Ich sehe vor allem einen Nachteil in 16P-Cores. Der Chip wäre 60% größer und daher wahrscheinlich mehr als doppelt so teuer in der Produktion. 8 P-Cores bei 3,5GHz fressen genauso viel Strom wie die E-Cores bei 4Ghz, sind dabei aber 70% schneller. Ist also fast eine reine Sache der Chipausbeute. Doch das ist nunmal das Bottleneck im Moment.

Kann mir vorstellen, dass wir nächstes Jahr einen Chip mit ,,18P Cores" in einem Xeon sehen.
Den Intel sich dann aber auch mit weeeiit über 1000€ bezahlen lässt.

Das Coolste von Intel wäre es für mich, wenn sie einen 10 P-Kerner speziell für Gamer rausbringen.
Doch das werden sie nicht tun.

dildo4u
2021-12-03, 09:14:24
Bringt dem Kunden nix ist natürlich kompletter Blödsinn der i7 ist deutlich billiger als der 5900X und hat imo keine deutlich ersichtlichen Nachteile, da er nicht am absoluten Limit läuft und komfortabel Kühlbar ist.
Intel hat wieder den Fehler gemacht den i9 zu Highlighten, der Verbauch fällt dort zu negativ auf.

ZeroStrat
2021-12-03, 09:20:57
Solche Vergleiche sind immer interessant. Ein weiteres Indiz dafür, dass Zen 3 nicht deswegen zugelegt hat, weil die Kerne jetzt im selben CCX sitzen, sondern weil der Main-Thread den L3 von ehemals zwei CCXs jetzt für sich allein nutzen kann. Man sieht ja auch wie stark Cezanne mit halbiertem L3 gegenüber Vermeer in Spielen abfällt.

Denke ich auch. Dass nun ein Thread vollständig auf den gesamten Cache in einem CCD Zugreifen kann, ohne teure Remote-Zugriffe über den IF ist ein großer Performancevorteil, insbesondere auch für Spiele.


Nicht nur die Speicherlatenzen sind höher sondern auch die Cache-Latenzen sind durchgängig höher als bei den P-Cores - und zwar stellenweise um 50-100%. Das sieht auf dem linear skalierten Diagramm vielleicht harmloser aus als es ist.
Jup, bereits ab dem L1 schießt die Latenz nach oben und man sieht's tatsächlich nicht richtig in der Grafik, aber relativ betrachtet, ist das ne Hausnummer.

Wuge
2021-12-03, 09:55:28
Ich habe einen 12700k und der kann mit dem IMC das gleiche wie ein 12900k - ich lehne mich da jetzt mal aus dem Fenster.

Wenn das noch feinerer RAM wäre würde da auch noch mehr gehen.

Es gibt auch keine IMC, die besser abgehen und IMC, die schlechter abgehen.


Das kann ich widerlegen. Hab 2x 12700k und 2x12900k hier und die 12900k können 3733 noch booten, wo die 12700k bei 3600 schon geloopt haben. Wo mit 12700k maximal 3400 Mhz ohne Fehler gingen, ist mit 12900k 3466 bis 3600 möglich.

Das Binning ist definitiv ein Faktor. Was natürlich nicht heißt, dass es auch sehr gute 12700k geben kann.

PS: ich rede von 4x Dual Rank B-Die. Latenzen bekomm ich runter aber Takt nicht hoch.

robbitop
2021-12-03, 10:07:45
Was wird zur Evaluation der Effizienz genutzt? PES? Weil dort die Verrechnungen von verschiedenen Gewichtungen IMO schnell zu einem bias führen können.

CB hat es mit verschiedenen Benchmarks getestet und Leistungsaufnahme gemessen und kam iirc darauf, dass die ec ores effizienter sind. Widersprüchliche Ergebnisse machen mich skeptisch.

Geldmann3
2021-12-03, 10:19:45
Kern für Kern, Watt für Watt scheinen die E-Cores sogar wesentlich ineffizienter. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12863561&postcount=719)
Es sei denn, man vergleicht Effizienz pro Die-Fläche, dann gewinnen die E-Cores deutlich.

Naja gut, wenn man die P-Cores auf 5,1GHz raufprügelt, wie der 12900K ausgeliefert wird, geht die Effizienz der großen Kerne natürlich in den Keller.
Aber nicht, wenn man ihnen dasselbe Power-Limit pro Kern gibt wie den E-Cores.
Die P-Cores KÖNNEN deutlich besser mit derselben Power umgehen.
Man kriegt jeden Kern ineffizient, wenn man ihn hochprügelt, da die Leistungsaufnahme fast exponentiell mit dem Takt steigt, nicht aber die Performance (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12852240#post12852240).

BlacKi
2021-12-03, 10:50:34
Kern für Kern, Watt für Watt scheinen die E-Cores sogar wesentlich ineffizienter. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12863561&postcount=719)
Es sei denn, man vergleicht Effizienz pro Die-Fläche, dann gewinnen die E-Cores deutlich.

Naja gut, wenn man die P-Cores auf 5,1GHz raufprügelt, wie der 12900K ausgeliefert wird, geht die Effizienz der großen Kerne natürlich in den Keller.
Aber nicht, wenn man ihnen dasselbe Power-Limit pro Kern gibt wie den E-Cores.
Die P-Cores KÖNNEN deutlich besser mit derselben Power umgehen.
Man kriegt jeden Kern ineffizient, wenn man ihn hochprügelt, da die Leistungsaufnahme fast exponentiell mit dem Takt steigt, nicht aber die Performance (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12852240#post12852240).
es sollen doch noch e cores only cpus kommen, dann können wir das urtail erst finalisieren. ich glaube, das hier irgendwas reinspielt, was die effizienz der e cores killt. rein die ecores kann man nämlich nicht booten und das wird seinen grund haben. dennoch bleibt es ersteinmal so stehen das für games 8+8 unterm strich keine vorteile hat, mal abgesehen von mehr L3 cache, die die kleinen mitbringen.

Geldmann3
2021-12-03, 10:57:59
Da hast Du natürlich Recht, die bisherigen Messungen zu diesem Thema sollte man alle mit einem ,,Grain of Salt" betrachten. Ich bin daher gespannt. Wobei meine bisherigen Messungen schon darauf hingewiesen haben, wenn man es mit der Gesamt-CPU verrechnet, dass die Ergebnisse sehr nah an der Wahrheit liegen.

Bist Du Dir sicher mit den Only-E-Core CPUs?
Dachte den E-Cores fehlen lebenswichtige Schnittstellen, sodass sie ganz alleine so nicht funktionieren können.

mocad_tom
2021-12-03, 11:20:27
Das kann ich widerlegen. Hab 2x 12700k und 2x12900k hier und die 12900k können 3733 noch booten, wo die 12700k bei 3600 schon geloopt haben. Wo mit 12700k maximal 3400 Mhz ohne Fehler gingen, ist mit 12900k 3466 bis 3600 möglich.

Das Binning ist definitiv ein Faktor. Was natürlich nicht heißt, dass es auch sehr gute 12700k geben kann.

PS: ich rede von 4x Dual Rank B-Die. Latenzen bekomm ich runter aber Takt nicht hoch.
Auch mal mit nur einem RAM-Riegel je Speicherkanal getestet?
Du hattest da jetzt 4 RAM-Riegel drin(habe ich das richtig gelesen)?

Ich bekomme jetzt dann nochmal zwei 12700K und zwei Asus ROG STRIX Z690 rein und kann direkt mal durchtauschen.
Kingston Fury und G.Skill Trident aber ich teste dann immer nur mit 2 Riegel a 32GB.

Geldmann3
2021-12-03, 12:04:52
Bin zwar selbst noch nicht auf Windows 11 umgestiegen, hatte dies jedoch eigentlich dieses WE vor. Doch nach allem, was ich bei einem Freund im Zuge des Umstieges bei Alder-Lake nun beobachtet habe, lasse ich das Upgrade wohl doch erstmal.

Windows 10 scheint manchmal das Problem zu haben, dass unter geringer Last Dinge auf den E-Cores landen, die eigentlich besser auf den P-Cores aufgehoben wären. Weshalb das eine oder andere Userinterface auf mich unter Windows 11 ein klein wenig mehr ,,Snappy" wirkt. Wenn ich mir das nicht nur einbilde... Ja ich weiß, Windows 11 hat auch viele Animationen gestrichen.

Doch Windows 11 hat für meine Anwendungszwecke ein noch größeres Problem.
Dort bleiben unter Last oft nämlich die E-Cores ungenutzt, so als ob Windows die für Background-Tasks reserviert. Obwohl dies die Gesamtperformance teils erheblich verringert. Weshalb meine anspruchsvolleren Anwendungen unter Windows 10 meist besser zu performen scheinen.

Echt schade und ich hoffe MS plant noch das zu fixen.
Windows 11 soll die E-Cores gefälligst alle anschmeißen, wenn sie gebraucht werden.

Das gewünschte Verhalten wäre hier für mich, dass im ,,fast-Idle" möglichst alles auf den P-Cores liegt, wenn man Höchstleistung als Energiesparplan ausgewählt hat.
Unter Last auf nahezu allen Kernen, sollen dann natürlich die E-Cores schwer verwendet werden und nicht Däumchen drehen.

Jedenfalls bleibe ich mit meinem 12900K erstmal auf Windows 10.
Würde ja gerne upgraden, doch da wo ich sie wirklich brauche, ist die Performance unter Windows 10 einfach leicht besser.
Dabei sollte Windows 11 in der Hinsicht doch alles besser machen.

TurricanM3
2021-12-03, 15:02:17
Ich hab mir noch eine CPU bestellt für's WE.
Was steht'n da auf der Packung:

https://abload.de/img/20211203_144542jvkmz.jpg (https://abload.de/image.php?img=20211203_144542jvkmz.jpg)

:freak:
Kam von MF.

Ex3cut3r
2021-12-03, 20:58:16
???

Non-Disclosure agreement? WTF?

Das einzige was ich dazu finden könnte, war ein HWLUXX User der mal so einen 6700k bekommen hat, auch von MF.

https://www.hardwareluxx.de/community/threads/oc-prozessoren-intel-sockel-1151-skylake-laberthread.1083336/page-8#post-23763497

https://www.hardwareluxx.de/community/threads/oc-prozessoren-intel-sockel-1151-skylake-laberthread.1083336/page-8#post-23763837

BlacKi
2021-12-03, 21:03:19
reviewer testsamples?

Chrisch
2021-12-03, 21:12:28
Das ist nen Sticker / Aufkleber von MF selbst, hat also nichts mit Samples etc zu tun. Vermutlich um zu vermeiden das die Teile zu früh das Lager verlassen wegen NDA und so.

iamthebear
2021-12-03, 23:01:12
@Geldmann3: Vielen Dank für den Test. Dieser zeigt das Prinzip wirklich sehr gut:
.) Unter Single Threaded Last (bzw. bis zu 8 Kerne) sind P Cores sowohl schneller als auch bei gleicher Verlustleistung effizienter es sei denn man befindet sich auf extrem niedrigen Taktraten.
.) Unter Multithreaded Last ist es umgekehrt, da auf derselben Fläche nun mehr Kerne sitzen.

Das Ganze zeigt auch gut, dass der MS Ansatz von "wir schieben alle Hintergrundtasks auf die E Cores" kompletter Schwachsinn ist. Da wäre es sinnvoller gewesen einfach 2 P Cores niedriger zu takten solange die MT Last gering ist. Das hätte denselben Effekt und man könnte auch noch fein einstellen wie hoch die 2 langsameren P Cores takten sollen.

Danke für den Test. Einmal mehr -> ECores sind gewinnenoptimierung für Intel. Nichts für den Kunden.

Den Gewinn bzw. die pro Chip verfügbare Fläche ist bei Intel fix vorgegeben. Man hat nur die Wahl ob man dem Käufer eine 10+0, 8+8 oder 6+16 Konfiguration bieten will und hier ist 8+8 meiner Meinung nach der Beste Kompromiss. Eine 16+0 CPU liegt außerhalb des Transistorbudgets.

Kommt doch drauf an was du mit dem System machst der 11900k war komplett überteuert als Videoschnitt CPU jetzt steht Intel Meilen über AMD.
Skaliert gut von 4 auf 8 Ecores.
Und der I5 auf Level mit dem 700€ Spitzenmodell von AMD, ein reiner 6 Core sollte deutlich weiter unten sein.

Dass das Adobezeugs am 12900K so gut läuft hat relativ wenig mit den E Cores zu tun sondern damit, dass hier die P Cores deutlich schneller sind als die Zen 3 Cores von AMD. Das lässt sich aber nur sehr bedingt auf andere Anwendungen übertragen.

Die Server CPUs die 16 P Kerne nutzen sind locker bei 400Watt wird man imo sehen sobald Sapphire Rapids auf den Markt kommt.
Mir sind die Intel Boards schon teuer genug, ich hoffe das wir uns im Desktop nicht noch weiter nach oben bewegen was TDPs angeht.

Es kann doch jeder beim Powerlimit einstellen was er will. Ich verstehe nicht warum sich hier alle so auf den 240W (bzw. vielleicht 400W bei 16 Kernen) aufhängen. Das ist doch nur der Maximalwert.

Das Coolste von Intel wäre es für mich, wenn sie einen 10 P-Kerner speziell für Gamer rausbringen.

Also ich halte das nicht für besonders sinnvoll.
Bei 95% der am Markt befindlichen Spiele skalieren nur bis maximal 6-8 Kerne. Da ist es vollkommen egal ob man nur 8 oder 10 Kerne hat (solange die Menge an L3 gleich bleibt).
Jetzt kann man natürlich unterstellen, dass zukünftige Spiele mehr als 8 Kerne nutzen werden. Allerdings optimieren Spieleentwickler ja auf ADL und wenn die 8 wichtigeren Threads auf den P Cores landen wird es relativ egal sein ob 2 Threads mit Hintergrundaufgaben nun auf den E Cores landen oder nicht.
Falls die Spiele mehr als 12 Threads nutzen ist man mit den E Cores schon wieder besser dran.

Intel hat wieder den Fehler gemacht den i9 zu Highlighten, der Verbauch fällt dort zu negativ auf.

Ich denke auch dass sich Intel mit den 240W nichts Gutes getan hat. Nun ist der 12900K wie der 11900K als Hitzkopf verschrien obwohl er es mit sinnvollen Powerlimits gar nicht ist. Ein Großteil der durchschnittlichen Reviewleser glauben der 12900K braucht bei Spielen 240W.

CB hat es mit verschiedenen Benchmarks getestet und Leistungsaufnahme gemessen und kam iirc darauf, dass die ec ores effizienter sind. Widersprüchliche Ergebnisse machen mich skeptisch.

Hast du da mal einen Link? In dem Review das ich ich kenne wurden die P Cores nur bis 64W runter getestet. Da waren sie bei 3.5GHz und haben 100s gebraucht.
8 E Cores haben sie nicht getestet aber 1P Core mit 8 E Cores hat 155s bei 64W gebraucht, war also auch deutlich ineffizienter.

Natürlich sind die 8 E Cores mit 3.7GHz effizienter als die 8 P Cores mit 5.1GHz aber das ist ein Äpfel/Birnen Vergleich.

es sollen doch noch e cores only cpus kommen, dann können wir das urtail erst finalisieren. ich glaube, das hier irgendwas reinspielt, was die effizienz der e cores killt. rein die ecores kann man nämlich nicht booten und das wird seinen grund haben. dennoch bleibt es ersteinmal so stehen das für games 8+8 unterm strich keine vorteile hat, mal abgesehen von mehr L3 cache, die die kleinen mitbringen.

Die ECore Only CPUs wird es geben aber nicht im normalen Desktop/Mobile Lineup. Das sind dann vermutlich die Nachfolger der bisherigen Atoms.
Allerdings habe ich von den neueren Atoms (Goldmont Plus/Tremont) noch keinen in der freien Wildbahn gesehen, dafür aber einige Ryzen Embedded (Zen+ basierend). Der Industriebereich ist sehr langsam und träge also kann man noch nicht viel sagen aber es ist fraglich, ob hier das Geschäft überhaupt wieder Richtung Atom zurück kommt.

Bist Du Dir sicher mit den Only-E-Core CPUs?
Dachte den E-Cores fehlen lebenswichtige Schnittstellen, sodass sie ganz alleine so nicht funktionieren können.

Ich denke da werden die E Cores dann einfach um die notwendigen Schnittstellen ergänzt werden.

Bin zwar selbst noch nicht auf Windows 11 umgestiegen, hatte dies jedoch eigentlich dieses WE vor. Doch nach allem, was ich bei einem Freund im Zuge des Umstieges bei Alder-Lake nun beobachtet habe, lasse ich das Upgrade wohl doch erstmal.

Bei meinem 9900K war es bisher ein relativ kurzes Abenteuer. Nachdem ich es endlich geschafft habe, dass mein System als kompatibel erkannt wurde Upgrade gestartet und gleich mit einem Bluescreen begrüßt worden mit automatischen Rollback. Ich glaube das ist ein Zeichen, dass Win11 noch etwas Zeit braucht.

Windows 10 scheint manchmal das Problem zu haben, dass unter geringer Last Dinge auf den E-Cores landen, die eigentlich besser auf den P-Cores aufgehoben wären. Weshalb das eine oder andere Userinterface auf mich unter Windows 11 ein klein wenig mehr ,,Snappy" wirkt. Wenn ich mir das nicht nur einbilde... Ja ich weiß, Windows 11 hat auch viele Animationen gestrichen.

Schon mal mit dem Powermodus "Höchstleistung" probiert. Der sollte diese E Core Schubserei eigentlich unterbinden.

Doch Windows 11 hat für meine Anwendungszwecke ein noch größeres Problem.
Dort bleiben unter Last oft nämlich die E-Cores ungenutzt, so als ob Windows die für Background-Tasks reserviert. Obwohl dies die Gesamtperformance teils erheblich verringert. Weshalb meine anspruchsvolleren Anwendungen unter Windows 10 meist besser zu performen scheinen.

Hhm seltsam. Dass das bisher noch nicht in Reviews aufgefallen ist?

Das gewünschte Verhalten wäre hier für mich, dass im ,,fast-Idle" möglichst alles auf den P-Cores liegt, wenn man Höchstleistung als Energiesparplan ausgewählt hat.
Unter Last auf nahezu allen Kernen, sollen dann natürlich die E-Cores schwer verwendet werden und nicht Däumchen drehen.

Der ideale Scheduler wäre zuerst alles auf die P Cores, dann auf die E Cores, dann 2. Thread auf die P Cores.
Intel hat extra darauf hingewiesen, dass der Schwachsinn mit "wir schieben Hintergrundaktivitäten auf die E Cores" nicht auf ihrem Mist gewachsen ist, sondern dass das ein Alleingang von MS war.
Meiner Meinung ist das bei Wondows generell der falsche Ansatz zu versuchen Hintergrundaktivitäten auf effizientere Kerne zu legen. Das Problem von typischen Windowssystem ist, dass es viel zu viele Leistungsfresser im Hintergrund gibt, speziell von MS selbst. MS sollte die Zeit besser darauf verwenden ihre Hintergrunddienste darauf optimieren, dass sie gar nicht so viel CPU Zeit brauchen. Das ist derzeit der Hauptgrund, warum sie im Smartphone/Tabletbereich keine Chance haben.

TurricanM3
2021-12-03, 23:26:49
Das ist nen Sticker / Aufkleber von MF selbst, hat also nichts mit Samples etc zu tun. Vermutlich um zu vermeiden das die Teile zu früh das Lager verlassen wegen NDA und so.

Ja genau der grüne MF Aufkleber mit dem Strichcode. Dann hab ich vermutlich eine CPU von ganz unten bekommen, die da schon seit kurz vor launch lag? Laut Batch auch eher alt. Naja die ersten sollen ja am besten laufen. Ist ganz bestimmt eine SP100+ :naughty:

Geldmann3
2021-12-04, 00:55:52
Oh man, unter Windows 10 habe ich in diversen Video-Rendering Applikationen ein weiteres Problem mit den E-Cores gefunden, habe aber auch gleich einen Workaround für euch.

Nehme als Beispiel mal Topaz Video Enhance AI.

Wenn ich das rendern lasse, läuft es erst auf allen Kernen.
Doch solche Renders lassen natürlich Stunden auf sich warten, weshalb man sowas in der Regel in den Hintergrund schiebt und währenddessen z.b. im Web-Surft.

Nun das Problem, sobald das Programm nicht mehr im Vordergrund ist, schiebt Windows alle Threads auf die E-Cores und die Performance sinkt um etwa 33%, was dafür sorgt, dass ich 33% länger warten muss. Dabei braucht der Chrome natürlich nicht die ganzen P-Cores.

Wenn ich dem Programm im Process-Lasso alle E-Cores entziehe, nutzt es immerhin stattdessen alle P Cores. Was allerdings noch immer schlechter ist, als wenn das Programm im Vordergrund wäre, dann werden nämlich E + P Cores genutzt.

Wenn ich dem Programm 7 P-Cores entziehe wird es noch schlimmer, dann läuft Video Enhance AI nur noch auf einem E-Core, den es zu 100% auslastet. Man muss ihm also wirklich alle E-Cores entziehen.

Nun der Workaround, den ich gefunden habe.
Man darf das Programm nicht minimieren, sondern es muss als Fenster im Hintergrund laufen.
Sonst springt es nach ein paar Minuten wieder auf die E-Cores.

Es ist erschreckend, dass man mit sowas herumspielen muss. Ich will nicht wissen, wie viel Zeit ich durch sowas verloren habe, ohne es zu wissen.

Ist ja mal voll dumm, einer hochanspruchsvollen Anwendung nur die E-Cores zu geben, nur, weil man es gerade nicht im Fokus hat.

Mittlerweile bin ich der Auffassung, dass Windows gar nicht versuchen sollte, bei den E-Cores ,,intelligent" zu sein.
Windows soll die einfach nur dann verwenden, wenn alle P-Cores bereits zu mehr als 50% ausgelastet sind und wenn die E-Cores dann auch noch ausgelastet sind erst die Hyperthreads.
So einfach sollte das funktionieren... Da braucht es keine Raketenwissenschaft.
Das Schlimme ist, man kann die Kern-Affinität ja wie am obigen Beispiel beschrieben nicht einmal einfach überschreiben.

Savay
2021-12-04, 02:36:05
Dass das Adobezeugs am 12900K so gut läuft hat relativ wenig mit den E Cores zu tun sondern damit, dass hier die P Cores deutlich schneller sind als die Zen 3 Cores von AMD. Das lässt sich aber nur sehr bedingt auf andere Anwendungen übertragen.


Das liegt nicht an den Cores, das liegt in dem Beispiel fast ausschließlich an QuickSync... :freak:
Sobald man nen RAW Codec oder 4K/8K RED/ProRes etc. hat ist es Essig mit irgendwelchen Vorsprüngen...

In Lightroom und After Effects liegts teilweise an der Bandbreite von DDR5...da verhungern CPUs mit DDR4 offensichtlich zum Teil alle ein wenig.

dildo4u
2021-12-04, 04:15:30
Warum saugt dann der 11900k so?
Der hat doch Quick Sync.

iamthebear
2021-12-04, 10:16:09
@Geldmann: In welchem Energiesparmodus war das denn? Bisher war ich der Meinung, dass mit Höchstleistung der Spuk eigentlich vorbei sein sollte.

ryan
2021-12-04, 11:40:54
Das liegt nicht an den Cores, das liegt in dem Beispiel fast ausschließlich an QuickSync... :freak:
Sobald man nen RAW Codeck 4K/8K RED/ProRes etc. hat ist es Essig mit irgendwelchen Vorsprüngen...

In Lightroom und After Effects liegts teilweise an der Bandbreite von DDR5...da verhungern CPUs mit DDR4 offensichtlich zum Teil alle ein wenig.



Hast du dir die Detailwerte (https://www.pugetsystems.com/pic_disp.php?id=71527) angesehen? Das ist alles in 4k oder 8k. Das sieht mir nicht nach Quicksync aus, sonst müsste der 12600K viel näher am 12900K dran sein und RKL-S mit der gleichen iGPU und dem gleichen Quicksync dürfte nicht derart langsam sein. Das sieht eindeutig nach CPU scaling aus zwischen 12600K, 12700K, 12900K.

iamthebear
2021-12-04, 13:22:35
Also ich habe noch einmal einen Blick auf die Einzelergebnisse geworfen:
https://www.pugetsystems.com/pic_disp.php?id=71527

4K H.264 150Mbps - Live Playback 4x:
12600K: 67.58
12700K: 73.13
12900K: 173.38
12900K DDR5: 178.22

Da ist doch offensichtlich irgendetwas schief gegangen oder hat da jemand eine sinnvolle Erklärung warum der 12900K hier mehr als doppelt so schnell sein kann? Auch die Rocket Lakes sind alle um die 58-59.

Scheint generell ziemlich GPU limitiert das Ganze bzw. die Differenz zu AMD erklärt sich durch QuickSync aber zwischen 12700K und 12900K sollte doch außer minimaler Unterschiede beim GPU Takt doch alles gleich sein bei der GPU bzw. Features.

Savay
2021-12-04, 15:57:32
Ne 1 zuviel oder wenig in der Tabelle?! :wink:
Ist jedenfalls alles ein bisschen fishy.
Vor allem die Playback Scores...eigentlich sollte H264 und 265 über NVENC laufen in deren Setup (als CPU Test!) und dann würde ich eher minimale taktbedingte Differenzen erwarten.

Oder es ist nen Bug und irgendwas läuft bei denen nicht so wie es soll... (iGPU für den Run deaktiviert evtl.?!)

Andererseits haben die ständig solche seltsamen Ausreißer in ihren Detailscores. (u.a. auch bei DaVinci Resolve)
Wirklich sauber zu verifizieren scheinen die ihre Einzelergebnisse nicht.

Warum saugt dann der 11900k so?
Der hat doch Quick Sync.

Alte QuickSync Version.

Hast du dir die Detailwerte (https://www.pugetsystems.com/pic_disp.php?id=71527) angesehen?

Schau dir mal die H264 und H265 Werte vs. Red und ProRes an.

Es geht nicht um die Auflösung, sondern um den Codec.
Sobald es nicht mehr HW Beschleunigt ist und wirklich nur noch die Kern und CPU Performance zählt, nehmen die sich im Mittel eher kaum was.
Auch beim Export.
Da sortieren die sich eher nach ihrer Threadzahl ein.

BlacKi
2021-12-04, 16:13:04
vorhin hab ich das msi board eingebaut. was soll ich sagen, booten tut sogar 4100^^ nur stabil ist das nicht^^



karhu memtest scheint hier stabil auf 4000 cl16-17-17 28 1t zu laufen.



aida sagt

Geldmann3
2021-12-04, 17:39:03
wqB96Bdsb4M

@Geldmann: In welchem Energiesparmodus war das denn? Bisher war ich der Meinung, dass mit Höchstleistung der Spuk eigentlich vorbei sein sollte.

Das war auf Höchstleistung.

iamthebear
2021-12-04, 22:37:49
Sieht wohl so aus als wäre das ADL deutlich mehr broken als ich zuerst gedacht hätte und zwar sowohl auf Win10 als auch Win11.

Was HWU angeht: Das sieht nach durchgehender extrem starker GPU Limitierung aus. Ein gutes Beispiel ist hier Cyberpunk. Dieses läuft mit 6+0 definitiv deutlich schneller als mit 4+0.