PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake - Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8

BlacKi
2021-12-04, 23:16:06
ja ich hab die e cores auch deaktiviert. dennoch war das cache video von hwub nicht wirklich repräsentativ, da eben die threads fehlten. was bleibt, e cores = nix für gaming. auch wenn einzelne spiele tatsächlich von den e cores profitieren. even aus dem luxx konnte in dota wie ich gelesen habe bessere fps mit den e cores erzielen.

Geldmann3
2021-12-05, 00:05:59
Also ich muss sagen, dass ich bisher noch mit keinem CPU-Upgrade im Leben so viel Spaß hatte, wie mit dem vom 9900K auf den 12900K, es ist einfach eine hochinteressante und brutal schnelle CPU.

Aber ja, es ist broken, würde ich zustimmen!

Diese CPU würde ich zurzeit eher weniger jemanden in den Rechner stecken, der nicht technisch interessiert und versiert ist. Jemand, der einfach nur mit dem Rechner arbeiten oder zocken möchte. Man sollte nicht manuell mit der Threadzuordnung und Priorität herumfiddeln müssen. Also wenn man es nicht tut ist dies kein Weltuntergang, aber nachteilig.

Ryzen ist da konsistenter und einfacher zu handhaben.

Also ich bin hochzufrieden, der 12900K ist für mich ein Traum, doch ja, einige Dinge halte ich echt für broken und hoffe sie werden schnell sowohl unter Windows 10 als auch unter Windows 11 gefixt. Wie schon einmal geschrieben, Windows sollte einfach nur aufhören intelligent sein zu wollen und die E-Cores ganz einfach mit zweiter Priorität behandeln. Wie ein Zwischending zwischen echten Kernen und Hyperthreads.

BlacKi
2021-12-05, 00:07:07
ich wundere mich echt, warum man mit raptor 16 ecores bringt. nur für die anwendungen?

Geldmann3
2021-12-05, 00:11:27
Um ehrlich zu sein, diese Verwunderung kam in mir mit meinen Tests in den letzten Tagen ebenfalls mehr und mehr hoch. Also zocken könnte man mit 12 P-Cores sicher besser, als mit 16E+8P Cores.

Naja, vielleicht kann man dann immerhin mit Zen 3 beim Multithreading mithalten. Vielleicht dachte man sich, wir machen es jetzt ein bisschen so wie AMD in den Zen-Anfangszeiten, lasst uns einfach nur in Cinebench gewinnen. :freak:

Also mir gefällt es, weil ich neben dem Zocken viele Workloads habe, die stark von den E-Cores profitieren.
Vermute allerdings, bei den meisten Consumern ist das eher nicht so und wird auch nicht mehr passieren.

Ich nenne diese Strategie ,,Anti-Real-World-Performance" ;D

BlacKi
2021-12-05, 00:33:35
die anwendungen sind schon wichtig. aber warum nicht beides 50%? 12 p cores + 12 e cores? oder zumindest 10 + 12?

ryan
2021-12-05, 01:13:52
die anwendungen sind schon wichtig. aber warum nicht beides 50%? 12 p cores + 12 e cores? oder zumindest 10 + 12?


Weil das den Rahmen sprengen würde nehme ich an. 12E macht auch kein Sinn, weil ein Cluster 4 Kerne hat. Möglich wäre es, nur wäre das dann nicht mehr symmetrisch auf dem Die verteilt bei 3x4. Also das wird Intel nicht wollen, daher der Schritt zu 16 und später zu 32.

Bis einschließlich Arrow Lake sind mehr als 8P cores nicht zu erwarten (8+32 stehen im Raum). Und selbst bei Lunar Lake würde ich nicht drauf wetten, mehr als 8 zu sehen. Die big cores sollen sehr stark zulegen bei der IPC, also wird der Flächenbedarf pro Kern vermutlich massiv steigen.

Wer unbedingt mehr will oder braucht, muss zur X-Serie greifen. Die soll ja nächstes Jahr neu aufgelegt werden.

BlacKi
2021-12-05, 01:21:32
da 2+8 und 6+ 8 kommt, macht das keinen sinn. man könnte definitiv 12 +8 bringen.

=Floi=
2021-12-05, 02:33:33
Bin gespannt, ob intel dauerhaft daran festhalten wird.

Geldmann3
2021-12-05, 03:33:19
da 2+8 und 6+ 8 kommt, macht das keinen sinn. man könnte definitiv 12 +8 bringen.

Eine 12P+8E CPU müsste rund 40% größer ausfallen als der 12900K, man bräuchte also wahrscheinlich einen größeren Sockel.
Jedenfalls mit dem aktuell verwendeten Fertigungsverfahren.

Außerdem wäre der Die in der Herstellung ganz grob doppelt so teuer. Somit würde Intel vom 12900K hochgerechnet rund 1400€ dafür berappen.
Was sie mit den HEDT-Xeons nächstes Jahr bestimmt auch mindestens tun.

##############################################

Im Folgenden habe ich geprüft, welche Taktrate ich an den P-Cores anlegen muss, damit diese die Performance der E-Cores bei 4,0GHz erbringen.

Die Ergebnisse würde ich später gerne mal für Kernskalierungsbenchmarks in Anwendungen und Games verwenden. Hier wird es für saubere Ergebnisse hilfreich sein, Threads zu haben, welche in ihrer Geschwindigkeit vergleichbar sind.

In meinen Tests hat sich herausgestellt, dass ein P-Core-Thread bei 2,7Ghz etwa einem E-Core Thread bei 4GHz entspricht.

Rein aus Gründen der Neugierde habe ich auch die P-Cores mit HT gegen die E-Cores antreten lassen. Schaltet man Hyperthreading hinzu, muss man die P-Cores auf rund 2,1GHz heruntertakten, um die Multithreading-Performance der E-Cores zu erzielen.

Stellvertretend für Productivity-Workloads hier die CPU-Z Ergebnisse:

https://i.ibb.co/RpmKdMq/CPU-Z-Corespeed.png (https://i.ibb.co/RpmKdMq/CPU-Z-Corespeed.png)



Um grob zu prüfen, ob sich das Ganze auf Games übertragen lässt, ziehe ich stellvertretend jenes Spiel heran, welches in meinen bisherigen Benchmarks am besten dafür geeignet war, alle Ressourcen der CPU auszunutzen. Cyberpunk 2077.

https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png (https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png)

Auch in diesem Falle erreichen wir mit 2,7GHz auf einem P-Core etwa die Leistung eines E-Cores bei 4,0GHz. Dass die P-Cores mit HT bei 2,1GHz in diesem Falle etwas schwächer skalieren, liegt schlicht daran, dass Cyberpunk 2077 16 Threads nicht ganz so effektiv auslasten kann, wie dies bei 8 der Fall ist.

iamthebear
2021-12-05, 10:11:07
die anwendungen sind schon wichtig. aber warum nicht beides 50%? 12 p cores + 12 e cores? oder zumindest 10 + 12?

Weil das mehr Chipfläche braucht. Du kannst entweder 10+8 oder 12+0 haben.

Die Frage ist wer ist die Zielgruppe für 12+0:
.) Gamer nicht, denn 12 Kerne sind nicht schneller als 8
.) Bei Anwendungen mit wenigen Threads (typischer Office Alltag) ist es auch egal.
.) Bei Anwendungen ab 16 Threads aufwärts sind die 8+16 schon wieder schneller.

da 2+8 und 6+ 8 kommt, macht das keinen sinn. man könnte definitiv 12 +8 bringen.

Ja 12+8 würde funktionieren aber wie schon erwähnt dann eben deutlich größer.

mocad_tom
2021-12-05, 10:13:09
Beim Asus Rog Maximus Z690 ist schon die Bios Version 0803 raus.
Können nur noch wenige Tage sein, bis beim Asus Rog Strix Z690 auch diese Bios Version rauskommt.

//differentRob
2021-12-05, 10:49:47
In meinen Tests hat sich herausgestellt, dass ein P-Core-Thread bei 2,7Ghz etwa einem E-Core Thread bei 4GHz entspricht.

Rein aus Gründen der Neugierde habe ich auch die P-Cores mit HT gegen die E-Cores antreten lassen. Schaltet man Hyperthreading hinzu, muss man die P-Cores auf rund 2,1GHz heruntertakten, um die Multithreading-Performance der E-Cores zu erzielen.


https://i.ibb.co/RpmKdMq/CPU-Z-Corespeed.png (https://i.ibb.co/RpmKdMq/CPU-Z-Corespeed.png)


https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png (https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png)




interessanter Vergleich! Kannst du auch noch was zum Stromverbrauch der jeweiligen Kerne sagen?

iamthebear
2021-12-05, 11:08:52
@Geldmann: Ich weiß nicht, ob der Vergleich von 1 P Core + HT gegen einen E Core ohne HT so sinnvoll ist, da ein E Core Cluster ja 4 E Cores statt 1 P Core hat. Falls der P Core in die Situation kommt, dass er 2 Threads verarbeiten kann würde im E Core Cluster ja auch ein 2. E Core vorhanden sein.

Aus meiner Sicht gibt es in der Praxis 3 mögliche Situationen (Beispiel 1 P Core vs. 4 E Cores):
a) 1 Thread: 1 P Core ohne HT (da ja kein 2. Thread vorhanden) vs. 1 E Core.
b) 2 Threads: 1 P Core mit HT vs. 2 E Cores
c) 4+ Threads: 1 P Core mit HT vs. 4 E Cores

BlacKi
2021-12-05, 11:36:32
@Geldmann: Ich weiß nicht, ob der Vergleich von 1 P Core + HT gegen einen E Core ohne HT so sinnvoll ist, da ein E Core Cluster ja 4 E Cores statt 1 P Core hat. Falls der P Core in die Situation kommt, dass er 2 Threads verarbeiten kann würde im E Core Cluster ja auch ein 2. E Core vorhanden sein.

Aus meiner Sicht gibt es in der Praxis 3 mögliche Situationen (Beispiel 1 P Core vs. 4 E Cores):
a) 1 Thread: 1 P Core ohne HT (da ja kein 2. Thread vorhanden) vs. 1 E Core.
b) 2 Threads: 1 P Core mit HT vs. 2 E Cores
c) 4+ Threads: 1 P Core mit HT vs. 4 E Cores
ich habe ein effizienz test gelesen, wo 1 e core effizienter war als 4 e cores. die haben das in joule angegeben. wobei ich mir da auch keinen reim drauf machen kann.

ich frage mich, wieso wurden die kleinen kerne so von jim keller gegenüber den big cores favorisiert.

ryan
2021-12-05, 11:45:30
da 2+8 und 6+ 8 kommt, macht das keinen sinn. man könnte definitiv 12 +8 bringen.


Ich rede von den E-cores, 12E sind asymmetrisch bei 3 Clustern. 12P würden den Flächenbedarf deutlich ansteigen lassen, das ist für Intel offensichtlich keine Option in absehbarer Zukunft.

BlacKi
2021-12-05, 12:40:56
12P würden den Flächenbedarf deutlich ansteigen lassen, das ist für Intel offensichtlich keine Option in absehbarer Zukunft.


das ist doch nur eine geldfrage. also, wieviel man dem kunden abknöpfen will^^

dildo4u
2021-12-05, 13:07:57
Du hast jetzt minium 5 Jahre wo sich alles um 8 Kerne dreht wegen den Konsolen, wer mher will muss die Workstation Plattform kaufen.
Einfach beim Mindfactory gucken der 16 Kern Zen 3 spielt kaum eine Rolle, was komplett Sinn macht selbst Sachen wie Videoschnitt nutzen immer besser extra Beschleuniger als mher dicke Kerne.(Quick Sync,Cuda etc)

iamthebear
2021-12-05, 15:25:16
ich habe ein effizienz test gelesen, wo 1 e core effizienter war als 4 e cores. die haben das in joule angegeben. wobei ich mir da auch keinen reim drauf machen kann.

Wie kann 1 e core effizienter sein als 4 e cores? Meinst du 1 P Core vs. 4 E Cores? Auch das würde ich einmal anzweifeln außer vielleicht für extreme Sonderfälle.

Was die Joule Angaben angeht: Die kannst du komplett in die Tonne treten. Ein Effizienzvergleich macht nur Sinn wenn man ihn bei gleicher Performance macht.

ich frage mich, wieso wurden die kleinen kerne so von jim keller gegenüber den big cores favorisiert.

Das frage ich mich mittlerweile auch. Für reine MT Aufgaben macht das vielleicht Sinn aber wieviele gibt es davon wirklich in der Praxis? Selbst im Serverbereich, wo die Aufgaben ja schon einmal grundsätzlich paralleler Natur sind wenn man mehrere Clients gleichzeitig bedient habe ich so meine Zweifel, ob für den Großteil deutlich über 100 Kerne wirklich noch so sinnvoll ist. Ich muss zugeben, dass ich von den E Cores etwas enttäuscht bin.

das ist doch nur eine geldfrage. also, wieviel man dem kunden abknöpfen will^^

Geld ist immer ein limitierender Faktor. Man designed das Lineup ja nicht nur für die 1%, die immer das Topmodell kaufen.
Abgesehen davon ist Die Size kurz/mittlefristig keine Frage des Geldes, sondern der Kapazität. Angenommen Intel würde einen doppelt so großen Die bauen und könnte seinen Kunden dann 100 Euro mehr dafür abnehmen. Die Produktionskosten wären dadurch locker gedeckt aber die Produktionskapazitäten wären dafür nicht da und bei AMD mit TSMC ist es dasselbe.

Du hast jetzt minium 5 Jahre wo sich alles um 8 Kerne dreht wegen den Konsolen, wer mher will muss die Workstation Plattform kaufen.
Einfach beim Mindfactory gucken der 16 Kern Zen 3 spielt kaum eine Rolle, was komplett Sinn macht selbst Sachen wie Videoschnitt nutzen immer besser extra Beschleuniger als mher dicke Kerne.(Quick Sync,Cuda etc)

Also ich denke nicht, dass die Kernanzahl in Konsolen einen Einfluss auf die Kernanzahl in PC Spielen hat. Das sind 2 komplett verschiedene APIs. Bei DirectX 11 konnte man z.B. Draw Calls nur vom Mainthread absetzen und die ganze Engine wurde darauf aufgebaut. Bei Konsolen und DirectX 12 ist das alles anders.
Die Playstation 4 hatte auch schon 8 Kerne und selbst 4 Jahre später war der Nutzen von mehr als 2 Kernen immer noch sehr gering siehe https://www.computerbase.de/2017-01/intel-core-i3-7350k-test-overclocking/3/#abschnitt_spiele_720p

PC Spiele werden in der Regel auf die Baseline der aktuell eingesetzten CPUs optimiert und das sind derzeit Haswell Quad Cores bzw. Zen1/Zen+ 6 Kerner.

Was die ganzen Anwendungsbenchmarks angeht, so denke ich, dass die meisten Reviewer hier den Bezug zu Realität komplett verloren haben. Hier werden Benchmarks nur mehr nach 2 Kriterien ausgewählt:
.) Diese müssen möglichst einfach zu benchmarken sein
.) Und sie müssen sehr gut mit möglichst vielen Kernen skalieren

iamthebear
2021-12-05, 15:36:48
https://i.ibb.co/Jm6JcSW/Performance-at-various-Power-Limits.png (https://i.ibb.co/Jm6JcSW/Performance-at-various-Power-Limits.png)

Ich habe mir die Werte hier noch einmal genauer angesehen. Bist du dir sicher, dass die Punkte mit den 2 P Cores stimmen? Diese sollen eigentlich 25-30% höher sein. War da vielleicht kein HT aktiv?

Geldmann3
2021-12-05, 16:31:46
Oha, Du scheinst tatsächlich einen Fehler entdeckt zu haben.
Wenn ich im BIOS nur 2 Kerne + HT aktiv lasse und CPU-Z starte, nutzt dieses unabhängig vom Power-Limit nur 2 Threads. Ich kann es auch mit Process Lasso nicht dazu bewegen 4 zu verwenden.

Die anderen Ergebnisse stimmen.

Oh man, bei Alder Lake muss man aber auch ständig auf die Kernauslastung schauen.
Doch mooment, wenn 2 P-Cores so viel besser sind, dann bedeutet das auch, dass die Flächenersparnis kaum vorhanden ist? :freak:
Wenn ich den Wert aus 8P-Cores + 16 Threads bei 250 Watt herunterrechne komme ich auf rund 2115 Punkte pro 2 P-Cores + HT. Okay, sind noch immer 39% mehr Multi-Threading für die E-Cores auf selber Fläche.

Danke für den Hinweis, werde die Grafik später nochmal anpassen.
Muss den gemessenen Wert dann durch einen errechneten ersetzen und das dazuschreiben, denn mit nur 2 aktiven Kernen will CPU-Z bei mir unter Windows 10 nur 2 Threads verwenden.

Habe es auch nochmal nur mit Process Lasso versucht, mit allen Kernen aktiv und Threads 0-3 zugeordnet, leider selbes Verhalten.

Meridian12
2021-12-05, 16:50:09
Die Mobo Hersteller müssen doch auch im Strahl kotzen,oder?

Weil die teuren Mobos sind alle mit DDR5 und das gibt es ja praktisch nicht.

Alder Lake ist aktuell eine reine DDR4 Platform.

Wenn DDR5 kaufbar wäre, hätte ich schon eine gekauft.
Aber da ich kein DDR4 will (auch wenn es aktuell wohl sinnvoller wäre) brauche ich zur Zeit kein Mobo oder CPU zu kaufen.

Lehdro
2021-12-05, 17:44:26
Die Mobo Hersteller müssen doch auch im Strahl kotzen,oder?

Weil die teuren Mobos sind alle mit DDR5 und das gibt es ja praktisch nicht.

Dass das ein Problem werden wird wurde schon Monate vorher vorhergesagt. Das haben die Spatzen schon von den Dächern gepfiffen und es kam aus allen Richtungen (Presse, Speicherhersteller, Verkäufer etc).

Du solltest aber bedenken dass die richtig teuren Boards (350€+) sowieso nur "Kleinserien" sind. Von daher tauscht man da einfach Volumen gegen Marge aus, umgedreht bei den jeweiligen DDR4 Boards.

Benutzername
2021-12-05, 18:07:42
Die Mobo Hersteller müssen doch auch im Strahl kotzen,oder?

Weil die teuren Mobos sind alle mit DDR5 und das gibt es ja praktisch nicht.

Alder Lake ist aktuell eine reine DDR4 Platform.

Wenn DDR5 kaufbar wäre, hätte ich schon eine gekauft.
Aber da ich kein DDR4 will (auch wenn es aktuell wohl sinnvoller wäre) brauche ich zur Zeit kein Mobo oder CPU zu kaufen.


Naja, DDR5 könntest Du ja später gegen schnelleres tauschen. Naja, wenn es irgendwann welches zu kaufen gibt. :freak:


Von der Rechenleistung her muss man sowieso kaum tauschen für Spiele im Moment und in näherer Zukunft, wenn man eine CPU der letzten paar Jahre hat. Man ist bei 4k sowieso im Grakalimit.

Geldmann3
2021-12-05, 18:34:04
Nach dem entdeckten Fehler hier nochmal eine Grafik mit korrekten Werten, wobei ich jene für 2P-Cores+HT aus genannten Gründen extrapolieren musste.

https://i.ibb.co/1z0FKTp/12900-K-Compare-Core-Types-Kopie.png (https://i.ibb.co/7JsdnxB/12900-K-Compare-Core-Types.png)

Hier sieht man, dass die Chipgröße bei CPUs heute der limitierende Faktor ist.
Hätte man den doppelten Die-Space zur Verfügung, könnte man einfach 8P-Cores statt 8-E-Cores verbauen und hätte Vorteile auf allen Ebenen.
Selbst bei der Energieeffizienz. Einzig und allein die Latenzen würden sich im Schnitt leicht verschlechtern, da die Kerne weiter voneinander entfernt wären.

Für eine CPU-Architektur in weit entfernter Zukunft könnte ich mir 2 Ringbusse vorstellen. Einen kleinen in der Mitte, welcher 8-16 P-Cores miteinander verbindet.
Diese werden für Singlethreading- und Latenz-Anspruchsvolle Workloads verwendet. Außen herum könnte man dann nochmal einen weiteren Ring mit sehr vielen E-Cores bauen.
Diese werden für Multi-Threading-Workloads, wie beim Video-Rendering verwendet, sowas stört sich auch nicht an etwas schlechteren Latenzen.
Wobei sich das ja wieder schlecht mit Chiplets vereinbaren würde. :uponder:

BlacKi
2021-12-05, 19:35:08
Wie kann 1 e core effizienter sein als 4 e cores? Meinst du 1 P Core vs. 4 E Cores? Auch das würde ich einmal anzweifeln außer vielleicht für extreme Sonderfälle.


hier ganz unten auf der seite. single threaded können die e cores effizienz, auch gegen die p cores bei 3,9ghz, aber im multithreaded workload sind sie kacke, sogar schlechter als die p cores bei 3,9.
https://www.techpowerup.com/review/intel-core-i9-12900k-e-cores-only-performance/7.html

iamthebear
2021-12-05, 21:16:15
OK der Vergleich macht schon aus mehreren Dingen keinen Sinn:

1.) Es wird nicht die Leistung der CPU gemessen, sondern des gesamten Systems also mit Board, RAM, einer RTX 3080, Gehäuselüftern, SSD usw. Wenn man 2 reale Plattformen miteinander vergleichen will ist das ja legitim, nicht aber wenn man nur die einzelnen P/E Cores messen will.
Der Realverbrauch liegt bei ca. 6W pro Kern für die E Cores und 25W pro Kern für die P Cores.

Beim ST Test der E Cores wird nur zu 10% die CPU gemessen und zu 90% der Rest des Systems.

2.) Die Joule Angaben sind ein Äpfel mit Birnen Vergleich, da die gestesten CPUs eine komplett andere Performance haben. Der Energieverbrauch skaliert nicht linear mit dem Takt, da für höhere Taktraten auch höhere Spannungen notwendig sind und man eine wesentlich bessere Energieeffizienz erreicht wenn die Kerne auf niedrigeren Taktraten mit niedrigen Spannungen betrieben werden.
Bei 5GHz brauchen die 8P Cores 200W also ca. 5W/GHz/Kern
Bei 2GHz brauchen die 8P Cores 25W also ca. 1.6W/GHz/Kern, sind also 3 Mal so effizient

BlacKi
2021-12-06, 09:01:14
also entweder du verstehst den test nicht, oder ich hab den test nicht verstanden.

ich dachte, die nutzen die interne messung (hwinfo) und einen benchmark wie cb. dort spielen die punkte keine rolle, denn man zeichnet den wattverbrauch auf für einen ganzen run und teilt durch zeit. dann hat man die kj die man für einen run verbraucht hat. anders macht die joule angabe wirklich keinen sinn. in dem fall klammert man die performance aus und kann so messen welche cpu wieviel zeit für das erledigen der aufgabe benötigt.

ich glaube nicht, das man das gesammte system gemessen hat, denn dann würde der singlethreaded e core nicht so weit vorne liegen.
ausserdem, die e cores sollten schon effizienter sein auch bei gleichem takt. bei dem m1 chip ist der effizienzunterschied 10x zwischen groß und klein. hier sind sie gleich auf. die ecores bieten lediglich mehr performance pro fläche, damit haben sie ihren namen e core nicht verdient.

robbitop
2021-12-06, 13:14:25
Naja. Jede Core hat eine andere Frequency to Power Charakteristik. Gerade im oberen Bereich ist f~P³.
Soweit ich das gesehen habe, wurden die E Cores auf 4 GHz geprügelt, wo sie wahrscheinlich schon in einem super schlechten Bereich ihrer Frequenz/Power Kurve liegen wohingegen die P Cores, die für hohe Frequenzen gemacht sind bei 4 GHz noch in einem für sie entspannten Bereich liegen.

Intel scheint die Frequenzkurve beider Cores im 12900K auszureizen und fährt somit beide Kerne nicht mehr effizient - da will man wohl Benchmarks gewinnen. Im TDP limitierten mobile Bereich wird man sicherlich andere Frequenzen sehen.

Um den Effekt gänzlich rauszunehmen müsste man beide im Bereich von ~2-3 GHz testen (und schauen, wie niedrig die spannung jeweils machbar ist). Die P Cores mal mit und mal ohne SMT.

Grundsätzlich ist die Schere der Effizienz in den Apple Kernen größer. Sie machen das schon besser als Intel. Aber Apples SoCs sind auch alle mobile. Das heißt, da wird kein Kern in einem oberen Bereich seiner Frequenzkurve geprügelt wie K-Desktop CPUs.

Also ja im 12900K sind die E-Cores nicht wirklich effizient. Ich wäre aber nicht überrascht, dass sie in 15W mobile SKUs effizienter als die P Cores sind. Betriebspunkte darf man aufgrund ihreres nicht linearen Verhaltens nie außer Acht lassen.

Geldmann3
2021-12-06, 17:02:56
Mir sieht es so aus, als würden die E-Cores in jeder Wattage leistungstechnisch gegen dieselbe Anzahl an P-Cores unterliegen.

https://i.ibb.co/SRjcb7Y/Wattage.png (https://i.ibb.co/SRjcb7Y/Wattage.png)

Lediglich pro verbrauchten Die-Space bringen sie mehr Performance.

https://i.ibb.co/1z0FKTp/12900-K-Compare-Core-Types-Kopie.png (https://i.ibb.co/7JsdnxB/12900-K-Compare-Core-Types.png)

robbitop
2021-12-06, 17:34:34
Kannst/konntest du Frequenz und Spannung für die jeweiligen Leistungslimits mitloggen? Wer weiß, was der 12900K da genau macht.

Wenn die konkludent sein sollten, dann hat Intel wirklich keinen besonders tollen Job gemacht mit den E-Cores in Bezug auf Effizienz.

Dr@gonXP
2021-12-06, 18:25:20
@Geldmann3

Du hast schon so viel getestet mit dem 12900K, nach all den Erfahrungen, die Du gemacht hast, wo siehst Du persönlich den "SweetSpot" (Temperatur, Leistung, Effizienz) der CPU?

Lowkey
2021-12-06, 18:50:53
Es kommt doch auf das Szenario an. Pauschal muss man die CPU an die persönlichen Vorlieben anpassen. Im anderen Fall gibt es diverse Reviews mit mindestens zwei Powerlimits.

Gaming: E-cores aus, PL "egal" + OC + Memory OC + W10 + (eventuell auch HT aus). DDR4 oder DDR5, wobei DDR5 noch nicht final ist. Da sind noch ein paar Leistungsreserven.

Anwendungen: W11 + Geduld (Schedulerupdates in Zukunft). PL ca. 95-125w. Alternativ direkt einen 5950x kaufen, denn der wäre schneller bei Multicore. DDR4 oder DDR5 ist bei reinem Multicore uninteressant, denn da limitiert eher die Speichermenge als die Geschwindigkeit.


Ein festes Powerlimit hatte in der Vergangenheit oft Vorteile und wäre vllt auch beim Gaming interessant.


Steckt da noch ein Fehler in der Überlegung?


PS: für AVX512 Anwendungen muss man wohl zwingend die E-Kerne deaktivieren.

Geldmann3
2021-12-06, 22:29:58
@Dr@gonXP

Wirklich schwer zu sagen, schließe mich Lowkey da an, es hängt ganz von den persönlichen Vorlieben ab. Je geringer man das Power-Limit einstellt, desto effizienter die CPU. Jedoch sind viele meiner Tests auch recht akademischer Natur, man könnte z.b. meinen, dass man ja viel Strom sparen würde, wenn man insbesondere in Games 125 statt 250 Watt einstellt. Dem ist allerdings nicht so, da die CPU sich immer nur so viel vom Power-Limit genehmigt, wie sie gerade braucht. Verbraucht sie mit einem höheren Powerlimit mal mehr Strom, tut sie das nur dann, wenn sie auch wirklich mehr brauchen kann und man daher dann auch noch zu einem gewissen Grad davon profitiert, solange man nicht ins Temperaturlimit rennt. Was vor allem in Produktivitäts-Workloads passieren kann. Ab 125W+ geht es für die Leistungsaufnahme dann allerdings langsam wirklich in crazy ineffiziente Bereiche, die kaum noch in Mehrleistung resultieren.

Persönlich habe ich das ,,Turbo Boost Power Max" gerade auf 125W stehen und ,,Turbo Boost Short Power Max" für 64 Sekunden auf 140W. Dabei habe ich noch einen Core Voltage offset von -0,04V eingestellt, damit es immer 100% stabil ist und alle P-Cores auf 5,1GHz, sowie die E-Cores auf 4,0GHz. Intel lässt die CPU out-of-the-box schon ziemlich am Rande des Machbaren laufen. Bei den Temperaturen so sehr, dass ich mich echt frage, wie sich das auf die Langlebigkeit der CPU auswirkt, wenn sie bei den ganzen unerfahrenen Nutzern ständig 99°C erreicht.

5R8kEa2b_eg

Der 12900K läuft damit ja noch fast 20°C wärmer als in seinen Tests. Denke eigentlich nicht, dass es da ein Problem gibt, doch halte es für bedenklich.


Kannst/konntest du Frequenz und Spannung für die jeweiligen Leistungslimits mitloggen? Wer weiß, was der 12900K da genau macht.

Wenn die konkludent sein sollten, dann hat Intel wirklich keinen besonders tollen Job gemacht mit den E-Cores in Bezug auf Effizienz.

Die Leistungsaufnahme und durchschnittliche Taktrate habe ich ja bereits aufgeführt, doch bei der Spannung zeigen mir unterschiedliche Tools gerade unterschiedliche Werte an.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77611&stc=1&d=1638827177 (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77611&stc=1&d=1638827177)

Welchem Tool soll ich hier glauben? XTU, welches direkt von Intel kommt aber immer höhere Werte anzeigt oder CPU-Z, welches oft deutlich niedrigere Werte anzeigt, wenn die CPU heruntertaktet, was ich für realistisch halte? Jedoch finde ich es dann sehr widersprüchlich, dass Intels eigenes Tool hier bei der Präzision stark unterliegt und dabei noch so schöne Graphen daraus zaubert. Wenn ich wetten müsste, würde ich recht sicher behaupten, CPU-Z liegt viel näher an der Wahrheit.

hahaha, doch wie hat meine Oma immer gesagt? ,,Wer wettet lüscht"

iamthebear
2021-12-06, 23:25:57
also entweder du verstehst den test nicht, oder ich hab den test nicht verstanden.

ich dachte, die nutzen die interne messung (hwinfo) und einen benchmark wie cb. dort spielen die punkte keine rolle, denn man zeichnet den wattverbrauch auf für einen ganzen run und teilt durch zeit. dann hat man die kj die man für einen run verbraucht hat. anders macht die joule angabe wirklich keinen sinn. in dem fall klammert man die performance aus und kann so messen welche cpu wieviel zeit für das erledigen der aufgabe benötigt.

ich glaube nicht, das man das gesammte system gemessen hat, denn dann würde der singlethreaded e core nicht so weit vorne liegen.
ausserdem, die e cores sollten schon effizienter sein auch bei gleichem takt. bei dem m1 chip ist der effizienzunterschied 10x zwischen groß und klein. hier sind sie gleich auf. die ecores bieten lediglich mehr performance pro fläche, damit haben sie ihren namen e core nicht verdient.

Ich habe jetzt noch einmal nachgerechnet und frage mich, was die da überhaupt zusammengetestet haben. Bei SuperPI haben sie ja die Dauer in Sekunden angegeben. Wenn ich das durchrechne komme ich auf einen durchschnittlichen Verbrauch von:
P Core 5.3GHz: 39W
P Core 3.9GHz: 35W
E Core 3.9GHz: 17W

Was soll das sein? Ein P Core mit 3.9GHz braucht doch keine 35W. genauso wenig ein E Core 17W. Der Gesamtverbrauch ist es auch nicht. Der ist wiederrum deutlich höher.

Oben haben sie Verbrauchswerte von Idle vs. Load. Beim E Core könnte das die Differenz sein aber das ist natürlich auch sinnlos, da die 17W ja dann großteils auch dadurch entstehen, dass die gemeinsamen genutzten Teile wie L3 hochgetaktet werden. Beim P Core mit 3.9GHz kommt es überhaupt nicht hin.

Was den M1 angeht:
Hast du da zufällig einen Link zu einem Review. Ich habe das eigentlich so in Erinnerung, dass die kleinen Kerne ca. 1/10 der Energie benötigen aber nur ca. 1/2 bis 1/4 der Performance haben.
Verglichen dazu hat Intel 1/5 der Energie bei etwas über 1/2 Performance.

Beides wurde aber mit hochgeprügelten Big Cores verglichen. Bei Apple könnte man sicher die Effizienz auch deutlich erhöhen wenn man die großen Kerne von fast 3GHz auf 1.5GHz runter takten würde.

Naja. Jede Core hat eine andere Frequency to Power Charakteristik. Gerade im oberen Bereich ist f~P³.
Soweit ich das gesehen habe, wurden die E Cores auf 4 GHz geprügelt, wo sie wahrscheinlich schon in einem super schlechten Bereich ihrer Frequenz/Power Kurve liegen wohingegen die P Cores, die für hohe Frequenzen gemacht sind bei 4 GHz noch in einem für sie entspannten Bereich liegen.

Selbst der Vergleich mit 4GHz vs. 4 GHz macht wenig Sinn. Das ist so wie wenn du den Spritverbrauch eines neuen BMW mit 5000 U/min und 180km/h mit einem alten Trabi mit 5000 U/min und 100km/h vergleichst.
Wenn dann muss man bei derselben Performance vergleichen. Welchen Takt die CPU dafür braucht ist doch egal.

Intel scheint die Frequenzkurve beider Cores im 12900K auszureizen und fährt somit beide Kerne nicht mehr effizient - da will man wohl Benchmarks gewinnen. Im TDP limitierten mobile Bereich wird man sicherlich andere Frequenzen sehen.

Also von dem was ich bisher gesehen habe entsprechen die maximalen 5.3GHz ca. 4.2GHz bei den E Cores. Intel scheint die E Cores also um ca. 300MHz niedriger laufen zu lassen als sie es eigentlich könnten. Vermutlich ist hierbei der Gedanke, dass wenn MS die Hintergrundaktivität auf die E Cores schiebt, dass man die etwas weniger prügeln sollte da die Performance der P Cores wichtiger ist.
Aber ja bei Maximaltakt sind beide sehr hoch getaktet. Das ist bei einem OCing Modell auf OCing Board mit einer Wakü, die auch in der Lage ist 240W abzuführen auch in der Regel das, was der Kunde haben will. Die "normalen" CPUs sind ja die 65W Varianten und die haben ja nur einen eher kurzen Boost bzw. takten auch runter wenn die Kühlung nicht mitkommt.

Um den Effekt gänzlich rauszunehmen müsste man beide im Bereich von ~2-3 GHz testen (und schauen, wie niedrig die spannung jeweils machbar ist). Die P Cores mal mit und mal ohne SMT.

Geldmann hat da ja schon einen guten Test mit verschiedenen Powerlimits gemacht. Die Kerne über das Powerlimit zu regulieren ist denke ich die genaueste Messmethode. Manuell runtertakten wird immer ungenau weil dann Idle Kerne die Messung störeen können wenn die mit etwas Last gleich auf 5GHz hochfahren.

Aber ja ein Vergleich mit 8 P Cores ohne SMT bei 10/25/40/65W wäre noch toll, denn sonst könnte man argumentieren "wenn der P Core 2 Threads hat, dann kann man ja auch 2 E Cores verwenden".

Grundsätzlich ist die Schere der Effizienz in den Apple Kernen größer. Sie machen das schon besser als Intel. Aber Apples SoCs sind auch alle mobile. Das heißt, da wird kein Kern in einem oberen Bereich seiner Frequenzkurve geprügelt wie K-Desktop CPUs.

Die Schere beim Verbrauch ist etwas größer, allerdings auch bei der Performance. Gerade bei FP brechen die kleinen Kerne bei Apple ja komplett ein.

Also ja im 12900K sind die E-Cores nicht wirklich effizient. Ich wäre aber nicht überrascht, dass sie in 15W mobile SKUs effizienter als die P Cores sind. Betriebspunkte darf man aufgrund ihreres nicht linearen Verhaltens nie außer Acht lassen.

Meinst du jetzt die 15W 2+8er CPUs oder die 8+8er wenn sie im Akkubetrieb auf 15W laufen?

Wenn die konkludent sein sollten, dann hat Intel wirklich keinen besonders tollen Job gemacht mit den E-Cores in Bezug auf Effizienz.

Das kommt darauf an wie du Effizienz definierst.
Energieeffizient bei ST Tasks: Nein
Flächeneffizient: Ja
Energieeffizient bei ausreichend Threads: Ja, da man 4 kleine Kerne auf dem Plat von 1 großen unter bringt und mehr Kerne mit niedrigem Takt immer energieeffizienter sind als weniger Kerne mit hohem Takt

Intel hat in den Präsentationen immer von Throughput vs. Latency gesprochen und nicht von Performance vs. Verbrauch.
Dieses Ganze Thema Energieeffizienz wurde Intel nur angedichtet, da es ja bei Smartphones genauso ist, nur das ist keine Smartphone CPU, wo man einen connected Standby hat bzw. hat MS versucht die Little Cores dazu zu missbrauchen um ihre komplett aus dem Ruder gelaufenen Hintergrundaktivitäten wie Updates und Virenscanner zu kaschieren.

Es kommt doch auf das Szenario an. Pauschal muss man die CPU an die persönlichen Vorlieben anpassen. Im anderen Fall gibt es diverse Reviews mit mindestens zwei Powerlimits.

So sehe ich das auch. Der System Builder ist in der Verantwortung ein Powerlimit für sein System festzulegen bei dem der CPU Kühler noch nicht so klingt als würde er gleich abheben bzw. der Anwender kann bestimmen ob er es entweder eher Silent oder eher schnell haben will (bei Notebooks spielt noch die Komponente Akkubetrieb mit rein).

Gaming: E-cores aus, PL "egal" + OC + Memory OC + W10 + (eventuell auch HT aus). DDR4 oder DDR5, wobei DDR5 noch nicht final ist. Da sind noch ein paar Leistungsreserven.

Kann man natürlich kurzfristig so machen. Falls zukünftige Spiele jedoch mehr Threads nutzen, so will ich die E Cores aber schon nutzen. Das gilt jetzt speziell für den 12600K wo 6 Kerne schon jetzt die Untergrenze wären.

Anwendungen: W11 + Geduld (Schedulerupdates in Zukunft). PL ca. 95-125w. Alternativ direkt einen 5950x kaufen, denn der wäre schneller bei Multicore. DDR4 oder DDR5 ist bei reinem Multicore uninteressant, denn da limitiert eher die Speichermenge als die Geschwindigkeit.

Ich denke hier muss man deutlich stärker differenzieren, denn Cinebench bzw. generell der Anwendungsparkour der meisten Reviewer ist alles andere als repräsentativ:
.) Ein Großteil der Anwendungen nutzt nur einen Thread. Beim Rest sind es zwar oft mehrere Threads aber bei 6-8 ist dann oft Schluss.
.) Nicht alle Anwendungen laufen sie Cinebench nur im L2. Es gibt auch Anwendungen, die viele Threads nutzen (mehr als das typische Spiel) und dabei sehr stark auf den RAM zugreifen. WinRAR ist hier ein gutes Beispiel. Diese Anwendungen sind die stärksten Profiteure von DDR5, das mit seinen 2 Speicherkanälen pro Riegel wesentlich mehr Durchsatz hat während bei weniger Threads eher die geringeren Latenzen von DDR4 von Vorteil sind.

Ein festes Powerlimit hatte in der Vergangenheit oft Vorteile und wäre vllt auch beim Gaming interessant.

Steckt da noch ein Fehler in der Überlegung?

Bei Anwendungen (bzw. diejenigen die wirklich alle 24 Threads auslasten) willst du 95-125W vergeben. Der Teil macht denke ich Sinn, da man mit 100W immer noch ca. 90% der Performance bekommt und leise 90% neben denen man schlafen kann oft mehr wert sind als 100% neben denen das nicht möglich ist.

Ein typisches Spiel, das nur 6 Threads nutzt wird jedoch selbst bei maximalem Takt unter 720p nur maximal 100W ziehen. Testet man mit realistischen Einstellungen, wo man in der Regel die halbe Zeit auf die GPU wartet, so sind wir eher bei 50-80W wohlgemerkt bei vollem CPU Takt: https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/7/

Jetzt stellt sich die Frage:
.) Ich habe einen Kühler der 125W relativ silent wegkühlen kann
.) Beim Gaming sind meiwtens sowieso die Kopfhörer auf inkl. ingame Sound
.) Die GPU zieht schon 300W alleine

Will ich hier nun wirklich zusätzlich die CPU Leistung drosseln, um z.B. von 80W auf 50W zu kommen? Ja das wäre möglich und würde nur 5-10% Leistung kosten aber ist das wirklich notwendig? Ich könnte auch ganz normal mit dem 125W Limit fahren.

PS: für AVX512 Anwendungen muss man wohl zwingend die E-Kerne deaktivieren.

Ja weil die kein AVX512 können und sonst die Software crashen würde wenn ein AVX512 Thread auf die ECores geschoben wird.
Aber jetzt mal ehrlich: Welche AVX512 Software nutzt du täglich?

ryan
2021-12-07, 00:53:23
Kannst/konntest du Frequenz und Spannung für die jeweiligen Leistungslimits mitloggen? Wer weiß, was der 12900K da genau macht.

Wenn die konkludent sein sollten, dann hat Intel wirklich keinen besonders tollen Job gemacht mit den E-Cores in Bezug auf Effizienz.


Mal als Referenz bei 3.6 Ghz (vom 12700k): https://twitter.com/OneRaichu/status/1464611681636548608

3.6 Ghz bei 0.9V hat Raichu hinbekommen. Wie hoch liegt denn die default Spannung beim 12900k?

Geldmann3
2021-12-07, 02:24:20
Okay, um allen Wünschen zu entsprechen, habe ich mich noch einmal für ein paar Stunden drangesetzt und die Kernspannung für jede Taktfrequenz und Kernkonfiguration erfasst.

Da es gewünscht war, finden sich nun auch 8 Performance-Kerne ohne HT im Diagramm.

Hier also noch einmal die Frequenzen, inklusive 8PC+8T samt durchschnittlich gemessener, anliegender Spannung, während der CPU-Z Stresstest lief.

https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png (https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png)

Und noch einmal die Performance-Zahlen ergänzt:

https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png (https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png)

Es wundert mich doch sehr, wie gut die Automatik darin ist, die CPU zu untertakten, wenn man das Power-Limit senkt. Wobei manuell bestimmt noch viel mehr gegangen wäre. Doch Intel wird den Algorithmus so konzipiert haben, dass es mit 99,99% aller verkauften Consumer-CPUs absolut stabil läuft.

Geldmann3
2021-12-07, 02:50:53
Okay, um allen Wünschen zu entsprechen, habe ich mich noch einmal für ein paar Stunden drangesetzt und die Kernspannung für jede Taktfrequenz und Kernkonfiguration erfasst.

Da es gewünscht war, finden sich nun auch 8 Performance-Kerne ohne HT im Diagramm.

Hier also noch einmal die Frequenzen, inklusive 8PC+8T samt durchschnittlich gemessener, anliegender Spannung, während der CPU-Z Stresstest lief.

https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png (https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png)

Und noch einmal die Performance-Zahlen ergänzt:

https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png (https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png)

Es wundert mich doch sehr, wie gut die Automatik darin ist, die CPU zu untertakten, wenn man das Power-Limit senkt. Wobei manuell bestimmt noch viel mehr gegangen wäre. Doch Intel wird den Algorithmus so konzipiert haben, dass es mit 99,99% aller verkauften Consumer-CPUs absolut stabil läuft.

Habe übrigens gerade mal Raichu's Claim geprüft und es stimmt. Auch meine E-Cores können bei 0,9V mit 3,6GHz rechnen. Intels Automatik geht also oft eine ganze Ecke über das, was an Spannung sein müsste. Hier könnte ich nun weiter messen, doch irgendwo muss ich mal einen Schlusstrich ziehen. ;D

Edit: Oh, sorry für den zweiten Post, ich saß wohl schon zu lange am Rechner.
Wollte den Beitrag eigentlich nur editieren, nicht zitieren.

Edit 2: Wobei ich auch feststelle, dass die eingestellte Voltage bei so niedrig eingestellten, statischen Werten dann gar nicht mehr wirklich bei mir zieht und ich laut CPU-Z dann oft wieder bei den Werten lande, welche die Intel-Automatik verwendet hat. Bei der Spannung explodiert mir der Aufwand zu sehr, daher mache ich in diese Richtung nicht weiter.
Halte die Werte aus CPU-Z für am realistischsten.
Selbst realistischer als jene aus den Intel-Tools.

Aufgrund meiner ganzen Tests kann ich jedoch sagen, dass die Power-Limit-Slider in Verbindung mit Undervolting / Übertaktung / Untertaktung sehr sinnvoll miteinander funktionieren, so sehr, dass mehr manuelles UC oder OC sich kaum noch lohnt. Das Power-Limit weiß schon grob, was es mit der Spannung sinnvollerweise tut. (Behaupte ich mal) Es geht nur nie über die eingestellte, maximale Kernfrequenz.

In den nächsten Tagen würde ich gerne ein paar praktischere Dinge mit der CPU testen, auf die ich ebenfalls echt neugierig bin. ;)

robbitop
2021-12-07, 07:53:26
Kann man so machen. Aber was mir auffällt ist dass die e cores im unteren Bereich der TDP Limitierung viel höher takten und höhere spannung nehmen. Es reicht nicht aus um die P Cores zu schlagen aber höherer Takt heißt auch viel höhere Leistungsaufnahme als nötig. Bei gleichem Takt niedrigst mögliche Spannung würde das Leistungsergebnis linear drücken aber die Leistungsaufnahme (die zu messen wäre) überproportional drücken. IMO ist mit fest eingestellter tdp einfach zu viel in der Hand der voreingestellten f/P Kurve als dass man rein die uArchs von ihrer Energieeffizienz vergleichen kann. Das muss mMn iso clock mit jeweils niedrigster spannung passieren.

Geldmann3
2021-12-07, 08:20:23
Ja, andere Tests dazu wären spannend.

Doch es sollte auf keinen Fall reichen, um die anderen Kerne zu schlagen. Jedenfalls nicht bei 40 oder 65 Watt pro 8 E-Cores.

Denn nehmen wir an, die E-Cores wären mit weniger Spannung viel effizienter. Sie könnten maximal so schnell sein, wie bei 65W im dargestellten Ergebnis, da bei 4,0 Ghz Schluss ist.

Und bei den anderen Ergebnissen, wenn wir da z.b. mal ganz großzügig 500 Punkte bei jedem Ergebnis aufschlagen, weil wir sagen, die automatische Spannungskurve wäre sehr suboptimal, so würden wir noch immer leicht den 8-P-Cores mit 8 Threads unterliegen. Außer vielleicht bei 25 und 10 Watt Leistungsaufnahme. Doch das ist einerseits schon ziemlich großzügig und andererseits etwas, was Intel in der Praxis gar nicht machen könnte, denn das schaffen dann nicht alle CPUs. Gibt bestimmt einen Grund für den vorhandenen Puffer.

Von meinen kurzen Tests ausgehend, wären 500 Punkte zudem viel zu viel.
Vielleicht könnte man auf 200 hoffen.

Dr@gonXP
2021-12-07, 08:28:56
Nur um Verwirrung vorzubeugen:

Turbo Boost Power Max = Long Duration Power Limit
Turbo Boost Short Power Max = Short Duration Power Limit

Richtig so, oder?

Ich habe am Wochenende eine Reihe von Tests durchgeführt um überhaupt erst zu ermitteln, was mein CPU-Kühler (Noctua NH-D15) bei welchem Powerlimit (PL1 = PL2) leisten kann... ich kann soviel verraten... bei PL1/Pl2=241 Watt komm ich ins Temperatur Limit und CPU throttled..

Werde meine Ergebnisse heute Abend auch mal posten.

Geldmann3
2021-12-07, 08:35:10
Nice, das würde mich freuen!

Ja, das ist richtig so.
Fand die Namen immer sehr verwirrend.

Das Long Duration Power Limit sollte nicht Power Max im Namen tragen. :freak:

Ich weiß, nach Intels Schema ergibt es Sinn, doch es verwirrt irgendwie sehr.

Was ich gemein bei den Intel CPUs finde ist, dass der Takt sowie die CPU Auslastung im Temperaturlimit häufig noch oben bleiben, die Performance allerdings schon einmal fröhlich anfängt zu sinken.
Das kann das Ganze ziemlich undurchsichtig machen, ich weiß auch nicht genau, wie es funktioniert.
Habe es beim 12900K mal beobachtet und auch damals beim 9900K.
Bis zum 9900K ging ich beim OC'en nämlich immer davon aus, dass alles in Ordnung sei, wenn überall der Takt gehalten wird.

Denke auch, dass das damals beim 9900K bei vielen dazu geführt hat, dass sie in Foren schrieben:,,Heyy, meine CPU läuft mit 5,2Ghz".
Sie haben dabei allerdings nicht bemerkt, dass die Performance nicht stimmte.

Selbes ist seltener auch zu beobachten, wenn die Spannung zu niedrig ist.
Man hält erstmal Ausschau danach, dass das System stabil läuft, dabei verliert es manchmal einfach Performance.

Dr@gonXP
2021-12-07, 08:47:57
Da ich mit "Luft" kühle, liegen meine Prioritäten wie folgt:

- Temperatur
- Leistung
- Verbrauch

Bei meinen Tests hab ich ein Alltags-Szenario gewählt (FB-Stream + Warzone Menü) und um alle Kerne auzulasten hab ich mit Intel XTU (Memory Stress Test) gearbeitet (verstehe nicht wirklich, warum ausgerechnet mit diesem test die Kerne ausgelastet werden, aber gut :biggrin:).

meine Tests beinhalten:

PL1/PL2: 241 Watt
PL1/PL2: 175 Watt
PL1/PL2: 154 Watt
PL1/PL2: 150 Watt
PL1/PL2: 148 Watt
PL1/PL2: 125 Watt

Wie gesagt, die Screeshots poste ich heute Abend:)

BlacKi
2021-12-07, 10:27:31
BTW. welche windows 10 version nutzt ihr? erst ab win10 21h2 sollen die e cores keine negativen einfluss mehr auf die performance haben.


h2 bekommt man aber wohl nur als insider. über das reguläre update also zu mindest schonmal nicht.


damit waren meine benches weiter vorne alle für die tonne.:mad:


traue keinem alderlake gaming bench, wenn nicht mit h2 gebenched wurde.

Dr@gonXP
2021-12-07, 10:33:54
Windows 11 (22000.348)

Thunder99
2021-12-07, 10:42:51
Windows 10 21h2 wird offiziell verteilt

BlacKi
2021-12-07, 10:48:17
Windows 10 21h2 wird offiziell verteilt
ich kriegs nicht egal was ich mache

Lowkey
2021-12-07, 10:48:38
@blacki

Bookmark dir endlich mal Deskmodder (https://www.deskmodder.de/blog/2021/07/16/windows-10-21h2-19044-iso-esd-inkl-updates-deutsch-english/)


Alternate liefert doch tatsächlich einen Großteil der DDR5 Bestellungen aus. Die haben wohl ein Monopol auf Gskill.

dildo4u
2021-12-07, 10:52:29
ich kriegs nicht egal was ich mache
https://www.computerbase.de/downloads/betriebssysteme/windows-10-media-creation-tool/

BlacKi
2021-12-07, 12:11:12
@blacki

Bookmark dir endlich mal Deskmodder (https://www.deskmodder.de/blog/2021/07/16/windows-10-21h2-19044-iso-esd-inkl-updates-deutsch-english/)


Alternate liefert doch tatsächlich einen Großteil der DDR5 Bestellungen aus. Die haben wohl ein Monopol auf Gskill.
https://media.tenor.com/images/79e5ef1cd6ec5ccc89763797ac4cf312/tenor.gif

€dit: das war ja nicht sehr groß das update... aber wenigstens steht bei winver nun die h2.

edit2: ich hab hier trotzdem 8% weniger fps mit den ecores

Rancor
2021-12-07, 14:30:19
Lol Blacki und dein Netzteil macht den 12900k und ne 3080 mit?

Lehdro
2021-12-07, 14:51:14
Intel hat in den Präsentationen immer von Throughput vs. Latency gesprochen und nicht von Performance vs. Verbrauch.
Dieses Ganze Thema Energieeffizienz wurde Intel nur angedichtet, da es ja bei Smartphones genauso ist, nur das ist keine Smartphone CPU, wo man einen connected Standby hat bzw. hat MS versucht die Little Cores dazu zu missbrauchen um ihre komplett aus dem Ruder gelaufenen Hintergrundaktivitäten wie Updates und Virenscanner zu kaschieren.

Ich krame das noch einmal vor, weil es mir wichtig ist: Intel hat explizit von Performance und Verbrauch im Zusammenhang gesprochen. Zu sagen dass Intel das nie getan hätte ist leider die Unwahrheit. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852945&postcount=13)

Dr@gonXP
2021-12-07, 17:42:39
Hier mal meine Ergebnisse zum Thema Powerlimit vs. Temperatur (MSI Lite Load = 8):

241 Watt:

https://abload.de/thumb/241wattmsill82yjay.jpg (https://abload.de/image.php?img=241wattmsill82yjay.jpg)

175 Watt:

https://abload.de/thumb/175watt_msill8zbk2r.jpg (https://abload.de/image.php?img=175watt_msill8zbk2r.jpg)

154 Watt:

https://abload.de/thumb/154wattmsill8pijxc.jpg (https://abload.de/image.php?img=154wattmsill8pijxc.jpg)

150 Watt:

https://abload.de/thumb/150wattmsill8wjjd4.jpg (https://abload.de/image.php?img=150wattmsill8wjjd4.jpg)

148 Watt:

https://abload.de/thumb/148wattmsill8qsklg.jpg (https://abload.de/image.php?img=148wattmsill8qsklg.jpg)

125 Watt:

https://abload.de/thumb/125wattmsill8u8kgj.jpg (https://abload.de/image.php?img=125wattmsill8u8kgj.jpg)

Geldmann3
2021-12-07, 22:12:16
Hey, das geht doch noch von der Temperatur her, ich sehe keine 99°C. Interessant, dass Dein 12900K bei eingestellten 241 Watt nur rund 220,8 Watt verbraucht.

Hier mal ein Zitat aus einem meiner Beiträge (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12852240&highlight=deep+dive#post12852240), schätze, Du hast Dein Bios geupdatet.

An dieser Stelle muss ich anmerken, dass ich während der Durchführung der Benchmarks den Hinweis erhalten habe, dass eine neue BIOS-Version meines Boards die Temperaturen um einige °C senken könnte. Jedoch habe ich dies nicht getan, weil ich (A) gleiche Testbedingungen für alle Durchläufe haben möchte, (B) nicht von vorne beginnen wollte, (C) sehr zufrieden mit meinen Overclocking Ergebnissen bin und (D) neue Bios-Versionen einiger Boards die reale Leistungsaufnahme jetzt wohl auf 225W satt 250W limitieren. Nur so als Hinweis, mit viel Glück könnt ihr mit einem Bios-Update eventuell rund 10°C weniger erwarten. Das habe ich jedenfalls schon so gesehen, ich weiß allerdings nicht, auf welche Boards dies zutrifft. Eventuell möchte man an dieser Stelle einfach doch das Risiko limitieren, dass diese CPUs bei 250W Dauerlast ,,schnell kaputtgehen". Besonders mit schlechter Kühlung kann ich mir sehr gut vorstellen, dass es nicht gut für die Lebenszeit ist, wenn die CPU oft bei um die 100°C läuft.

Dr@gonXP
2021-12-07, 22:43:06
Ich hab gerade mal bisschen meinen 12900K auf dem Z690 Tomahawk getestet.

Powerlimits: 125/140 Watt (64 Sekunden), Deine Settings

Adaptive + Offset

CPU Core Voltage: auto

Offset: -150mv

Läuft bisher stabil (ich staune)

MSI Lite Load: auto

Geldmann3
2021-12-08, 00:10:58
Habe die Kerne noch dazu auf 5,1/4,0Ghz gestellt, da laufen -150mV bei mir leider nicht mehr stabil im Cinebench.

BlacKi
2021-12-08, 00:47:22
Lol Blacki und dein Netzteil macht den 12900k und ne 3080 mit?danke für den hinweis. ist korrigiert.



mit undervolting der 3080 und limitierung auf 150w beim 12900k wäre es gegangen. aber die 3080 peakt bei 1900mhz genauso wie die 3090 mit 1750mhz. es kam immer wieder vor das die peaks die schutzschaltungen getriggert haben. mit alderlake hab ich dann ein günstiges gutes NT geordert und es läuft.

VooDoo7mx
2021-12-08, 01:59:54
Also ich muss sagen, dass ich bisher noch mit keinem CPU-Upgrade im Leben so viel Spaß hatte, wie mit dem vom 9900K auf den 12900K, es ist einfach eine hochinteressante und brutal schnelle CPU.

Aber ja, es ist broken, würde ich zustimmen!

Diese CPU würde ich zurzeit eher weniger jemanden in den Rechner stecken, der nicht technisch interessiert und versiert ist. Jemand, der einfach nur mit dem Rechner arbeiten oder zocken möchte. Man sollte nicht manuell mit der Threadzuordnung und Priorität herumfiddeln müssen. Also wenn man es nicht tut ist dies kein Weltuntergang, aber nachteilig.

Ryzen ist da konsistenter und einfacher zu handhaben.

Also ich bin hochzufrieden, der 12900K ist für mich ein Traum, doch ja, einige Dinge halte ich echt für broken und hoffe sie werden schnell sowohl unter Windows 10 als auch unter Windows 11 gefixt. Wie schon einmal geschrieben, Windows sollte einfach nur aufhören intelligent sein zu wollen und die E-Cores ganz einfach mit zweiter Priorität behandeln. Wie ein Zwischending zwischen echten Kernen und Hyperthreads.

Bei der CPU ist überhaupt nichts broken.
Wenn du weiter mit Windows 10 rumkrebst obwohl Intel dies ausdrücklich dies empfiehlt, ist das dein Problem.
Der Thread Director funktioniert laut Intel nur in Verbindung mit Windows 11 korrekt. Das war auch schon vor dem Launch bekannt.

All die "Probleme" die du hast, habe ich nicht. Ich habe auch direkt ein frisches Windows 11 installiert.
Dementsprechend kann sich auch problemlos jeder DAU einen Alder Lake PC kaufen ohne das er irgendwelche Performance Probleme zu haben oder das noch irgendwas extra konfiguriert werden muss.
Dementsprechend ist auch nichts komplizierter oder schwieriger als bei einen Ryzen PC.
Und Windows kann gar nicht zwischen "echten" Kernen E Kernen und "Hyperthreads" unterscheiden. Wo hast du denn den Schwachsinn her?
Für Windows existieren existieren bei einen 12900K nur 24 logische Prozessoren. Wie dann die CPU die Last verteilt, macht diese selber, deswegen ist es ja auch essentiell wichtig das der Thread Director korrekt funktioniert. Da wird man mit Windows 10 nie auf einen grünen Zweig kommen.

Wenn man nicht auf Windows 11 "upgraden" will, sollte man sich keinen Alder Lake mit E Cores holen. Für die anstehenden i5 6 Kerner und i3 4 Kerner ohne E Cores sollte das aber kein Problem sein.

danke für den hinweis. ist korrigiert.



mit undervolting der 3080 und limitierung auf 150w beim 12900k wäre es gegangen. aber die 3080 peakt bei 1900mhz genauso wie die 3090 mit 1750mhz. es kam immer wieder vor das die peaks die schutzschaltungen getriggert haben. mit alderlake hab ich dann ein günstiges gutes NT geordert und es läuft.

Das Netzteil was jetzt in deiner Signatur steht ist vielleicht günstig, aber definitiv nicht gut. Es ist sogar hochgefährlich und könnte einen Brand auslösen.
Bei Gamers Nexus sind die Gigabyte Netzteile schon bei 60% Last hochgegangen und haben einmal sogar eine 3080 mitgenommen. Gerade bei den aktuellen GPU Preisen ist das definitiv am falschen Ende gespart.

aACtT_rzToI

7JmPUr-BeEM

Wenn möglich sofort umtauschen.

iamthebear
2021-12-08, 02:34:13
Okay, um allen Wünschen zu entsprechen, habe ich mich noch einmal für ein paar Stunden drangesetzt und die Kernspannung für jede Taktfrequenz und Kernkonfiguration erfasst.

Da es gewünscht war, finden sich nun auch 8 Performance-Kerne ohne HT im Diagramm

Danke du bist der Beste:up::up::up::up::up:

Hier also noch einmal die Frequenzen, inklusive 8PC+8T samt durchschnittlich gemessener, anliegender Spannung, während der CPU-Z Stresstest lief.

https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png (https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png)

Das ist interessant:
.) 4GHz bei 1.236V auf den E Cores sollten ca. 5GHz bei 1.236V auf den P Cores entsprechen also +25% Takt für die P Cores.
.) Bei 1.008V sollten wir (linear hochgerechnet) bei 3.6 GHz vs. 3.15GHz sein also nur mehr 14% Taktvorteil für die P Cores
.) Bei 0.816V sollten es 2.1 GHz vs. 1.9GHz sein. Das sind dann nur mehr 10% Takvorteil

Oder umgekehrt: Wenn man die Spannung der P Cores um ein Drittel von 1.2V auf 0.8V reduziert so sinkt der Takt auf nur mehr ca. 40% ab während beim E Core noch fast 50% da sind.

Das dürfte die Aussage von Intel zur "Wide Frequency Range" sein, dass die E Cores den Takt etwas besser halten können wenn man ihnen die Spannung wegnimmt.

Und noch einmal die Performance-Zahlen ergänzt:

https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png (https://i.ibb.co/qBs2yLW/CPU-ZPoints-Core-Types.png)

Das würde bedeuten, dass bei 1.25W/Kern ca. der Punkt ist, wo es effizienter wird wenn man einzelne Threads von den P Cores auf die E Cores schiebt. Dies dürfte in etwa der Situation entsprechen wenn eine 6/8 Kern Notebook CPU im Batteriebetrieb läuft und dort die TDP auf 8-10W abgesenkt wird.

Es wundert mich doch sehr, wie gut die Automatik darin ist, die CPU zu untertakten, wenn man das Power-Limit senkt. Wobei manuell bestimmt noch viel mehr gegangen wäre. Doch Intel wird den Algorithmus so konzipiert haben, dass es mit 99,99% aller verkauften Consumer-CPUs absolut stabil läuft.

Afaik testet Intel ja jede einzelne CPU und verpasst ihr ihre eigene individuelle Spannungskurve. Da ist eigentlich nicht viel Reserve zu erwarten. Das was als Reserve existiert ist dafür da um den Alterungsprozess der CPU abzudecken wenn diese vielleicht nach 10 Jahren etwas mehr Spannung braucht als zuvor.

Doch es sollte auf keinen Fall reichen, um die anderen Kerne zu schlagen. Jedenfalls nicht bei 40 oder 65 Watt pro 8 E-Cores.

Denn nehmen wir an, die E-Cores wären mit weniger Spannung viel effizienter. Sie könnten maximal so schnell sein, wie bei 65W im dargestellten Ergebnis, da bei 4,0 Ghz Schluss ist.

Ja sehe ich auch so. Ich würde allerdings nicht sagen, dass die E Cores auf 3.7GHz so schlecht sind. Es ist eher so, dass die P Cores auch sehr gut und sehr weit nach unten skalieren.
Ob da jetzt noch etwas mehr bei der Spannung drin ist weiß ich nicht aber ich denke es wird nicht mehr oder weniger sein als bei den P Cores.

Was ich gemein bei den Intel CPUs finde ist, dass der Takt sowie die CPU Auslastung im Temperaturlimit häufig noch oben bleiben, die Performance allerdings schon einmal fröhlich anfängt zu sinken.
Das kann das Ganze ziemlich undurchsichtig machen, ich weiß auch nicht genau, wie es funktioniert.
Habe es beim 12900K mal beobachtet und auch damals beim 9900K.
Bis zum 9900K ging ich beim OC'en nämlich immer davon aus, dass alles in Ordnung sei, wenn überall der Takt gehalten wird.

Seltsam. Ich habe das einmal bei einem Tigre Lake (1165G7) beobachtet und dank relativ hohem PL2 ist mir der auch immer etwas ins Thermolimit gelaufen (zumindest bei Cinebench). Dabei hatber den Takt eigentlich immer gleich reduziert. E8n Delay ist mir damals nicht aufgefallen.
Wenn das bei ADL anders ist, dann deutet dies darauf hin, dass die Boostlogik es nicht schafft rechtzeitig zurückzuregeln und der alte Überhitzungsschutz greift dass die CPU im Mikrosekundenbereich kurz in und ausgeschaltet wird aber sonst grundsätzlich mit demselben Takt weiterläuft.

Selbes ist seltener auch zu beobachten, wenn die Spannung zu niedrig ist.
Man hält erstmal Ausschau danach, dass das System stabil läuft, dabei verliert es manchmal einfach Performance.

Wie das bei zu wenig Spannung passieren kann ist mir ein Rätsel. Das würde doch bedeuten, dass die CPU automatisch den Takt korrigiert wenn die Spannung zu niedrig ist.

Geldmann3
2021-12-08, 03:21:24
Wie das bei zu wenig Spannung passieren kann ist mir ein Rätsel. Das würde doch bedeuten, dass die CPU automatisch den Takt korrigiert wenn die Spannung zu niedrig ist.

Habe das manchmal im Cinebench gesehen. Bei zu wenig Spannung wurde in CPU-Z noch auf allen Kernen der volle Takt angezeigt, die Auslastung war im Taskmanager überall auf 100% und dann plötzlich 10% weniger Punkte. :freak:

Fand ich auch seehr komisch. Passiert vor allem, wenn man das Temperatur-Limit trifft. Komischerweise wird es dann manchmal wieder besser mit mehr Spannung.
Doch praktisch ist es sowieso nicht, sich dort zu bewegen, da man mit mehr Spannung dann noch mehr Hitze produziert.

Bei der CPU ist überhaupt nichts broken.
Wenn du weiter mit Windows 10 rumkrebst obwohl Intel dies ausdrücklich dies empfiehlt, ist das dein Problem.
Der Thread Director funktioniert laut Intel nur in Verbindung mit Windows 11 korrekt. Das war auch schon vor dem Launch bekannt.

Die Kritik halte ich für fehl am Platze.
Da ich es mit Windows 11 getestet habe und in einigen Applikationen sogar ein paar Prozent weniger Performance bekam.
Und da bin ich nicht der einzige. (https://youtu.be/XBFTSej-yIs?t=919)
Hat mich auch sehr gewundert, hatte mich direkt beim Umstieg eigentlich darauf vorbereitet direkt auf Windows 11 zu gehen, doch es hat sich für mich erstmal herausgestellt, dass es mehr Aufwand und Nachteile als Vorteile bringt. Dabei hatte ich mich schon richtig auf ein neues OS gefreut... Ich habe sogar eher noch ein negativeres Performance-Bild bekommen, als er im Video. Doch das scheint völlig Applikationsabhängig zu sein.

Vielleicht versuche ich es Ende des Jahres nochmal, wenn ich zwei Wochen frei habe.

Und Windows kann gar nicht zwischen "echten" Kernen E Kernen und "Hyperthreads" unterscheiden. Wo hast du denn den Schwachsinn her?
Wenn Windows das gar nicht kann, wie kannst Du dann einen Prozess auf einen bestimmten Thread festpinnen?
Pinne ein Programm z.b. auf Thread 0, dann nutzt dieses einen P-Core. Pinne es auf Thread 0 + 1, dann nutzt dieses einen P-Core + 1 Hyperthread.
Pinne ein Programm auf 0+2 und es nutzt 2 Threads und 0 Hyperthreads.
(Achtung, mit Alder-Lake kann dieses Festpinnen sehr verbuggt sein.)
Windows weiß, dass wenn es zwei nebeneinanderliegende P-Core-Threads verwendet, es einen echten Kern und einen Hyperthread bekommt.
Windows weiß, dass wenn es jeweils nur einen von zwei nebeneinanderliegenden Threads verwendet, es für jeden Thread einen ,,echten Kern" bekommt.
Windows weiß auch, dass Thread 16-23 E-Cores sind.
Weil dies MS bekannt ist.

Es ist auch nicht so, dass die virtuellen Threads physisch auf der CPU hin und herspringen würden, das sieht man an den Temperaturen.
Die verwendeten Thread-Arten scheinen für Windows also transparent und steuerbar zu sein.

iamthebear
2021-12-08, 03:46:00
Ich krame das noch einmal vor, weil es mir wichtig ist: Intel hat explizit von Performance und Verbrauch im Zusammenhang gesprochen. Zu sagen dass Intel das nie getan hätte ist leider die Unwahrheit. (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852945&postcount=13)

Das hast du etwas falsch verstanden.
Natürlich hat Intel versucht Gracemont möglichst stromsparend zu designen. Das versuchen sie mit jeder neuen CPU Generation und mit jeder neuen CPU Generation präsentieren sie hier ihre Fortschritte im Format "ist x % schneller als der Vorgänger bei gleicher Leistungsaufnahme" und "braucht y% weniger Energie bei gleicher Performance". Das sind branchenweit übliche Vergleichsmethoden und das wird z.B. von TSMC bei einer neuen Fertigungstechnologie genauso angegeben.
Das ist auch nicht gelogen, denn die E Cores sind nun mal deutlich energieeffizienter als Skylake, wobei mit Skylake z.B. der 6700K aus 2015 gemeint ist und nicht Comet Lake aus 2020.

Das hat aber überhaupt nichts big/little bei Intel zu tun. Der Grund warum E Cores zu den P Cores dazu gepackt werden liegt primär daran, dass man mehr Performance/Fläche erreichen kann, was für mehr Performance bei MT Last sorgt (throughput).
Die Energieeffizienz wird nur indirekt dadurch erhöht, dass man wenn man mehr Kerne zur Verfügung hat diese niedriger takten kann. Das gilt aber auch nur bei MT Last.

Geldmann hat ja in den Tests gut gezeigt, dass sofern man nicht in extrem niedrige Verlustleistungsregionen hinunter geht die P Cores bei ST Last energieeffizienter sind, deswegen denke ich, dass wir die Theorie "Intel verbaut E Cores zum Stromsparen" nun endgüotig begraben können.

Bei der CPU ist überhaupt nichts broken.
Wenn du weiter mit Windows 10 rumkrebst obwohl Intel dies ausdrücklich dies empfiehlt, ist das dein Problem.

Das Problem ist, dass es mit Win11 ja auch nicht ordentlich funktioniert siehe hier in SoTR:
https://youtu.be/wqB96Bdsb4M

Der Thread Director funktioniert laut Intel nur in Verbindung mit Windows 11 korrekt. Das war auch schon vor dem Launch bekannt.

Der Thread Director wird hier gar nicht benötigt. Was der Thread Director macht ist, dass er dem OS Informationen zur Verfügung stellt welcher Thread wie performant bzw. energieeffizient auf welchem Kern laufen würde, damit der Scheduler in Situationen wo alle 24 Threads belegt sind die Zuteilung noch etwas besser optimieren kann.

Das wird für Windows 10 aber alles überhaupt nicht benötigt. Was Win10 tun muss ist:
.) Zuerst jedem P Core 1 Thread zuteilen
.) Dann jedem E Core einen Thread zuteilen
.) Dann jedem P Core einen 2. Thread zuteilen

Das ist dasselbe Prinzip wie bei SMT nur dass es eben noch eine Stufe mehr gibt.

Es ist nicht so, dass Win10 ADL nicht erkennen würde. Es sind nur Microsofts wilden Stromsparkonzepte, die einfach komplett verbugged sind bzw. nicht ordentlich durchdacht wurden.

Und Windows kann gar nicht zwischen "echten" Kernen E Kernen und "Hyperthreads" unterscheiden. Wo hast du denn den Schwachsinn her?
Für Windows existieren existieren bei einen 12900K nur 24 logische Prozessoren. Wie dann die CPU die Last verteilt, macht diese selber, deswegen ist es ja auch essentiell wichtig das der Thread Director korrekt funktioniert. Da wird man mit Windows 10 nie auf einen grünen Zweig kommen.

Das ist definitiv falsch. Windows 10 konnte schon immer zwischen physischen CPUs und logischen CPUs unterscheiden. Das Problem gibt es ja bereits seit Nehalem 2009.
Und aktuelle Windows 10 Versionen können auch sehr wohl zwischen P Cores und E Cores unterscheiden. Dass Microsoft seinen Scheduler an neue CPU Generationen anpassen muss ist auch nichts Neues. Das war bei Ryzen auch notwendig, damit die Threads nicht wild von einem CCX zum nächsten geschoben werden wenn das nicht notwendig ist.
Selbst der Thread Director wird meines Wissens nach von Win10 unterstützt, nur eben in einer älteren Implementierung.

Und nein doe CPU teilt sich ihre Last nicht selbst ein. Das Scheduling übernimmt weiterhin das Betriebssystem. Neu ist mit dem Thread Director nur, dass die CPU mehr Diagnoseinformationen zur Verfügung stellen kann, die es dem OS erleichtert eine ideale Scheduling Entscheidung zu treffen.

Wenn man nicht auf Windows 11 "upgraden" will, sollte man sich keinen Alder Lake mit E Cores holen. Für die anstehenden i5 6 Kerner und i3 4 Kerner ohne E Cores sollte das aber kein Problem sein.

Das Netzteil was jetzt in deiner Signatur steht ist vielleicht günstig, aber definitiv nicht gut. Es ist sogar hochgefährlich und könnte einen Brand auslösen.
Bei Gamers Nexus sind die Gigabyte Netzteile schon bei 60% Last hochgegangen und haben einmal sogar eine 3080 mitgenommen. Gerade bei den aktuellen GPU Preisen ist das definitiv am falschen Ende gespart.

Sie sind bei 60% hoch gegangen nachdem sie zuvor mit 120% Dauerlast belastet wurden und die Notabschaltung ausgelöst hat. Ich wüsste nicht, wie ein 12900K mit 240W und eine 3080 mit 320W ein 850W Netzteil mit 120W auslasten könnten.

Aber ja neu kaufen sollte man die Dinger nicht und ich würde mich auch nicht so besonders wohl fühlen wenn eines davon in meinem Rechner sitzt.

Wenn möglich sofort umtauschen.

Solange nichts defekt ist wird man kaum etwas umtauschen können außer in den ersten 14 Tagen. Man kann es raus schmeißen und was neues kaufen. Die Dinger will jeder nur los haben und niemand zurücknehmen.

ryan
2021-12-08, 06:17:35
Okay, um allen Wünschen zu entsprechen, habe ich mich noch einmal für ein paar Stunden drangesetzt und die Kernspannung für jede Taktfrequenz und Kernkonfiguration erfasst.

Da es gewünscht war, finden sich nun auch 8 Performance-Kerne ohne HT im Diagramm.

Hier also noch einmal die Frequenzen, inklusive 8PC+8T samt durchschnittlich gemessener, anliegender Spannung, während der CPU-Z Stresstest lief.

https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png (https://i.ibb.co/vsK3fcG/Clock-Speed-Core-Voltage.png)



Die default Spannung beim 12900k liegt wirklich sehr hoch, also vor allem beim E-core. Raichu hat 0,9V bei 3.6 Ghz hinbekommen und default sind es bei dir 1,14V. Der 12900k ist im default Betrieb ganz klar nicht auf Effizienz ausgelegt.

mocad_tom
2021-12-08, 07:45:31
Igor hat einen artikel rausgehauen

https://www.igorslab.de/schlechte-kuehlung-bei-alder-lake-problemen-beim-sockel-lga-1700-auf-der-spur-samt-abhilfe/

ich nutze den noctua 1700er sockel kit und bei mir schaut das alles gut aus.

Rancor
2021-12-08, 08:49:11
Das ist aber schon krass! Das muss dingend Abhilfe geleistet werden. In der Automobilbranche gäbe es wegen so einem Fehler sicherlich einen Rückruf :freak:

Dr.Doom
2021-12-08, 09:30:23
Betrifft das "nur" die Kühlung oder hat das auch andere Auswirkung?

Lowkey
2021-12-08, 10:22:31
Erinnerst du dich an den Bug mit zu-fest-angezogenen-Schrauben-am-CPU-Kühler? Das hatte Einfluss auf den Speichertakt oder gar dessen Lauffähigkeit.


Bis jetzt jammern viele User über hohe Temperaturen in den Foren bei allen Alderlake CPUs.

Dr.Doom
2021-12-08, 11:06:36
Nuja... ich bin mir halt nicht so sicher, ob ich nicht "nur" durch noch unfertige Biose/Üfis geplagt bin.

Mein Z690-Board erkennt halt trotz XMP-Profil-Wahl die ganzen Einstellungen nicht und setzt (trotz XMP-Profil-Wahl) gruselige Timings (Primär, von den Secondary habe ich keine Ahnung, was hoch oder tief sein muss). Beim Z370/8700k war mit demselben Speicher als iO.
Beim Stressen (Cinebench20 oder MKVs berechnen) ist alles stabil und deutlich schneller als mit dem Z370/8700k (ok, diverse Kerne mehr...).
Aber wenn ich mal nicht am Rechner bin und der Bildschirmschoner schont das Bild, dann kommt es fast täglich vor, dass der Rechner eingefroren ist. Hatte das bisher auf den Speicher geschoben, da der sich komischer als mit dem alten Board verhält, aber es ist die Grafikkarte, die sich weghängt. Nach dem Reset des PCs sagt mir die AMD-Software dann, dass die Einstellungen wegen eines Fehler auf Standard zurückgestellt worden sind. Das ist in den zahlreichen Monaten mit dem alten Board und demselben Speicher nie passiert.

Aber wenn die CPU oder das Board sich kaputtgebogen haben, dann kann das natürlich auch auf den Speicher wirken -- und da mehr oder weniger der Speicher an allem beteiligt ist, was an so einem Rechner passiert, dann ist die GraKa wohl möglicherweise nur die Leidtragende, aber nicht zwingend die Ursache.

CPU-Temp ist -- trotz 150W-Grenze -- beim Cinebench20-Durchlauf bei ~70°C (Noctua NH-D15). Keine Ahnung, wie das zu bewerten ist, da ich bei nur zweistelligen Temperaturen i.A. nichtmal ein Jucken in der Hose bekomme.

Verdammte Hacke, ich sollte aufhören, Bananensoftware/Hardware direkt nach der Veröffentlichung zu kaufen.

12700k, ASUS-Board (https://www.forum-3dcenter.org/vbulletin/member.php?u=1736&tab=other2)

Dr@gonXP
2021-12-08, 11:19:27
Wenn Du einen 12900K hast, sind die Temperaturen völlig in Ordnung (70°C bei 150 Watt ist richtig gut). Was den Speicher angeht... ich weiß nicht, was Du für ein Mainboard hast, aber z.B. Gigabyte soll da sehr wählerisch sein...

mocad_tom
2021-12-08, 11:22:00
Ich habe jetzt hier

3 x Asus ROG Strix Z690-A Wifi D4
3 x Noctua NH-D9L
3 x den Noctua 1700er Sockelkit

Da passt alles perfekt.

Wo kann ich denn sehen, ob der Sockel ein Lotes-Sockel ist?

Die untere Konterplatte beim Noctua ist ziemlich cool gemacht, die Abstandsscheiben hin zum Mainboard haben exakt die Höhe wie diese Metallplatte, die auf der Unterseite des MoBo angeklebt ist.

Die Konterplatte überträgt kein Biegemoment auf die Platine und sitzt aber dennoch stramm.

Auch der NH-D9L ist jetzt kein Oberoschi (bei aufrechtem Mainboard wirken keine Riesenkräfte) und trotzdem führt er die wärme gut weg.

BlacKi
2021-12-08, 11:29:39
Das Netzteil was jetzt in deiner Signatur steht ist vielleicht günstig, aber definitiv nicht gut. Es ist sogar hochgefährlich und könnte einen Brand auslösen.


gut war vorallendingen auf die effizienz bezogen relativ zum preis.


ja, mag sein, das die schutzschaltungen nicht so gut sind wie bei den anderen netzteilen, aber gerade als geplagter von netzteil ausschaltungen ist das eigentlich kein bug sondern ein feature.


so wie bear schon geschrieben hat, diese fehler passieren nur out of spec.

da mach ich mir keine sorgen.

Nuja... ich bin mir halt nicht so sicher, ob ich nicht "nur" durch noch unfertige Biose/Üfis geplagt bin.

Mein Z690-Board erkennt halt trotz XMP-Profil-Wahl die ganzen Einstellungen nicht und setzt (trotz XMP-Profil-Wahl) gruselige Timings (Primär, von den Secondary habe ich keine Ahnung, was hoch oder tief sein muss). Beim Z370/8700k war mit demselben Speicher als iO.
Beim Stressen (Cinebench20 oder MKVs berechnen) ist alles stabil und deutlich schneller als mit dem Z370/8700k (ok, diverse Kerne mehr...).
Aber wenn ich mal nicht am Rechner bin und der Bildschirmschoner schont das Bild, dann kommt es fast täglich vor, dass der Rechner eingefroren ist. Hatte das bisher auf den Speicher geschoben, da der sich komischer als mit dem alten Board verhält, aber es ist die Grafikkarte, die sich weghängt. Nach dem Reset des PCs sagt mir die AMD-Software dann, dass die Einstellungen wegen eines Fehler auf Standard zurückgestellt worden sind. Das ist in den zahlreichen Monaten mit dem alten Board und demselben Speicher nie passiert.

Aber wenn die CPU oder das Board sich kaputtgebogen haben, dann kann das natürlich auch auf den Speicher wirken -- und da mehr oder weniger der Speicher an allem beteiligt ist, was an so einem Rechner passiert, dann ist die GraKa wohl möglicherweise nur die Leidtragende, aber nicht zwingend die Ursache.

CPU-Temp ist -- trotz 150W-Grenze -- beim Cinebench20-Durchlauf bei ~70°C (Noctua NH-D15). Keine Ahnung, wie das zu bewerten ist, da ich bei nur zweistelligen Temperaturen i.A. nichtmal ein Jucken in der Hose bekommen.

Verdammte Hacke, ich sollte aufhören, Bananensoftware/Hardware direkt nach der Veröffentlichung zu kaufen.

12700k, ASUS-Board
mein gigabyte board hat nichtmal auf gear 2 die xmp gebootet. und wenn man manuell 4300mhz gear 2 mem clock eingestellt hat, dann wurde einfach mal 4200 gebootet^^

das msi hier
https://geizhals.de/msi-pro-z690-p-ddr4-a2625668.html?hloc=at&hloc=de
macht keine mucken. alles bestens. bin echt zufrieden.

robbitop
2021-12-08, 12:47:37
Das ist definitiv falsch. Windows 10 konnte schon immer zwischen physischen CPUs und logischen CPUs unterscheiden. Das Problem gibt es ja bereits seit Nehalem 2009.
SMT gibt es bei Intel schon länger. Intel Pentium 4 Northwood. Kam 2002 raus. Also musste bereits Windows XP mit SMT arbeiten. :)

Dr.Doom
2021-12-08, 13:55:30
mein gigabyte board hat nichtmal auf gear 2 die xmp gebootet. und wenn man manuell 4300mhz gear 2 mem clock eingestellt hat, dann wurde einfach mal 4200 gebootet^^Ok, ich hab' halt nur harmlosen 3200Mhz/CL14-Speicher (XMP, 14-14-14-38).
Das Z690-Board macht beim XMP I/II-Profil, dann 19+ Timings daraus.

Lehdro
2021-12-08, 14:37:01
SMT gibt es bei Intel schon länger. Intel Pentium 4 Northwood. Kam 2002 raus. Also musste bereits Windows XP mit SMT arbeiten. :)
Wobei bei SMT nur wichtig ist das zuerst nacheinander alle Kerne "überspringend" genutzt werden, also 0, dann 2 dann 4 etc. Und erst dann 1,3 und 5. Ob ich einen Thread auf Kern 0 oder 1 lege sollte keinen Unterschied machen, solange der jeweils andere, als physisch derselbe Kern, nicht belastet wird. Right?


Das ist auch nicht gelogen, denn die E Cores sind nun mal deutlich energieeffizienter als Skylake.
Ich glaube du hast mich massiv missverstanden, wie du auch schön selbst bei der Argumentation gezeigt hast. Du sprichst erst den Kernen die Energieeffizienz ab, kommst dann aber mit genau dem Argument um die Ecke das ich als Bestätigung benutzt habe, danke für die Blumen ;)

Dr@gonXP
2021-12-08, 15:04:00
Ok, ich hab' halt nur harmlosen 3200Mhz/CL14-Speicher (XMP, 14-14-14-38).
Das Z690-Board macht beim XMP I/II-Profil, dann 19+ Timings daraus.


Hast Du ein Gigabyte Board? Wenn ja, steht der RAM auf der QVL Liste?

iamthebear
2021-12-08, 15:24:36
Ich glaube wir reden aneinander vorbei. Der Punkt ist nicht, dass die E Cores so ineffizient wären. Der Punkt ist, dass auch die P Cores sehr effizient sind wenn man sie nur weit genug runter taktet und wie Geldmann ja schon gezeigt hat ist bei allem über 1W/Thread der P Core energieeffizienter sofern er mit derselben Performance betrieben wird wie die E Cores.
Das ist nichts Neues. Das wird seit Jahren im Mobilbereich so praktiziert, dass sich die CPUs im Batteriebetrieb kräftig runter takten.

Lehdro
2021-12-08, 16:06:16
Das ist nichts Neues.
Das hat auch nie jemand bezweifelt soweit ich weiß. :)

Geldmann3
2021-12-08, 16:42:39
Wobei bei SMT nur wichtig ist das zuerst nacheinander alle Kerne "überspringend" genutzt werden, also 0, dann 2 dann 4 etc. Und erst dann 1,3 und 5. Ob ich einen Thread auf Kern 0 oder 1 lege sollte keinen Unterschied machen, solange der jeweils andere, als physisch derselbe Kern, nicht belastet wird. Right?

Ja, das ist richtig so.
Denn einer von zwei nebeneinanderliegenden Threads ist immer ein Hyperthread.
Beim 12900K sollten die Kerne dementsprechend in dieser Reihenfolge benutzt werden, wenn man maximale Performance möchte. 0, 2, 4, 6, 8 ,10 ,12 ,14 , 16, 17, 18, 19, 20, 21, 22, 23, 1, 3, 5, 7, 9, 11, 13, 15
Die beiden dicken Blöcke kann man in der Reihenfolge auch vertauschen. Der leichter beanspruchte Thread von zweien ist ein Hyperthread. Jedoch sollte man das Risiko auf einen Hyperthread zu stoßen erst dann eingehen, wenn man die E-Cores bereits verwendet, daher sind diese dazwischen geschoben. Bei einigen Anwendungen sollte man gar nur einen der dicken Blöcke verwenden. Einige Games werden beispielsweise langsamer, wenn Hyperthreads oder E-Cores mitspielen, da die schnellen Threads dann auf diese warten müssen.

Theoretisch kann es auch Sinn machen, einer Anwendung bewusst einen Kern und den dazugehörigen Hyperthread zu geben, da Daten dann lokal geteilt werden können.
Doch ich denke dieser Vorteil ist wirklich eher theoretischer Natur.

Habe noch keinen Fall gesehen, in dem ein Hyperthread einen E-Core schlägt.

Außer bei der Energieeffizienz, da sind die Hyperthreads ungeschlagen.

https://i.ibb.co/Ry63ZVS/12900-K-Performance-Watt-Kopie.png (https://i.ibb.co/pzDQG2f/12900-K-Performance-Watt.png)

Jetzt fragt ihr euch vielleicht, warum die E-Cores hier doch wieder effizienter waren?
Na, weil die CPU @Stock und die P-Cores damit an der Kotzgrenze liefen. :wink:

Das ergibt ein anderes Bild als ein Test mit normierter Wattage.

Hmm, wenn man so drüber nachdenkt... Wenn man die P-Cores hart an der Kotzgrenze betreibt, dann sind die Effizienzkerne doch wieder echte Effizienzkerne. :D Die E-Cores kriegt man gar nicht erst so ineffizient, so sehr man sich auch anstrengt, da sie nicht weit über die 4,0Ghz hinauskommen.

robbitop
2021-12-08, 17:20:09
Wobei bei SMT nur wichtig ist das zuerst nacheinander alle Kerne "überspringend" genutzt werden, also 0, dann 2 dann 4 etc. Und erst dann 1,3 und 5. Ob ich einen Thread auf Kern 0 oder 1 lege sollte keinen Unterschied machen, solange der jeweils andere, als physisch derselbe Kern, nicht belastet wird. Right?
Dann halt 2005 mit Smithfield und Presler. Netburst mit 2 Cores und SMT. ;)

--------
Zu den E-Cores. Selbst mit 10W also 1,25W sind ja bei Geldmann's Tests die P-Cores noch effizienter. Gut die Frage ist, wie sich das ggf darunter noch deutlich ändert (das kann man z.B. dann mit Raptorlake sehen, weil dort dann 16C verbaut werden und die dann bei der 10W Grenze dann nur noch 0,625W pro Core haben). IMO ist die Spreizung zwischen E und P in Bezug auf Effizienz aber noch nicht besonders toll (zumindest ist sie bis zu den 10W noch nicht wirklich sichtbar). Das machen andere heterogene Designs besser.
Aber wahrscheinlich wollte man mit den E Cores einfach "zu viel" Performance (bzw zu wenig Performanceunterschied zu den P) als das man da großartig unterschiedliche Spreizung rausholen zu können scheint. Die Differenz zwischen Fire und Ice Storms ist IIRC deutlich größer - sowohl in Bezug auf absolute Leistung als auch Effizienz.

Dr@gonXP
2021-12-08, 17:44:26
Hier mal ein aktueller Test von meinem 12900K mit dem MSI Z690 Tomahawk DDR4

PL1 = 128 Watt
PL2 = 148 Watt (64 Sekunden)

Adaptive + Offset

CPU Core Voltage: Auto

Offset: -150mv

MSI Lite Load: Auto

RAM@3600Mhz (CL16) - SA Spannung = 1.021 Volt

https://abload.de/thumb/01u6kyy.jpg (https://abload.de/image.php?img=01u6kyy.jpg)

Ex3cut3r
2021-12-08, 18:05:33
Das Netzteil was jetzt in deiner Signatur steht ist vielleicht günstig, aber definitiv nicht gut. Es ist sogar hochgefährlich und könnte einen Brand auslösen.
Bei Gamers Nexus sind die Gigabyte Netzteile schon bei 60% Last hochgegangen und haben einmal sogar eine 3080 mitgenommen. Gerade bei den aktuellen GPU Preisen ist das definitiv am falschen Ende gespart.

https://youtu.be/aACtT_rzToI

https://youtu.be/7JmPUr-BeEM

Wenn möglich sofort umtauschen.

Kranker scheiß. Das scary Thing ist sogar das könnte sogar bei dir zu hause genauso auftreten. Wieso hat man einen 12900k, 3090, und verbaut so einen lächerlichen China Böller für 80€?

Blacki, tausch das Ding schnellst möglich aus, wenn dir deine teure HW länger herhalten soll. Und hol dir was anständiges für mindestens 120€ 750W NT z.B. hat mehr Qualität als dieses pseudo 850W Gigabyte Ding.

iamthebear
2021-12-08, 20:19:34
Bei einigen Anwendungen sollte man gar nur einen der dicken Blöcke verwenden. Einige Games werden beispielsweise langsamer, wenn Hyperthreads oder E-Cores mitspielen, da die schnellen Threads dann auf diese warten müssen.

Das Problem bei Spielen ist, dass in der Regel einer Thread limitiert. Landet dieser auf einem E Core geht die Performance in den Keller. Das würde sich von den Spieleherstrellern ganz einfach lösen lassen indem die limitierenden Threads einfach eine etwas höhere Priorität bekommen. Nur leider haben das anscheinend bisher viele Spielehersteller nicht gemacht haben, da Threadprioritäten bei SMT bisher nichts gebracht haben.

Theoretisch kann es auch Sinn machen, einer Anwendung bewusst einen Kern und den dazugehörigen Hyperthread zu geben, da Daten dann lokal geteilt werden können.

Doch ich denke dieser Vorteil ist wirklich eher theoretischer Natur.

Das Problem hast du erst dann, wenn gemeinsamer Speicher verwendet wird, der auch regelmäßig beschrieben wird. Nur lesend hat einfach jeder Kern eine eigene Kopie der Daten im L1/2.
Wird schreibend zugegriffen, so existiert das Phänomen tatsächlich und die Auswirkungen können theoretisch ziemlich extrem sein. Ich habe das einmal mit einem Dual Core Athlon64 probiert: Ein Thread zählt einen Counter hoch, der andere runter. Mit 2 Kernen ist das eine Katastrophe. Da liegen mehr als 10x dazwischen.
In der Praxis dürfte das allerdings relativ selten sein, da wechselndes Beschreiben meistens sowieso nicht Thread safe ist (es sei denn man verwendet atomare Operationen) und man solche Operationen sowieso immer synchronisieren muss.

Habe noch keinen Fall gesehen, in dem ein Hyperthread einen E-Core schlägt.

Eventuell wenn es wirklich eine extrem RAM intensive Anwendung ist und der Hyperthread nichts blockiert, da er nur RAM random Reads auslöst, bei denen jedoch etwas schneller ist dank besserer Latenz aber das ist alles Spekulation.

Hmm, wenn man so drüber nachdenkt... Wenn man die P-Cores hart an der Kotzgrenze betreibt, dann sind die Effizienzkerne doch wieder echte Effizienzkerne. :D Die E-Cores kriegt man gar nicht erst so ineffizient, so sehr man sich auch anstrengt, da sie nicht weit über die 4,0Ghz hinauskommen.

Die Frage ist ob Leute, die ihren 12900K mit 240W laufen lassen unbedingt so ein großes Bedürfnis nach Energieeffizienz haben ;D

Was Sinn ergeben würde (eventuell auch für AMD) ist wenn man eine Schnittstelle schafft mit dem der Scheduler den Takt einzelner Kerne beeinfluswsen kann. Dann könnte Windows z.B. seine Hintergrundupdates auf einen freien Kern legen (ob P Core oder E Cores ist egal) und diesem den Takt auf die Hälfte reduzieren.
Oder umgekehrt: Die vollen 5.3GHz ST Boost bekommen dann nur Vordergrundanwendungen. Der Rest muss mit 4GHz auskommen. Durch verschiedene Energiesparprofile könnte man das ja schön dynamsich steuern (CPU Leistung für Anwendungen im Fokus/nicht im Fokus/Hintergrund).

Dann halt 2005 mit Smithfield und Presler. Netburst mit 2 Cores und SMT. ;)

So viel ich das in Erinnung habe konnte Windows XP damals noch nicht richtig mit SMT umgehen. Das hat aber nicht wirklich jemanden gestört, da man die Anwendungen, die überhaupt 2 Kerne nutzen an einer Hand abzählen konnte und es auch bei Weitem noch nicht so viele Hintergrundtasks (vor allem während Benchmarks) gab als dass das eine Rolle gespielt hätte. Die paar MT Anwendung haben dann ja 4 Threads genutzt und da war es dann ja wieder egal.

Mit dem Core 2 war es dann ja wieder egal, da es kein SMT mehr gab.

Erst mit Nehalem wurde das dann wieder ein Thema und ich kann mich noch daran erinnern, dass einige Spiele mit Nehalem bei aktiven SMT deutlich schlechter liefen (damals schon mit Win7).

1-2 Jahre später bei den Nachtests waren die Probleme dann alle Geschichte. Meine Vermutung ist, dass MS mit Win7 SP1 den Scheduler aktualisiert hat.

IMO ist die Spreizung zwischen E und P in Bezug auf Effizienz aber noch nicht besonders toll (zumindest ist sie bis zu den 10W noch nicht wirklich sichtbar). Das machen andere heterogene Designs besser.

Wurde solche Tests mit anderen Hybriddesigns denn überhaupt schon durchgeführt? Ich wäre mir da nicht so sicher, ob dies bei Smartphone CPUs nicht teilweise ähnlich aussieht.
Der entscheidende Unterschied zwischen Smartphone und der Windows Welt ist der connected Standby. Bei einem Smartphone geht es bei den Little Cores weniger um den Verbrauch unter Last, sondern mehr um den Idle Verbrauch im Connected Standby und hier sind die E Cores natürlich klar im Vorteil. Das wird sich aber auf einem 12900K nicht wirklich testen lassen.

Aber wahrscheinlich wollte man mit den E Cores einfach "zu viel" Performance (bzw zu wenig Performanceunterschied zu den P) als das man da großartig unterschiedliche Spreizung rausholen zu können scheint. Die Differenz zwischen Fire und Ice Storms ist IIRC deutlich größer - sowohl in Bezug auf absolute Leistung als auch Effizienz.

Anandtech hat hier einen Test gemacht:
https://www.anandtech.com/show/16192/the-iphone-12-review/2

10x Verbrauch
3.2x (INT) bzw. 4.4x (FP) Performance

Bei ADL:
3.3X Verbrauch (20W vs. 6W)
2x Performance

Sieht so aus als hätte Apple hier den doppelten Unterschied sowohl was Performance als auch was Verbrauch angeht.

Wo Intel erfolgreicher war ist bei der Flächeneffizienz.
Wenn ich nach dem Die Shot gehe würde ich bei Apple wenn man den L2 mitzählt ca. ein Verhältnis von 1:2 von Big zu Little Cores schätzen. Bei Intel ist es 1:4 und das bei weniger Performanceunterschied.

Man muss hier jedoch fairerweise dazu sagen, dass der Flächenbedarf bei Apple mit ihren 2 Efficiency Cores beim M1 kein Thema ist bzw. die P Cores von Intel jetzt nicht wirklich kompakt sind.

Lowkey
2021-12-09, 00:00:24
Intel Core i9-12900K Alder Lake Tested at Power Limits between 50 W and 241 W (https://www.techpowerup.com/review/intel-core-i9-12900k-alder-lake-tested-at-various-power-limits/)

Und zwischen 100w und 125w liegt der Traumwert. Genau müsste man in 1w Schritten austesten.

Geldmann3
2021-12-09, 00:27:35
Freut mich zu sehen, dass sie in diesem Fall zu sehr ähnlichen Ergebnissen kamen wie ich, habe sowas (so umfangreich) zum ersten Mal gemacht und Bedenken gehabt irgendwas völlig falsch gemacht haben zu können.

Meine Darstellungsweise (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852240&postcount=530) halte ich allerdings für übersichtlicher, man muss nicht alles in Balkendiagramme pressen. :D

Platos
2021-12-09, 00:58:08
Und Techpowerup testet immer noch nur avg FPS. Sie haben zwar Frametimegraphen, aber nur von 50W und 241W.

Lowkey
2021-12-09, 08:49:12
Ich suche gerade den Effizienzvergleich Zen3 vs Alderlake und theoretisch gewinnt Zen3 mit mehr als 8 Kernen (5900x/5950x) immer noch.

Zweitens finde ich nicht die Antwort auf folgende Frage: befindet sich der Arbeitsspeicher auch im Powerlimit der CPU und kann dadurch je nach Anwendung langsamer 1 Volt Speicher bessere Ergebnisse produzieren als 1.35v Speicher? Ok Speicher macht meistens nur 10-30w aus, aber immerhin.

robbitop
2021-12-09, 09:01:29
@iamthebear
Der Punkt war, dass MS und auch Entwickler in der x86 Windows Welt seit bald 20 Jahren SMT in Serien HW hatten. Extrem viel Zeit und es ist selbst heute noch nicht immer ganz ideal.

Bzgl Effizienz: scroll im AT Artikel weiter runter. Auf der linken Seite des Graphs siehst du die für den zu erledigenden Test in Spec die verbrauchte Energie. Also ISO Arbeit. Und da ist Icestorm Welten vor Firestorm.
Und diese Kerne kommen auch in den M1 (15W), M1 pro (45W) und M1 Max (60W) zum Einsatz.

dildo4u
2021-12-09, 13:08:59
Z690 Boards im Bereich 200-300$ im VRM Test.


6g3yiA1YREc

ryan
2021-12-09, 13:45:24
Z690 Boards im Bereich 200-300$ im VRM Test.


https://youtu.be/6g3yiA1YREc



Mal kurz zusammengefasst: Gigabyte sieht nicht gut aus und Asrock glänzt mit Abwesenheit, weil sie kein Vertrauen in ihre Boards haben. Wie erwartet machen Asus und MSI die beste Figur.

Dr@gonXP
2021-12-09, 18:16:33
Zum Thema Temperatur, Leistung, Effizienz hab ich eben mal einen anderen Ansatz verfolgt... Ich habe dem 12900K@default (241/241 Watt) laufen lassen und mal nachgesehen, was die CPU sich so genehmigt, bei Dingen, die ich so alltäglich mit dem Rechner mache.

Bei mir kamen max. 151,845 Watt raus.

iamthebear
2021-12-09, 21:53:16
Intel Core i9-12900K Alder Lake Tested at Power Limits between 50 W and 241 W (https://www.techpowerup.com/review/intel-core-i9-12900k-alder-lake-tested-at-various-power-limits/)

Bei dem Test ist irgendetwas gröber schief gegangen. Beim Gesamtrating fällt es nicht so auf, da auch viele ST Anwendungen dabei sind aber dass z.B. Cinebench R23 bei 125W nur mehr 65% Performance hat (das wären etwas über 3GHz) kann ich beim Besten willen nicht glauben. CB ist hier auf 87% gekommen bzw. 63% bei 65W. Hardwareluxx hatte 83% bei 125W. Ich vermute einmal da waren die E Cores deaktiviert.

Und zwischen 100w und 125w liegt der Traumwert. Genau müsste man in 1w Schritten austesten.

Der "Traumwert" liegt bei einem bestimmten Takt (z.B. 4.4GHz) über dem die Verlustleistung. Ja nachdem wie intensiv die Anwendung die CPU nutzt wird das mehr oder weniger Verlustleistung entsprechen.

Beispiel:
In Cinebench sind 4.4GHz um die 150W
Bei Anno 1404 in 1440p werden selbst bei 5GHz nur 40W verbraucht

Ich suche gerade den Effizienzvergleich Zen3 vs Alderlake und theoretisch gewinnt Zen3 mit mehr als 8 Kernen (5900x/5950x) immer noch.

Das ist stark abhängig von der Anwendung TDP.

CB hat die Anwendungsperformance verglichen. Bei 88W schlägt der 5900X den 12900K um 9%.
Mit 125W ist der 12900K jedoch gleichauf mit dem 5900X ohne Limit (glaube das sind dann 140W).

Bei Spielen mit AMD GPU hatte der 12900K im Test von igor 17W weniger Verbrauch als der 5900X.

Zweitens finde ich nicht die Antwort auf folgende Frage: befindet sich der Arbeitsspeicher auch im Powerlimit der CPU und kann dadurch je nach Anwendung langsamer 1 Volt Speicher bessere Ergebnisse produzieren als 1.35v Speicher? Ok Speicher macht meistens nur 10-30w aus, aber immerhin.

Der RAM selbst ist nicht enthalten aber der Memory Controller. Der hat ca. 2W und liefert einen eigenen Messwert d.h. mit 10W TDP kommen 2W vom DRAM Controller und 8W vom Rest.

@iamthebear
Der Punkt war, dass MS und auch Entwickler in der x86 Windows Welt seit bald 20 Jahren SMT in Serien HW hatten. Extrem viel Zeit und es ist selbst heute noch nicht immer ganz ideal.

In den ersten Jahren (bis 2009) war es wie gesagt nicht wirklich relevant und ich finde das funktioniert im Großen und Ganzen schon sehr gut.
Was bleibt ist der folgende Problemfall für den es jedoch keine einfache Lösung gibt:
.) Ein Thread mit hoher Priorität läuft auf einem Kern.
.) Ein 2 Thread hat eine niedrigere Priorität

Sollen nun beide Threads auf einen Kern geschoben werden, damit man in Summe 30% mehr Performance erhält aber dann läuft der High Priority Thread um 35% langsamer
Oder soll der 2. Thread warten, damit der 1. Thread die maximale Performance hat aber dann ist es halt insgesamt langsamer.

Das Hauptproblem ist jedoch weiterhin, dass ein Großteil der Software nicht wirklich parallelisiert wird.

Bzgl Effizienz: scroll im AT Artikel weiter runter. Auf der linken Seite des Graphs siehst du die für den zu erledigenden Test in Spec die verbrauchte Energie. Also ISO Arbeit. Und da ist Icestorm Welten vor Firestorm.
Und diese Kerne kommen auch in den M1 (15W), M1 pro (45W) und M1 Max (60W) zum Einsatz.

Es ist wie bei ADL: Die Ice Storm Kerne sind effizienter aber eben bei deutlich niedrigerer Performance, nur dass sich hier die Frage ob man die Firestorm Kerne runter takten kann erübrigt da der Performanceunterschied so groß ist.

Aber wenn ich das mal mit ADL vergleiche:

ADL:
2xPerformance
für 3.3x Verbrauch
bedeutet 1.65x Effizienz der E Cores

M1:
3.2x bis 4.4x Performance
für 10x Verbrauch
bedeutet 2.3x bis 3.1x Effizienz der Icestorm Kerne

Also selbes Prinzip:
Man opfert mehr Performance, erhält dafür aber auch mehr Effizienz


Allerdings habe ich bei der Überlegung noch eines nicht bedacht:
Wer sagt denn, dass die Icestorm Kerne beim M1 überhaupt so ans Limit getaktet wurden wie sie es bei ADL sind. Genauso werden die Firestorm Kerne nicht so an der Kotzgrenze sein. Die ziehen ja auch keine 200W
Schauen wir uns einmal an, wie das bei ADL aussehen würde wenn man mittel getaktete P Cores mit eher niedrig getakteten E Cores vergleicht (CPU-Z Werte von Geldmann):

8 P Cores @ 65-2W (die 2W DRAM Controller ziehe ich ab):
7.875W/Kern
4946 Punkte

8 E Cores @ 10-2W:
1W/Kern
1680 Punkte

Das wären 3x Performance
Für 7.8x Verbrauch
E Cores 2.7x Effizienz

Das wäre doch gar nicht so weit von den Werten von Apple entfernt.

Zum Thema Temperatur, Leistung, Effizienz hab ich eben mal einen anderen Ansatz verfolgt... Ich habe dem 12900K@default (241/241 Watt) laufen lassen und mal nachgesehen, was die CPU sich so genehmigt, bei Dingen, die ich so alltäglich mit dem Rechner mache.

Bei mir kamen max. 151,845 Watt raus.

Ja die 240W sind wirklich nur der Worst Case.
Igor hat den Gaming Verbrauch getestet. Besonders bei realistischen Auflösungen im teilweisen GPU Limit ist der CPU Verbrauch deutlich geringer als manche glauben:
https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/7/

Ich weiß nicht, ob sich Intel hier marketingtechnisch einen so großen Gefallen getan hat mit der 240W Entscheidung, denn die Mehrheit der Durchschnittsuser glaubt jetzt die 240W wären der Normalzustand.

ryan
2021-12-09, 23:46:13
Bei dem Test ist irgendetwas gröber schief gegangen. Beim Gesamtrating fällt es nicht so auf, da auch viele ST Anwendungen dabei sind aber dass z.B. Cinebench R23 bei 125W nur mehr 65% Performance hat (das wären etwas über 3GHz) kann ich beim Besten willen nicht glauben. CB ist hier auf 87% gekommen bzw. 63% bei 65W. Hardwareluxx hatte 83% bei 125W. Ich vermute einmal da waren die E Cores deaktiviert.



Ja das sieht nicht normal aus, von 100W zu 190W gibt es einen 80% performance Boost im Cinebench R23, obwohl die Skalierung in jedem anderen Test ab 125-150W sehr stark abnimmt.

Das passt nicht zu diversen user Messungen: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12852240&postcount=530


Ist zwar nur Cinebench R20, aber das kann nicht so einen krassen Unterschied zur R23 machen. Igendwas ist komplett schief gegangen bei techpowerup, so kann man den ganzen Test komplett vergessen. Komisch das die nicht selber stutzig geworden sind, es gibt genügend scaling Tests von anderen Leuten.

Geldmann3
2021-12-10, 00:56:46
Interessant, der 12900K ist wesentlich effizienter in Gaming als der 5950X.

https://i.ibb.co/tpgNZ2r/12900-K-der8auer.png (https://i.ibb.co/v4prsdn/12900-K-der8auer.png)


Quelle:

SjEjQnWPE6g

Tigershark
2021-12-10, 11:12:17
äh ja... DDR5-6000 --> höhere FPS --> auf magische Weise bessere Perf/W. Ein Schelm...

BlacKi
2021-12-10, 12:07:58
äh ja... DDR5-6000 --> höhere FPS --> auf magische Weise bessere Perf/W. Ein Schelm...


die unterstellung :biggrin:


als ob imc 1900 vs 1500 diesen unterschied ausmachen würde.

Twodee
2021-12-10, 12:33:04
Interessant, der 12900K ist wesentlich effizienter in Gaming als der 5950X.

https://i.ibb.co/tpgNZ2r/12900-K-der8auer.png (https://i.ibb.co/v4prsdn/12900-K-der8auer.png)


Quelle:

https://youtu.be/SjEjQnWPE6g
Wundert mich nicht.
PUBG nutzt doch nur max. 4 Threads, und unter Teillast waren die Intels doch schon immer besser als AMD. Mit einem 5600X sähe es vermutlich anders aus.

Geldmann3
2021-12-10, 13:00:40
Mit einem 5600X sähe es vermutlich anders aus.

Nein, siehe zum Beispiel hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12855860&postcount=567), oder hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12862563&postcount=699).

Twodee
2021-12-10, 13:03:42
Nein, siehe zum Beispiel hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12855860&postcount=567), oder hier (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12862563&postcount=699).
Sehe da kein PUBG

Geldmann3
2021-12-10, 13:04:47
Ach so, oh sorry, da könntest Du Recht haben. ^^

Wahrscheinlich wird der 12900K jedoch auch hier bei gleicher Leistungsaufnahme schneller sein.
Da bei 65 Watt einzelne Kerne bereits ihren Boost voll ausfahren können.

Twodee
2021-12-10, 13:11:38
Ach so, oh sorry, da könntest Du Recht haben. ^^

Wahrscheinlich wird der 12900K jedoch auch hier bei gleicher Leistungsaufnahme schneller sein.
Da bei 65 Watt einzelne Kerne bereits ihren Boost voll ausfahren können.
Klar wird der 12900K *wieder* schneller sein (Geforce Driver overhead limit?) - aber der 5600X wird weniger verbrauchen als ein 5950X, bei ähnlicher Leistung (4 Kerne nutzt PUBG).

Tigershark
2021-12-10, 13:18:10
die unterstellung :biggrin:


als ob imc 1900 vs 1500 diesen unterschied ausmachen würde.

1500 vs. 1900? Versteh nicht worauf Du hinaus willst...
In Spec (DDR5-4800 (offiziell) = 38,4GiB/s) zu im Test (DDR5-6000 = 48,0 GiB/s) sind immerhin schlappe 25% mehr Bandbreite (beim 5950x sind es 13% mehr als spec).

Das und die Kombination mit einem spiel, das wenige Threads nutzt und man dann einen 8+4 Kerner gegen einen 16 Kerner vergleicht und daraus Schlüsse zieht wie effizient die eine oder andere CPU ist, halte ich für äußerst unprofessionell und schlicht sachlich falsch.

ryan
2021-12-10, 14:04:31
Das und die Kombination mit einem spiel, das wenige Threads nutzt und man dann einen 8+4 Kerner gegen einen 16 Kerner vergleicht und daraus Schlüsse zieht wie effizient die eine oder andere CPU ist, halte ich für äußerst unprofessionell und schlicht sachlich falsch.



Ein 12900k hat immer noch 8+8 Kerne, also auch 16 Kerne.

Lehdro
2021-12-10, 14:10:47
Wird schon so sein das overall der ADL deutlich effizienter ist, wieviel genau kommt auf den Anwendungsfall an. Bei Anno zum Beispiel wird er jede Zen 3 CPU äußerst effizient zersägen, bei anderen Spielen kann von Rückstand über Gleichstand bis hin zu Vorteil alles dabei sein. Kommt massiv auf das Spiel und die Konfiguration der Testsysteme an.

Siehe hier bei CB, er schluckt ungefähr so viel mehr wie er auch schneller ist. (https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/7/#abschnitt_leistungsaufnahme_in_spielen)
Oder bei CFX, da ist quasi alles dabei, man achte auf den Eigenvergleich bei den jeweiligen RAM Taktungen, da sind teilweise fast 40% Verbrauchsdifferenzen dabei. (https://www.capframex.com/tests/Alder%20Lake-S%2012900K%20ist%20der%20neue%20Gaming%20K%C3%B6nig)
Igor hat das ganze auch noch einmal schön nachgetestet und damit erübrigt sich auch die Frage nach der richtigen Aussage: It depends. (https://www.igorslab.de/core-i9-12900kf-und-ryzen-5950x-gegen-geforce-rtx-3090-und-radeon-rx-6900xt-wenn-amd-nvidia-mag-und-intel-alles-egal-ist-nachgetestet/)

Lowkey
2021-12-10, 14:20:42
Wenn nun jeden Tag Alpha-Bios-Mods erscheinen, damit zB. Samsung DDR5 überhaupt auf den Brettern läuft, dann wird es noch 1% und mehr an Leistung bei Alderlake geben.

Ich habe gerade im Alternate Outlet einen 12700k gekauft und wenn meine Rechnung aufgeht, dann kostet mich das Upgrade mit CPU, Asus ITX Board und 6000er DDR5 am Ende 380 Euro.

Tigershark
2021-12-10, 14:29:56
Ein 12900k hat immer noch 8+8 Kerne, also auch 16 Kerne.

Das ist natürlich richtig. Ich hätte besser schreiben sollen 24 threads vs. 32 threads. Der 5900X ist sicher näher dran.

Andererseits wäre es auch echt schade, wenn intel da nicht nach dieser Zeit zumindest ein wenig vorne läge.

Der Einfachheit halber könnte man den 12900K mit abgeschalteten E-Cores gegen einen 5800X vergleichen, dann hat man wirklich Äpfel mit Äpfeln...

iamthebear
2021-12-10, 22:01:15
1500 vs. 1900? Versteh nicht worauf Du hinaus willst...
In Spec (DDR5-4800 (offiziell) = 38,4GiB/s) zu im Test (DDR5-6000 = 48,0 GiB/s) sind immerhin schlappe 25% mehr Bandbreite (beim 5950x sind es 13% mehr als spec).

Wenn man nach dem geht, was "in spec" ist, dann müsste man bei DDR4 3200 CL22 nehmen (37.5% höhere Latenz) vs. DDR5 4400 CL32 (14.4% höhere Latenz).
Allerdings ist dieser Vergleich vollkommen sinnlos, da kein Mensch mehr CL22 bei DDR4 3200 verwenden würde in so einem System.

Wo du allerdings Recht hast ist, dass CL18 bei DDR4 3600 nicht unbedingt berauschend sind. Hier gibt es RAM mit deutlich besseren Latenzen während DDR5 6000 CL38 so ziemlich das beste darstellt, was es aktuell nicht zu kaufen gibt.

Das und die Kombination mit einem spiel, das wenige Threads nutzt und man dann einen 8+4 Kerner gegen einen 16 Kerner vergleicht und daraus Schlüsse zieht wie effizient die eine oder andere CPU ist, halte ich für äußerst unprofessionell und schlicht sachlich falsch.

Es ging ja nicht um einen generellen Vergleich, sondern gezielt um einen Vergleich der Effizienz beim Gaming. Da Spiele meistens nur 6-8 Threads auslasten. Ja der 5900X wäre meiner Meinung nach auch der sinnvollere Vergleich gewesen allerdings ist der Vergleich mit dem 5950X auch legitim. Beides ist das jeweilige Topmodell und wenn man die gesamten Plattformkosten vergleicht, so spielen beide im selben Preissegment. Ich würde sogar sagen, dass ein DDR5 12900K System derzeit teurer kommt (sofern man überhaupt den RAM bekommt).
Der 12900K gewinnt eindeutig bei der Spieleperformance und Effizienz bei Spielen, umgekehrt darf sich der 5950X damit rühmen, dass er bei Multimediaanwendungen, die 32 Threads nutzen sowohl deutlich schneller als auch effizienter ist.

Was die Ergebnisse angeht, so hat Igor in einem Nachtest festgestellt, dass der Verbrauch des 5950X beim Gaming stark von der verwendeten GPU abhängt. Dieser verbraucht mit Nvidia Karten interessanterweise deutlich weniger (trotzdem höherem Performance Overhead):
https://www.igorslab.de/core-i9-12900kf-und-ryzen-5950x-gegen-geforce-rtx-3090-und-radeon-rx-6900xt-wenn-amd-nvidia-mag-und-intel-alles-egal-ist-nachgetestet/

Da der8auer aber mit einer Nvidia Karte getestet hat und auch auf relativ hohe Verbrauchswerte des 5950X gekommen ist (bei Far Cry unter 1080p höher als die igor Werte unter 720p) denke ich, dass das vielleicht noch nicht ganz der Weisheit letzter Schluss war und da vielleicht noch etwas mehr dahinter steckt.

BlacKi
2021-12-10, 22:26:12
1500 vs. 1900? Versteh nicht worauf Du hinaus willst...
In Spec (DDR5-4800 (offiziell) = 38,4GiB/s) zu im Test (DDR5-6000 = 48,0 GiB/s) sind immerhin schlappe 25% mehr Bandbreite (beim 5950x sind es 13% mehr als spec).

Das und die Kombination mit einem spiel, das wenige Threads nutzt und man dann einen 8+4 Kerner gegen einen 16 Kerner vergleicht und daraus Schlüsse zieht wie effizient die eine oder andere CPU ist, halte ich für äußerst unprofessionell und schlicht sachlich falsch.


ich dachte du spielst auf den höheren imc takt an, der bei gear 1 anliegt. ansonsten hat intel im test nur nachteile die den verbrauch erhöhen.

Edgecrusher86
2021-12-11, 08:57:06
Kranker scheiß. Das scary Thing ist sogar das könnte sogar bei dir zu hause genauso auftreten. Wieso hat man einen 12900k, 3090, und verbaut so einen lächerlichen China Böller für 80€?

Blacki, tausch das Ding schnellst möglich aus, wenn dir deine teure HW länger herhalten soll. Und hol dir was anständiges für mindestens 120€ 750W NT z.B. hat mehr Qualität als dieses pseudo 850W Gigabyte Ding.

Besser gleich was für 200-300€+, denn mit sub 1KW wird man die nächsten Jahre doch nicht mehr glücklich werden, was Highend-HW betrifft.
Mindestens 100A auf +12V und gut ist - also ich würde heutzutage nichts unter 1200W nehmen. Einmal gut kaufen, ist besser,
als mehrmals "klein" dimmensioniert; also neu und +100W drauf oder ähnliches - meine Meinung.
Wäre doch blöd, wenn das NT für Ampere ausreichend ist und bei Lovelace oder RDNA3 die weiße Fahne hisst, oder? ;)

Lowkey
2021-12-11, 09:52:23
Janein, denn man sieht doch an Seasonic, die mit drei Serien Titanium auf dem Markt sind und den Ruf haben, perfekt zu sein. Und dann stellt sich heraus, dass Seasonic doch tatsächlich die Schutzschaltungen ernst nimmt und bei neuen Grafikkarten einfach abschaltet. Nur alles ab 1000w ist sicher für aktuelle Karten geeignet. Bei zukünftigen Karten weiss man es nicht.

An dem Beispiel sieht man eben, dass man nicht auf Verdacht 1500+ Watt kaufen kann (Bequiet soll immer noch für massives Spulenfiepen stehen). Man braucht einfach eine aktuelle Kaufempfehlung:

https://forums.tomshardware.com/threads/psucultists-psu-tier-list-rev-14-8-final-update-jul-21.3624094/

https://www.tweakpc.de/hardware/tests/netzteile/



Gigabyte mit 850w hätte ich auch gekauft, wenn es zum Zeitpunkt X lieferbar gewesen wäre. Irgendwelche Leute in englischen Foren nannten es einen Geheimtipp. Wer weiss ob Gigabyte verschiedene Chargen auf den Markt brachte mit geändertem Innenleben?

dildo4u
2021-12-11, 09:59:20
12900kf für 580.

https://www.mindfactory.de/product_info.php/Intel-Core-i9-12900KF-LGA1700-8C-8c-24T--3-20-5-30GHz-WOF_1429032.html

Nicht wundert wenn ihr Probleme mit Gigabyte Z690 habt das Bios limitiert noch DDR4 OC.


https://youtu.be/Pv1pJluHX50

Geldmann3
2021-12-11, 12:01:31
Habe im Microsoft Flight Simulator getestet, wie es sich auswirkt, wenn ich die P-Cores und HT deaktiviere.
Du diesem Zweck habe ich die anforderungsreichste Szene genommen, die ich auf die Schnelle finden konnte, mit dem Flight Recorder aufgezeichnet und je 3x abgespielt und gebenchmarkt.

Der Flight Simulator ist ein Pain in the Ass zu benchmarken, stürzt zum Beispiel ab, wenn der Rivatuner Statistics Server im Hintergrund läuft. :mad::uhammer:
Und das Wetter scheint jedes Mal minimal anders zu sein, obwohl die eingestellten Bedingungen 1:1 übereinstimmen.

https://i.ibb.co/VLGPcJ7/Disable-ECores-HT.png (https://i.ibb.co/VLGPcJ7/Disable-ECores-HT.png)

;D Mit dem Ding kann man schon ein System hart in die Knie zwingen.

Beim Deaktivieren der E-Cores gewinne ich 14% Performance beim 1% low hinzu. Hyperthreading abzuschalten hingegen kostet 8% bei der durchschnittlichen Framerate. Hätte ich überhaupt nicht erwartet, da das die schwächsten Threads sind.

Die E-Cores abzuschalten bringt Performance, HT abzuschalten kostet hingegen Performance :confused:

Schaltet man HT und die E-Cores gleichzeitig ab, verliert man erstmals deutlich an durchschnittlicher Performance. (10%) Scheinbar genügt dem Flugsimulator die Anzahl der gesamten Rechenleistung nun nicht mehr ganz.

Der 5600X stürzt in dieser Szene gar komplett ab, wenn ich Hyperthreading deaktiviere, während der 9900K sogut wie gar nicht darauf reagiert. :freak:

Ähhm, ja. Freue mich darauf andere Games zu benchmarken und hoffe die reagieren logischer.

Auf jeden Fall sollte man nicht die Hyperthreads zusammen mit den P-Cores deaktivieren, wenn man den Flight-Simulator verwendet, denn dann verliert man deutlich an Performance. Wahrscheinlich reichen die 8 Threads dann einfach nicht mehr aus, was die ,,Brute Force-Multithreading-Performance" angeht.

Denniss
2021-12-11, 12:37:24
Krumme Boards und CPUs durch mangelnde Stabilität der Backplates und Sockel?
https://www.igorslab.de/schlechte-kuehlung-bei-alder-lake-problemen-beim-sockel-lga-1700-auf-der-spur-samt-abhilfe/

Lowkey
2021-12-11, 13:09:01
12900kf für 580.

https://www.mindfactory.de/product_info.php/Intel-Core-i9-12900KF-LGA1700-8C-8c-24T--3-20-5-30GHz-WOF_1429032.html


Janein, die Leute wollen fertig präsentierte Deals und schauen dann nicht mehr nach, dass zB. bei MF auch andere CPUs im Angebot sind:

https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1700.html/listing_sort/6

Wenn man nach Preis sortiert, dann werden Angebote ersichtlicher.

Savay
2021-12-11, 14:00:53
Was die Ergebnisse angeht, so hat Igor in einem Nachtest festgestellt, dass der Verbrauch des 5950X beim Gaming stark von der verwendeten GPU abhängt. Dieser verbraucht mit Nvidia Karten interessanterweise deutlich weniger (trotzdem höherem Performance Overhead):


2-3W bis max. 15W ist "deutlich" bei ner defakto 140W CPU? :wink:

Wenn man dann noch auf den Systemverbrauch mit den Frametimegraphen im Hinterkopf schielt wird's aber irgendwie generell leicht absurd.
Da kann man nur noch festhalten, dass der nV Treiber nen Ryzen einerseits ausbremst, es dadurch schlechter läuft und das System aber trotzdem mehr heizt. :freak:

Fazit kann ja nur sein:
Mit nem Zen3 und ADL ist man mit ner Radeon im wesentlichen safe...mit ner nV nimmt man eher zwangsläufig nen ADL.
Und insgesamt testet man CPUs für DX12 Titel wohl besser mit ner Radeon.

In jedem fall hängt das Fazit aber von der Kombination ab die man am ende betreiben will...und man kann hier einfach nicht pauschalisieren.

Achill
2021-12-11, 14:43:57
Interessant, der 12900K ist wesentlich effizienter in Gaming als der 5950X.

https://i.ibb.co/tpgNZ2r/12900-K-der8auer.png

[..]


Es wird sicher nicht das Ergebnis umkehren aber:
- Wir gut läuft der Ryzen den jetzt unter Win11 im vergleich zu Win10?
- DDR4-3600 mit CL18 :|

VooDoo7mx
2021-12-11, 15:20:50
Es wird sicher nicht das Ergebnis umkehren aber:
- Wir gut läuft der Ryzen den jetzt unter Win11 im vergleich zu Win10?
- DDR4-3600 mit CL18 :|

Ja mit CL16 RAM würde sich die Leistung des 5950X sicher verdoppeln, wenn nicht sogar verdreifachen.

Denniss
2021-12-11, 15:29:20
ADL mit dem besten DDR5 den man für Gold kaufen kann gegen Zen3 mit Billo-3600
Dann auf einem Asusboard die nicht unbedingt für sparsamen Betrieb bekannt sind.
Natürlich wird das die Lücke nicht schließen aber gerade beim Speicher sollte man doch einigermaßen mit ähnliche Waffen arbeiten und nicht einmal extrem teuer vs billig testen

Dr.Doom
2021-12-11, 15:57:40
Janein, die Leute wollen fertig präsentierte Deals und schauen dann nicht mehr nach, dass zB. bei MF auch andere CPUs im Angebot sind:

https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1700.html/listing_sort/6

Wenn man nach Preis sortiert, dann werden Angebote ersichtlicher.Jo, und wenn man den 12900kf auf "deiner" Seite kauft, dann gibt man 650 rabattierte Euros aus anstatt 580€ auf der Mindstar-Seite.

Lowkey
2021-12-11, 16:02:24
Bei mir wird es immer korrekt mit reduziertem Preis dargestellt.

Edit: okay, man muss vorher im Mindstar gewesen sein.

Achill
2021-12-11, 16:29:05
Ja mit CL16 RAM würde sich die Leistung des 5950X sicher verdoppeln, wenn nicht sogar verdreifachen.

Du scheinst dies ja zu wissen, ich denke ja das dies nicht passieren wird. Evtl. zu viel Heidelbeersaft mit Limettenscheiben?

Megamember
2021-12-11, 18:49:15
Du scheinst dies ja zu wissen, ich denke ja das dies nicht passieren wird. Evtl. zu viel Heidelbeersaft mit Limettenscheiben?

nee, dein Ironiedetektor ist nur kaputt.

iamthebear
2021-12-11, 18:53:28
Beim Deaktivieren der E-Cores gewinne ich 14% Performance beim 1% low hinzu. Hyperthreading abzuschalten hingegen kostet 8% bei der durchschnittlichen Framerate. Hätte ich überhaupt nicht erwartet, da das die schwächsten Threads sind.

Hast du das mit Process Lasso getestet oder die E Cores im BIOS deaktiviert?

Eine mögliche Erklärung, die mir spontan einfallen würde ist, dass Flight Simulator die Anzahl der physischen Kerne ausliest und mit aktivierten E Cores dann zu viele Threads erzeugt.

Was mich jedoch etwas stutzig macht ist, dass der 9900K so schlecht abschneidet. Der 12900K kann doch niemals doppelte Performance bei selber Kernanzahl und fast gleichem Takt bringen.

2-3W bis max. 15W ist "deutlich" bei ner defakto 140W CPU? :wink:

Wenn ich z.B. Far Cry 6 als Vergleich hernehme:
https://www.igorslab.de/core-i9-12900kf-und-ryzen-5950x-gegen-geforce-rtx-3090-und-radeon-rx-6900xt-wenn-amd-nvidia-mag-und-intel-alles-egal-ist-nachgetestet/3/

Mit Nvidia GPU:
90.3W (5950X) vs. 82.4W (12900K) - sieht ziemlich gleich aus bzw. eventuell in der Messtoleranz (je nach verwendetem Board/RAM usw.)

Mit AMD GPU:
110.3W (5950X) vs. 80.7W (12900K) - das sind auf einmal 36.7% Unterschied. Das ist nicht mehr "fast gleich" bzw. mehr als z.B. der Unterschied zwischen 11900K und 5950X.

Wenn man dann noch auf den Systemverbrauch mit den Frametimegraphen im Hinterkopf schielt wird's aber irgendwie generell leicht absurd.
Da kann man nur noch festhalten, dass der nV Treiber nen Ryzen einerseits ausbremst, es dadurch schlechter läuft und das System aber trotzdem mehr heizt. :freak:

Bei Igor war es so, dass sowohl der 12900K als auch der 5950X durch Nvidia Karten stark ausgebremst wurden (wie ja schon von HWU festgestellt).
Jedoch war die Verlustleistung des 5950X bei Nvidia GPUs auch niedriger, was beim 12900K nicht der Fall war.

Ich wäre aber vorsichtig da hier voreilige Schlüsse zu ziehen. Ich bin mir nicht sicher, ob das mit der Verlustleistung quer durch die Bank bei allen Systemen so ist oder ob vielleicht nur bei Igor aufgetreten ist (warum auch immer).

Fazit kann ja nur sein:
Mit nem Zen3 und ADL ist man mit ner Radeon im wesentlichen safe...mit ner nV nimmt man eher zwangsläufig nen ADL.

Wenn man auf die Verlustleistung schaut ist es gerade anders rum.
Nvidia GPUs kosten aber bei DirectX12 Spielen quer durch die Bank bei allen CPUs und GPUs im Schnitt ca. 20% CPU Leistung. Das sollte man generell bei seiner GPU Kaufentscheidung bedenken.

Und insgesamt testet man CPUs für DX12 Titel wohl besser mit ner Radeon.

Also meiner Meinung nach muss man mit beiden testen (zumindest eine CPU im Lineup), denn solange 70% der Käufer eine Nvidia GPU haben macht es meiner Meinung nach wenig Sinn nur mit AMD zu testen wenn man weiß, dass es sich mit Nvidia anders verhält bzw. es gerade für Nvidia Käufer wichtig ist wie schnell ihre CPU ist.

Den Zusatz "für DirectX12 Titel" kann man denke ich streichen, dass wenn man sich heute eine halbwegs aktuelle CPU kauft, so wird man alle DirectX11 Spiele locker spielen. Wichtig ist es wie die CPUs in 3-5 Jahren mit neuen Spielen laufen und wird es nicht mehr allzu viele AAA DirectX11 Titel geben.

Geldmann3
2021-12-11, 20:45:35
Hast du das mit Process Lasso getestet oder die E Cores im BIOS deaktiviert?

Eine mögliche Erklärung, die mir spontan einfallen würde ist, dass Flight Simulator die Anzahl der physischen Kerne ausliest und mit aktivierten E Cores dann zu viele Threads erzeugt.

Was mich jedoch etwas stutzig macht ist, dass der 9900K so schlecht abschneidet. Der 12900K kann doch niemals doppelte Performance bei selber Kernanzahl und fast gleichem Takt bringen.


Habe sie im BIOS deaktiviert, genauso wie HT.

Eventuell ,,kennt" der Flight Simulator die CPU auch einfach und checkt gar nicht, wie viele Kerne er wirklich hat.

Das extrem schlechte Abschneiden des 9900K und auch des 5600X verwunderte mich hier auch. Wirkt auf mich alles irgendwie nicht sinnig. Daher überlege ich den FS2020 am Ende aus der Gesamtbewertung aller Games herauszunehmen, wenn ich noch mehr benchmarke, denn der macht bei mir komische Sachen. Würde mich überraschen, wenn andere Games sich auch so verhalten.

Achill
2021-12-11, 21:19:13
nee, dein Ironiedetektor ist nur kaputt.

Da gab es keine Ironie sondern nur simple Strohmann Argumente ..

Savay
2021-12-12, 04:50:43
H
Wenn ich z.B. Far Cry 6 als Vergleich hernehme:
https://www.igorslab.de/core-i9-12900kf-und-ryzen-5950x-gegen-geforce-rtx-3090-und-radeon-rx-6900xt-wenn-amd-nvidia-mag-und-intel-alles-egal-ist-nachgetestet/3/

Es ging um den Vergleich 5950X (nV) vs. 5950X (AMD).
Die Effizienz ändert sich zwar nicht groß, aber die relative Performance schon...wogegen es ADL sowohl von Verbrauch als auch den Frametimes eher wurscht ist.

Und das ist für die Beurteilung einer CPU eigentlich entscheidender...am Ende dominiert eh meistens die GPU.


Jedoch war die Verlustleistung des 5950X bei Nvidia GPUs auch niedriger

Ist ja auch das was zu erwarten ist wenn es Auslastungsprobleme gibt! :wink:
Entsprechend Grütze sehen die Frametimevariance ja auch aus verglichen mit der Radeon oder ADL.


Ich bin mir nicht sicher, ob das mit der Verlustleistung quer durch die Bank bei allen Systemen so ist oder ob vielleicht nur bei Igor aufgetreten ist (warum auch immer).


Wenn der Treiber defakto mehr versemmelt als nur die Belastung pauschal zu erhöhen, sondern auch die Auslastung auf nem Ryzen zu verschlechtern dürfte das überall so sein. (Bei den Ryzen gilt ja meist solange sie noch nicht im TDC/EDC oder PPT hängen: Mehr Auslastung = Mehr Leistungsaufnahme)

Es kann aber auch einfach sein, dass hier die unterschiede in den Booststrategien zum tragen kommen.

Dr.Doom
2021-12-12, 10:51:00
Jein. Mit dem alten Rechner ein Z370/8700k-Image gezogen, umgebaut, gebootet, neue Treiber.
WHEA, nur ein einziger beim Hochfahren -- niemals nie einer beim Stressen
Z690/12700k-Image gezogen
Windows zurückgesetzt/aufgefrischt mit "nichts behalten"
wieder Treiber und Updates
WHEA, nur ein einziger beim Hochfahren
Partition mal geplättet und Win10 "richtig" neu installiert
Treiber, Updates
WHEA, nur ein einziger beim Hochfahren

Z690/12700k-Image wieder zurückgespielt, da kein Besserung



Hab' mal testweise den RAM komplett, also alles, auf Auto gelassen.
Das Asus-Board macht dann zwar tatsächlich 3200 Mhz Takt, aber nur 19er-Primärtimings, die nirgendwo im RAM-SPD stehen, aber legt auch 1.5V an.
Damit kommt genauso die WHEA-Meldung wie beim Setzen von 2133Mhz RAM-Takt.

Hab' mal Google bemüht zu dem WHEA-Error mit ID 1, aber nichts für meinen Fall rausbekommen.
Beim WHEA-Fehler in der Ereignisanzeige gibt es ein "raw data"-Feld, dieses kann man mal probieren, von Hex nach ASCII zu wandeln. Im Internetz stand bei den gefundenen Beispielen irgendwo im Zeichen-Wust was von einer Western Digital-Platte oder einer Samsung-SDD (und diverse andere Geräte). Bei meinem "raw data"-Feld sind aber keine Klartext-Fetzen zu finden.

[...]

[...]

Aber wenn ich den Rechner komplett vom Strom nehme, und dann wieder starte, dann startet der Rechner nach dem Betätigen der Power-Taste wieder zweimal: Taste drücken, PC geht an, nach zwei Sekunden geht er wieder aus, paar Sekunden später wieder an und startet dann durch.
Boah, ey, früher war zwar alles langsamer, aber nicht zwingend schlechter...


Deutet ein WHEA-Logger Eintrag mit ID 1 (eins) in der Ereignisanzeige auf eine defekte CPU hin?
Tritt nur am Anfang (beim Start/Booten/Hochfahren) einmal auf, beim Stressen mit Foltertools nicht.

12700k ohne jegliches CPU-OC, nur XMP-Profil des Speichers geladen (3200/CL14).Gestern das neue Bios/ÜFI "0807" (https://dlcdnets.asus.com/pub/ASUS/mb/BIOS/TUF-GAMING-Z690-PLUS-D4-ASUS-0807.ZIP) eingespielt und es gibt keine WHEA-Einträger/Fehler mehr.
Auch lüppt der RAM nun nach XMP-Plan.
Ebenso das Ein-Aus-Ein beim Rechner-Einschalten ist weg.

Bestellten Crucial 4400/CL19-RAM storniert. ;)

iamthebear
2021-12-12, 12:16:07
Es ging um den Vergleich 5950X (nV) vs. 5950X (AMD).
Die Effizienz ändert sich zwar nicht groß, aber die relative Performance schon...wogegen es ADL sowohl von Verbrauch als auch den Frametimes eher wurscht ist.

Wenn wir z.B. Far Cry 6 als Beispiel her nehmen:
5950X: 119fps vs. 98.2fps = 21% schneller mit AMD GPU
12900K: 150fps vs.127fps = 18% schneller mit AMD GPU

Der Performanceverlust durch Nvidia GPUs tritt also bei beiden CPUs gleich stark auf.
Frametimevarianzen sehe ich bei solchen Tests als irrelevant solange mir niemand eine schlüssige Erklärung liefern kann warum diese auftreten (z.B. wie damals bei SLI/Crossfire) und nachweisen kann, dass diese repräsentativ für alle System/Spiele/Auflösungen sind.

Beim 5950X fällt jedoch mit Nvidia GPUs zusätzlich der Energieverbrauch, während dieser beim 12900K sogar leicht ansteigt.

Ist ja auch das was zu erwarten ist wenn es Auslastungsprobleme gibt! :wink:

Hierbei handelt es sich um kein Auslastungsproblem, sondern um Treiber Overhead. Die 20% der Zeit ist die CPU nicht idle. Da arbeitet der Nvidia Treiber die Draw Calls ab, was bei AMD großteils vom Hardware Scheduler die GPU erledigt wird.

mocad_tom
2021-12-12, 12:21:55
Asus rog strix z690 hat neues BIOS 0807 raus.


https://rog.asus.com/de/motherboards/rog-strix/rog-strix-z690-a-gaming-wifi-d4-model/helpdesk_bios

Muss ich heute mal testen.

Troyan
2021-12-12, 12:35:14
Mal eine Frage zum 12600K. Habe mein System zusammengebaut und mit der AIO erreicht der in Cinebench einen Verbrauch von 115W. Ich sehe im Bios vom Asus nicht durch, aber sollte der 12600K nicht bis auf 150W gehen?

Benchmarks sehen 1:1 wie in den Reviews aus. Stromverbrauch von CoreTemp stimmt auch mit dem Systemverbrauch überein (+- dank Asus Thor Netzteil).

Ist die Spreizung so groß, dass die CPUs sich so unterscheiden können?

ryan
2021-12-12, 12:49:46
Der geht wohl eher selten auf 150W.


Computerbase:
Der Core i5-12600K ist ein gutes Beispiel. Die von Intel maximal zugestandene Leistungsaufnahme von 150 Watt wird in der Regel nicht „ausgenutzt“, weil die vordefinierten maximalen Taktraten „zu niedrig“ sind.

Troyan
2021-12-12, 13:08:27
Das macht Sinn. Also ca. 5% effizienter als ein 5800X. Ziemlich beeindruckend, wenn man überlegt, dass die 4 E-Cores mit 900MHz weniger takten.

ceed
2021-12-12, 13:18:46
Mal eine Frage zum 12600K. Habe mein System zusammengebaut und mit der AIO erreicht der in Cinebench einen Verbrauch von 115W. Ich sehe im Bios vom Asus nicht durch, aber sollte der 12600K nicht bis auf 150W gehen?

Benchmarks sehen 1:1 wie in den Reviews aus. Stromverbrauch von CoreTemp stimmt auch mit dem Systemverbrauch überein (+- dank Asus Thor Netzteil).

Ist die Spreizung so groß, dass die CPUs sich so unterscheiden können?

Ist die TDP nicht inklusive Grafikeinheit? Wenn du nun ne dedizierte hast, vielleicht rühren die 35 Watt daher.

Troyan
2021-12-12, 13:35:21
Benutze meine 3090. War nur verwundert. Dachte der 12600K geht bis an seine 150W.

Gerade mal Pumpin Jack mit Raytracing und DLSS (CPU-Limit) zu meinem i9-9900 (4500MHz) und DDR4-3000MHz verglichen:
i9-9900: 111 FPS
i5-12600: 158 FPS

Das ist 42% schneller bei ca. 20% weniger Stromverbrauch von der CPU. Das finde ich schon ziemlich beeindruckend, wenn man überlegt, dass Coffe-Lake und Comet-Lake nahezu identisch sind und Rocket-Lake zwar IPC mäßig besser darsteht, aber heizt wie nichts.

Savay
2021-12-12, 13:56:13
Hierbei handelt es sich um kein Auslastungsproblem, sondern um Treiber Overhead.

Das halte ich eben überhaupt nicht für plausibel...sonst würde die Leistungsaufnahme nicht sinken und die Frametimevariance wäre auch nicht so im Eimer!
Außerdem sieht man doch klar, dass der Ryzen anteilig stärker "einbricht"...das lässt sich nicht einfach mit pauschal 20% mehr CPU Last erklären.
Da laufen treiberbedingt offensichtlich irgendwelche Shenanigans.

Die Ryzen sind da durch den Precision Boost ziemlich straightforward.
Mehr Auslastung = mehr Stromaufnahme = mehr Verbrauch.
D.h. aber auch, wenn er weniger verbraucht, kann er nicht stärker ausge- bzw. belastet sein!

Die einzige Erklärung könnte sein, dass der nV Treiber stark bremsende Mainthreads hat, was den ADL aus irgend nem Grund weniger juckt.
Mit dem nV Treiber hat man also ne Art "künstliche" ST Limitierung, wogegen der AMD Treiber saubereres Multithreading erlaubt.

Das heißt dann aber wirklich, dass man vom einen überhaupt nicht mehr auf das andere schließen kann und man zwingend beides benchen muss.

aufkrawall
2021-12-12, 14:38:34
Da arbeitet der Nvidia Treiber die Draw Calls ab, was bei AMD großteils vom Hardware Scheduler die GPU erledigt wird.
Oh mein Gott, nicht die alte Leier...

Fusion_Power
2021-12-12, 15:14:41
Ich finde das mit dem Stromverbräuchen ziemlich verwirrend. Mal angenommen, es gibt 65W Alder Lake CPU's (afaik sind die angekündigt aber noch nicht verfügbar), wird nun so ein 65W Alder Lake in der Praxis mehr Strom verbrauchen als mein 65W i5 6600? Also bei gleichen Aufgaben natürlich. Und unter Windows 10 z.B..

Dr.Doom
2021-12-12, 15:43:04
Der Alderlake wird eher fertig sein mit derselben zu verrichtenden Arbeit und dann für dieselbe Aufgabe weniger verbraucht haben als die andere CPU.

Lässt du beide CPUs arbeiten, sodass beide an die 65W-Grenze stossen, dann schafft der Alderlake in derselben Zeit mehr Arbeit.

Lässt du beide CPUs arbeiten, sodass beide an die 65W-Grenze stossen, dann verbrauchen beide CPUs in derselben Zeit genau dasselbe, was aus der Steckdose kommt.

Geldmann3
2021-12-12, 18:03:39
Um die Auswirkung der Hyperthreads sowie Effizienzkerne auf die Spieleperformance zu prüfen, habe ich mir als nächstes Watchdogs Legion geschnappt:

https://i.ibb.co/6nXhXCW/Watchdogs-Legion-No-HT-No-E-Cores.png (https://i.ibb.co/6nXhXCW/Watchdogs-Legion-No-HT-No-E-Cores.png)

Das Deaktivieren der E-Cores ODER der Hyperthreads interessiert das Spiel beim 12900K nicht im Geringsten. Deaktiviere ich jedoch alle 16 zusätzlichen Threads, verliert der 12900k rund 9% Performance.

Der 9900K verliert durch die Deaktivierung der Hyperthreads rund 5% Performance und der 5600X mit seinen 6 Kernen gar 13%.

Watchdogs Legion scheint also durchaus ein Spiel zu sein, welches von mehr als 8 Threads profitiert, um Arbeit an diese auszulagern. Die zusätzlichen Threads müssen zudem nicht sonderlich schnell sein, es genügt, wenn sie in irgend einer Form vorhanden sind.

Hmm, warum verliert der 9900K mit langsameren Kernen ohne HT weniger Performance als der 12900K ohne E-Cores und HT?
Wahrscheinlich wird dies für immer ein Rätsel bleiben.

iamthebear
2021-12-12, 18:13:11
Das halte ich eben überhaupt nicht für plausibel...sonst würde die Leistungsaufnahme nicht sinken und die Frametimevariance wäre auch nicht so im Eimer!
Außerdem sieht man doch klar, dass der Ryzen anteilig stärker "einbricht"...das lässt sich nicht einfach mit pauschal 20% mehr CPU Last erklären.
Da laufen treiberbedingt offensichtlich irgendwelche Shenanigans.

Das mit den 20% mehr CPU Leistung haben HWU und igor ja schon zur Genüge getestet. und zwar quer durch die Bank mit so ziemlich allen Architekturen, die es in den letzten 5 Jahren gab (Skylake/Rocket Lake/Alder Lake/Zen1/Zen+/Zen2/Zen3).

Dass 12900K bei der Performance etwas weniger einbricht sollte auch klar sein, denn je schneller die CPU ist desto mehr limitiert die GPU.

Die Ryzen sind da durch den Precision Boost ziemlich straightforward.
Mehr Auslastung = mehr Stromaufnahme = mehr Verbrauch.
D.h. aber auch, wenn er weniger verbraucht, kann er nicht stärker ausge- bzw. belastet sein!

Da weder der 5950X noch der 12900K am Powerlimit anstehen gilt das für beide CPUs.

Die einzige Erklärung könnte sein, dass der nV Treiber stark bremsende Mainthreads hat, was den ADL aus irgend nem Grund weniger juckt.
Mit dem nV Treiber hat man also ne Art "künstliche" ST Limitierung, wogegen der AMD Treiber saubereres Multithreading erlaubt.

Genau das Gegenteil ist der Fall. Nvidia lagert das draw call processing vom Main Thread in den Treiber aus. Dadurch ist der Gesamtaufwand zwar höher aber der Main Thread wird entlastet. So hatte Nvidia früher bei DirectX11 Spielen immer weniger Overhead.
Mit DirectX 12 kann von jedem Thread ein Draw Call abgesetzt werden. Da ist das Argument hinfällig.

Das ganze Thema ist nicht neu. Das ist schon seit Jahren bekannt und wurde nur von HWU wieder frisch aufgewärmt (wahrscheinlich als Retourkutsche da Nvidia sie versucht hat zu blocken).

Hier einmal einmal ein Video wo das Ganze genauer erklärt wird: https://youtu.be/nIoZB-cnjc0

Das heißt dann aber wirklich, dass man vom einen überhaupt nicht mehr auf das andere schließen kann und man zwingend beides benchen muss.

Bei der Verlustleistung anscheinend ja, wobei ich mir noch nicht sicher bin, ob sich das 1:1 auf alle Zen 3 Systeme umlegen lässt. Wenn ich mir mit AMD GPU so den Verbrauch von 5800X vs. 5900X und 5950X ansehe habe ich den Eindruck, dass es eher die zusätzlichen Idle Kerne sind, die den Verbrauch verursachen. Kann sein, dass der AMD GPU Treiber irgendetwas anstellt wodurch diese nicht mehr runtertakten.

Was die Performance angeht so war in allen mir bekannten Fällen der Nvidia Einbruch bei allen CPUs in etwa gleich (sofern nicht das GPU Limit mit rein spielt). Aber es ist nicht gesagt, dass das mit einer neuen CPU oder GPU Generation nicht auf einmal ganz anders sein kann.

Ich finde das mit dem Stromverbräuchen ziemlich verwirrend. Mal angenommen, es gibt 65W Alder Lake CPU's (afaik sind die angekündigt aber noch nicht verfügbar), wird nun so ein 65W Alder Lake in der Praxis mehr Strom verbrauchen als mein 65W i5 6600? Also bei gleichen Aufgaben natürlich. Und unter Windows 10 z.B..

Das Ganze funktioniert so:
Jede Intel CPU hat einen bestimmten maximalen Turbotakt (z.B. 5.1GHz beim 12900K).
Je nachdem wieviele Threads eine Anwendung nutzt und wie intensiv die Last ist wird die Verlustleistung bei diesem Takt stark schwanken. Das können nur 20W sein oder genauso gut 280W sein.

Das Power Limit ist ein Parameter, den du im BIOS einstellen kannst um die Verlustleistung zu deckeln, wobei Intel hier den Defaultwert angibt aber eigentlich kann hier jeder einstellen was er will.

Wenn du z.B. im BIOS ein Power Limit von 65W einstellst passiert folgendes:
Die CPU taktet weiterhin mit 5.1GHz. Wenn du nun eine Anwendung startest, die viel CPU Last verursacht wird die Verlustleistung hoch gehen. Die CPU merkt das und senkt den CPU Takt so weit ab, dass sie unter den 65W bleibt. Gleichzeitig wird bei niedrigerem CPU Takt auch die Spannung der CPU reduziert (jede CPU hat eine Kurve hinterlegt wieviel Spannung sie bei welchem Takt benötigt).

Am konkreten Beispiel eines Alder Lake mit 65W Limit gegen deinen 6600:
Bei Spielen werden beide mit maximal 65W laufen, der Alder Lake jedoch mehr fps liefern.
Bei Anwendungen wird der ADL einfach schneller fertig sein wodurch die Gesamtenergie niedriger ist.

Es gibt auch die Möglichkeit zusätzlich zum PL1 noch ein PL2 und Tau zu konfigurieren (z.B. PL1 65W, PL2 125W Tau 56 Sekunden). Dann kann der ADL 56 Sekunden lang bis zu 125W brauchen (mit entsprechend höheren Taktraten), taktet bei Dauerlast dann jedoch bis 65W hinunter.

Was du beachten solltest:
Der 12600 wird nicht nur ein geringeres Powerlimit haben, sondern hat auch 4 E Cores weniger wodurch er bei MT Anwendungen deutlich langsamer ist. Das könnte bei zukünftigen Spielen ein Problem werden (ähnlich wie beim 5600X) d.h. wenn der nicht deutlich günstiger ist würde ich eher einen 12600K holen und bei dem 65W im BIOS einstellen.

Fusion_Power
2021-12-12, 19:11:55
Der Alderlake wird eher fertig sein mit derselben zu verrichtenden Arbeit und dann für dieselbe Aufgabe weniger verbraucht haben als die andere CPU.

Lässt du beide CPUs arbeiten, sodass beide an die 65W-Grenze stossen, dann schafft der Alderlake in derselben Zeit mehr Arbeit.

Lässt du beide CPUs arbeiten, sodass beide an die 65W-Grenze stossen, dann verbrauchen beide CPUs in derselben Zeit genau dasselbe, was aus der Steckdose kommt.
Das leuchtet ein, ich meinte mit den 65W halt nur die offizielle TDP Angabe der CPUs. Möchte aber wissen was die WIRKLICH unter Vollast verbrauchen, also ehr das "bis zu". Siehts da bei Alder Lake besser oder schlechter aus als bei älteren CPUs, ausgehend von der offiziellen TDP Angabe? Ich hab meinen Skylake halt nie gemessen aber auch der wird vermutlich unter Vollast mal (kurz) mehr verbrauchen als 65W, oder?


Das Ganze funktioniert so:
Jede Intel CPU hat einen bestimmten maximalen Turbotakt (z.B. 5.1GHz beim 12900K).
Je nachdem wieviele Threads eine Anwendung nutzt und wie intensiv die Last ist wird die Verlustleistung bei diesem Takt stark schwanken. Das können nur 20W sein oder genauso gut 280W sein.

Das Power Limit ist ein Parameter, den du im BIOS einstellen kannst um die Verlustleistung zu deckeln, wobei Intel hier den Defaultwert angibt aber eigentlich kann hier jeder einstellen was er will.

Wenn du z.B. im BIOS ein Power Limit von 65W einstellst passiert folgendes:
Die CPU taktet weiterhin mit 5.1GHz. Wenn du nun eine Anwendung startest, die viel CPU Last verursacht wird die Verlustleistung hoch gehen. Die CPU merkt das und senkt den CPU Takt so weit ab, dass sie unter den 65W bleibt. Gleichzeitig wird bei niedrigerem CPU Takt auch die Spannung der CPU reduziert (jede CPU hat eine Kurve hinterlegt wieviel Spannung sie bei welchem Takt benötigt).

Am konkreten Beispiel eines Alder Lake mit 65W Limit gegen deinen 6600:
Bei Spielen werden beide mit maximal 65W laufen, der Alder Lake jedoch mehr fps liefern.
Bei Anwendungen wird der ADL einfach schneller fertig sein wodurch die Gesamtenergie niedriger ist.

Es gibt auch die Möglichkeit zusätzlich zum PL1 noch ein PL2 und Tau zu konfigurieren (z.B. PL1 65W, PL2 125W Tau 56 Sekunden). Dann kann der ADL 56 Sekunden lang bis zu 125W brauchen (mit entsprechend höheren Taktraten), taktet bei Dauerlast dann jedoch bis 65W hinunter.

Was du beachten solltest:
Der 12600 wird nicht nur ein geringeres Powerlimit haben, sondern hat auch 4 E Cores weniger wodurch er bei MT Anwendungen deutlich langsamer ist. Das könnte bei zukünftigen Spielen ein Problem werden (ähnlich wie beim 5600X) d.h. wenn der nicht deutlich günstiger ist würde ich eher einen 12600K holen und bei dem 65W im BIOS einstellen.
Danke für die Ausführungen. Kann man also davon ausgehen, dass Alder Lake wirklich effizienter ist und nicht nur bei kleinen Aufgaben weniger verbraucht als ältere CPUs.
Ich frag das alles nur weil sich der Stromverbrauch hier im Thread so dramatisch anhört. Aber ich hab auch gar nicht vor mir die Boliden der jeweiligen CPU Generation zu holen. Also Hauptsache, die "65W Variante" ist dann auch wirklich genügsam bei gleicher oder höherer Auslastung als ein alter Skylake.
Da mein i5 eh nur 4 Cores ohne HT hat ist da jedenfalls Potential nach oben. Mir würde auch ne 45W CPU reichen für mein Mini-ITX Gehäuse. Hauptsache schneller aber nicht wärmer als der Alte Prozessor.

Savay
2021-12-12, 20:43:19
Genau das Gegenteil ist der Fall. Nvidia lagert das draw call processing vom Main Thread in den Treiber aus. Dadurch ist der Gesamtaufwand zwar höher aber der Main Thread wird entlastet. So hatte Nvidia früher bei DirectX11 Spielen immer weniger Overhead.#

DX11 ist DX11 und DX12 ist DX12.

Sorry aber das ist alles einfach nicht logisch...sonst würde der Ryzen nicht weniger(!) verbauchen und gleichzeitig signifikant bei den Frametimes schlechter werden! :freak:


Da weder der 5950X noch der 12900K am Powerlimit anstehen gilt das für beide CPUs.

Ist die Boostlogik von Intel denn mittlerweile weniger statisch als bisher?


Hier einmal einmal ein Video wo das Ganze genauer erklärt wird: https://youtu.be/nIoZB-cnjc0


Kenne ich schon...brauchst du mir nicht erklären.
Es macht deine Argumentation trotzdem nicht logischer.

Kann sein, dass der AMD GPU Treiber irgendetwas anstellt wodurch diese nicht mehr runtertakten.

Also...der macht irgendwas...was...gleichmäßiger(!?) auslastet...und dafür sorgt das es....besser...läuft?! :conf:

Wenn da einfach nur künstliche Last drauf wäre die das Idlen verhindert sollte das Gegenteil der Fall sein.
Mit Hintergrundlast läuft selbst nen 5950X nicht besser als ohne.

iamthebear
2021-12-12, 21:02:36
Wie effizient Alder Lake ist hängt ganz davon ab wieviel Powerlimit man eingestellt hat.
Wenn man das Powerlimit runter setzt, so ist er sehr effizient aber man kann auch das Powerlimit entfernen und ihn bis auf 240W hochtreiben.

Ich würde aber mit der ganzen Sache warten bis die H/B Chipsätze am Markt sind, denn ein Z690 Board (die alle für 240W ausgelegt sind) in ein Mini ITX Gehäuse zu stecken ist relativ sinnlos vor allem sind die Boards ziemlich teuer.

-=Popeye=-
2021-12-12, 23:38:45
Asus rog strix z690 hat neues BIOS 0807 raus.


https://rog.asus.com/de/motherboards/rog-strix/rog-strix-z690-a-gaming-wifi-d4-model/helpdesk_bios

Muss ich heute mal testen.


Dieses BIOS ist Mist damit startet AC Valhalla unter Win11 nicht mehr.

mocad_tom
2021-12-13, 06:32:56
Ich habe das Bios auch gestern abend drauf gemacht.

Ich konnte jetzt keine Verbesserung feststellen.

Die Rams laufen vorher wie nachher mit den gleichen timings.

Alles was ich habe läuft.

Freestaler
2021-12-13, 07:01:48
Wie effizient Alder Lake ist hängt ganz davon ab wieviel Powerlimit man eingestellt hat.
Wenn man das Powerlimit runter setzt, so ist er sehr effizient aber man kann auch das Powerlimit entfernen und ihn bis auf 240W ....

Ich korrigiere das mal kurz:

aber man kann auch das Powerlimit auch so setzten wie nach Intel Spec vorgesehen und ihn bis auf 254W....


Du sugestierts das die ADL Powerlimits jenseits von 200W sowas wie OC oder ausserhalb spec sind. Sind sie aber nicht. Man muss nichts entfernen für dieses Resultat. Und das weisst du.

Auch die erklärung mit den Drawcall passt nicht. Wieso sollte dies nur bei ADL zutreffen? Das müsste sich genau gleich beim 5950x niederschlagen. Tut sich aber nicht.

BlacKi
2021-12-13, 13:48:06
zum glück gibts ja bald auch non k modelle mit 65w(bleibt dass das limit der non k modelle?), dann wird auch der letzte gemerkt haben, das sich bei intel einiges getan hat...

dildo4u
2021-12-13, 13:54:47
Der 12600k scheint mit Kühlbar mit einem 30€ Kühler Leute müsse sich nur daran gewöhnen das sie Zeiten von 60° vorbei sind.
CPU laufen schon ewig an die 100° in Notebooks und dort müssen die Hersteller Garantien für das ganze Gerät geben.

Troyan
2021-12-13, 14:08:50
Wie effizient Alder Lake ist hängt ganz davon ab wieviel Powerlimit man eingestellt hat.
Wenn man das Powerlimit runter setzt, so ist er sehr effizient aber man kann auch das Powerlimit entfernen und ihn bis auf 240W hochtreiben.

Ich würde aber mit der ganzen Sache warten bis die H/B Chipsätze am Markt sind, denn ein Z690 Board (die alle für 240W ausgelegt sind) in ein Mini ITX Gehäuse zu stecken ist relativ sinnlos vor allem sind die Boards ziemlich teuer.

Der 12600K läuft mit 115W und ist schneller als ein 5800X mit 120W. So und nun?

Kann man nicht akzeptieren, dass AL besser ist?

Fusion_Power
2021-12-13, 15:45:52
Wie effizient Alder Lake ist hängt ganz davon ab wieviel Powerlimit man eingestellt hat.
Wenn man das Powerlimit runter setzt, so ist er sehr effizient aber man kann auch das Powerlimit entfernen und ihn bis auf 240W hochtreiben.

Ich würde aber mit der ganzen Sache warten bis die H/B Chipsätze am Markt sind, denn ein Z690 Board (die alle für 240W ausgelegt sind) in ein Mini ITX Gehäuse zu stecken ist relativ sinnlos vor allem sind die Boards ziemlich teuer.
Das sowieso. Das mit den Mainboards für Alder Lake ist eh so ne Sache. die "Z" Boards wären mir eh zu teuer und überdimensioniert, ich übertakte ja generell nicht. Und ja, im Mini-ITX Gehäuse wirds schnell kuschelig, trotz vieler Noctua-Lüfter und meinem (flachen) Noctua CPU Kühler. Daher meine Sorgen wegen dem tatsächlichen Verbrauch, bzw. der tatsächlichen Wärmeentwicklung. Gibt ja leider keine effizienten Notebook-CPUs für Desktop Geräte.

ryan
2021-12-13, 15:53:10
Mindfactory hat DDR5 lagernd: 1x32GB für schlappe 489€. Mit zwei Riegeln knapp 1000€ für 0815 DDR5-4800 CL40. DDR5 ist so ein Fail auf die Verfügbarkeit bezogen.

Lowkey
2021-12-13, 16:00:14
Gerade war Alternate DDR5 Drop mit sehr vielen Modellen zur Auswahl.

Geldmann3
2021-12-13, 16:02:52
Jo, diese Preise sind ja wohl komplett vom Mond und in 2 Jahren ist 6400er DDR5 sicher die Baseline, so wie es bei DDR4 lange Zeit 3200er Ram war. :rolleyes:

Denke zudem, dass DDR5 nicht ganz so lange halten wird wie DDR4, da DDR6 schon weit über die anfängliche Konzeptionsphase hinaus ist und wieder jede Menge Konkurrenz auf dem CPU-Markt herrscht. Ich gebe DDR5 noch 4 Jahre, dann sehen wir schon erste DDR6 Desktop-CPUs. Wobei, die Lebenszeit wäre jener von DDR4 dann durchaus recht ähnlich.

Lowkey
2021-12-13, 16:11:09
Spekulationen zur Hardware lohnen sich nicht ;)

Guter DDR4 war die letzten Wochen im Angebot und immer noch zu teuer wie zB. 32gb DDR4-4000 CL14 über 400 Euro.

Da wirkt DDR5 dann auch nicht mehr so teuer.

Geldmann3
2021-12-13, 16:24:40
Deshalb habe ich mir auch Alder Lake mit einem DDR4 Board zugelegt.

Ich wollte nicht darauf spekulieren, dass es in ein paar Wochen/Monaten verfügbaren, guten DDR5 Ram zu kaufen gibt.

Wollte neue CPU JETZT. ;D

Sobald DDR5 Ram mich auf ganzer Linie überzeugt und die entsprechenden Kits zu einem humanen Preis verfügbar sind, wird eben wieder das Board gewechselt. (Beim Release von Raptor Lake könnte sich das anbieten.)

Mein Gefühl sagt mir aber, dass das nicht morgen sein wird.

Ex3cut3r
2021-12-13, 17:49:00
Was ist eigentlich bei DDR5 das Äquivalent zu Samsung B-Die mit 3200 Mhz CL14?

Und wie sieht das mit OC Potenzial aus?

Bei DDR5 ist die Stromversorgung ja jetzt im Riegel intergiert, anstatt wie bei DDR4 auf dem Mainboard, trägt das zur einer größeren Temperatur Entwicklung bei hohen OC Spannungen bei? Oder ist das vernachlässigbar?

Vielen Dank im voraus.

VooDoo7mx
2021-12-13, 17:55:46
Ich finde das mit dem Stromverbräuchen ziemlich verwirrend. Mal angenommen, es gibt 65W Alder Lake CPU's (afaik sind die angekündigt aber noch nicht verfügbar), wird nun so ein 65W Alder Lake in der Praxis mehr Strom verbrauchen als mein 65W i5 6600? Also bei gleichen Aufgaben natürlich. Und unter Windows 10 z.B..

Das leuchtet ein, ich meinte mit den 65W halt nur die offizielle TDP Angabe der CPUs. Möchte aber wissen was die WIRKLICH unter Vollast verbrauchen, also ehr das "bis zu". Siehts da bei Alder Lake besser oder schlechter aus als bei älteren CPUs, ausgehend von der offiziellen TDP Angabe? Ich hab meinen Skylake halt nie gemessen aber auch der wird vermutlich unter Vollast mal (kurz) mehr verbrauchen als 65W, oder?


Danke für die Ausführungen. Kann man also davon ausgehen, dass Alder Lake wirklich effizienter ist und nicht nur bei kleinen Aufgaben weniger verbraucht als ältere CPUs.
Ich frag das alles nur weil sich der Stromverbrauch hier im Thread so dramatisch anhört. Aber ich hab auch gar nicht vor mir die Boliden der jeweiligen CPU Generation zu holen. Also Hauptsache, die "65W Variante" ist dann auch wirklich genügsam bei gleicher oder höherer Auslastung als ein alter Skylake.
Da mein i5 eh nur 4 Cores ohne HT hat ist da jedenfalls Potential nach oben. Mir würde auch ne 45W CPU reichen für mein Mini-ITX Gehäuse. Hauptsache schneller aber nicht wärmer als der Alte Prozessor.

Wenn ich sowas lesen möchte ich echt so hart facepalmen, dass mir die Birne wegfliegt.
15000 Beiträge hier und es fehlt das elementarste Grundwissen was seit Jahrzehnten bekannt ist.
Absolut 0 Eigeninitiative selber Wissen zu sammeln. Dann von anderen sich das vor den Latz tragen zu lassen um das dann nach zu blöken.

1. 65W alder Lake sind nicht angekündigt, oder findest du was auf der Intel Seite dazu? Aber stimmt ja, da müsste man ja selber schauen. :rolleyes:

2. Ob 65W nun wirklich 65W sind hängt von dutzenden Faktoren ab, die aber alle schon längst bekannt sind.

3. Was dein i5 6600 real verbraucht, kann dir hier niemand sagen der nicht die selbe CPU im Einsatz hat.
Wieso setzt du dich denn nicht einfach mal an deinen scheiß PC, lädst z.B. Cinebench R23 runter und guckst einfach mal bei HWinfo oder Intel XTU was die CPU verbraucht, anstatt Leute hier im Forum zu fragen? Das ist weniger als 5 Minuten Arbeit und Eigeninitiative und man könnte ja selber Erkenntnisse gewinnen. :rolleyes:

4. Für jemanden der es geschafft hat, 15000 Beiträge im 3DCenter Forum zu schreiben, sollten irgendwelche W Angaben der Hersteller egal sein. Im Nachgang kann man eh alles den eigenen Bedarf anpassen. Man kann auch auch einen 242W 12900K permanent auf 15W laufen lassen, wenn man das denn möchte.

meine Fresse...

Lowkey
2021-12-13, 18:36:28
Was ist eigentlich bei DDR5 das Äquivalent zu Samsung B-Die mit 3200 Mhz CL14?

Und wie sieht das mit OC Potenzial aus?

Bei DDR5 ist die Stromversorgung ja jetzt im Riegel intergiert, anstatt wie bei DDR4 auf dem Mainboard, trägt das zur einer größeren Temperatur Entwicklung bei hohen OC Spannungen bei? Oder ist das vernachlässigbar?

Vielen Dank im voraus.


Samsung Support fehlt überall. Daher weiss niemand wie gut Samsung ist. Hynix ist derzeit besser, da mehr Takt/Timings gehen. Speicher wird eine Idee wärmer und das RGB trägt dazu bei.

Sicher ist nur, dass Micron nichts taugt. Aber selbst Micron kann 4800 CL40 in Masse, also wird 4800 CL40 unterster Standard.

Fusion_Power
2021-12-13, 19:01:50
Wenn ich sowas lesen möchte ich echt so hart facepalmen, dass mir die Birne wegfliegt.
15000 Beiträge hier und es fehlt das elementarste Grundwissen was seit Jahrzehnten bekannt ist.
Absolut 0 Eigeninitiative selber Wissen zu sammeln. Dann von anderen sich das vor den Latz tragen zu lassen um das dann nach zu blöken.

Was soll das jetzt? :confused:


1. 65W alder Lake sind nicht angekündigt, oder findest du was auf der Intel Seite dazu? Aber stimmt ja, da müsste man ja selber schauen. :rolleyes:

Drum frage ich ja! Dafür sind Foren da wo Leute befragt werden können, die sich auskennen. Es gibt noch keine 65W Alder Lake aber da es immer 65W Modelle gibt und ich die auch in Ankündigungen gesehen habe, fragte ich danach. Wo ist das Problem?


2. Ob 65W nun wirklich 65W sind hängt von dutzenden Faktoren ab, die aber alle schon längst bekannt sind.

3. Was dein i5 6600 real verbraucht, kann dir hier niemand sagen der nicht die selbe CPU im Einsatz hat.
Wieso setzt du dich denn nicht einfach mal an deinen scheiß PC, lädst z.B. Cinebench R23 runter und guckst einfach mal bei HWinfo oder Intel XTU was die CPU verbraucht, anstatt Leute hier im Forum zu fragen? Das ist weniger als 5 Minuten Arbeit und Eigeninitiative und man könnte ja selber Erkenntnisse gewinnen. :rolleyes:

4. Für jemanden der es geschafft hat, 15000 Beiträge im 3DCenter Forum zu schreiben, sollten irgendwelche W Angaben der Hersteller egal sein. Im Nachgang kann man eh alles den eigenen Bedarf anpassen. Man kann auch auch einen 242W 12900K permanent auf 15W laufen lassen, wenn man das denn möchte.

meine Fresse...
...was recht dekadent wäre, sich nen astronomisch teure 125W+ CPU zu kaufen und sie dann mit 15W zu betreiben, oder?
Ich hab leider kein Strom-Messgerät, sonst könnte ich zumindest den Gesamtverbrauch des Systems messen. Da ich keinen Alder Lake besitze muss ich halt Infos drüber sammeln, ist doch logisch. Hier sind Menschen die aus erster Hand berichten können, natürlich fragt man bevorzugt erst mal dort. DAFÜR sind Foren da.
Ansonsten verbitte ich mir hier diesen Ton oder du wirst der erste sein den ich in meinen 15000 Forenbeiträgen melde!

-=Popeye=-
2021-12-13, 20:37:11
Was ist eigentlich bei DDR5 das Äquivalent zu Samsung B-Die mit 3200 Mhz CL14?

Und wie sieht das mit OC Potenzial aus?

Bei DDR5 ist die Stromversorgung ja jetzt im Riegel intergiert, anstatt wie bei DDR4 auf dem Mainboard, trägt das zur einer größeren Temperatur Entwicklung bei hohen OC Spannungen bei? Oder ist das vernachlässigbar?

Vielen Dank im voraus.

Kommt drauf an was man möchte, DDR4 oder DDR5. Bei den DDR4 Brettern haben im Luxx bisher die ASUS und MSI Boards am meisten überzeugt, allen voran das ASUS ROG Strix Z690-A Gaming WIFI D4 (https://geizhals.de/asus-rog-strix-z690-a-gaming-wifi-d4-90mb18k0-m0eay0-a2625537.html?hloc=at&hloc=de) und das MSI MPG Z690 Edge WIFI DDR4 (https://geizhals.de/msi-mpg-z690-edge-wifi-ddr4-a2625628.html?hloc=at&hloc=de) was RAM OC angeht, allerdings ist dort im Gear1 Mode bei fast allen mit 4x8GB SR 3866, 2x8GB SR 4000 und 2x16GB DR 4000 (CL15-CL16) dann auch Schluss. Zu den CPUs selbst kann man sagen...alles über 5GHz säuft.

edit: Wenn man es genau nimmt kann man die CPUs auch stock laufen lassen und nur den Speicher hochziehen, was mehr bringt als CPU OC.

Ex3cut3r
2021-12-13, 20:50:29
Danke das hilft. :up:

iamthebear
2021-12-13, 22:10:13
Ich korrigiere das mal kurz:

Du sugestierts das die ADL Powerlimits jenseits von 200W sowas wie OC oder ausserhalb spec sind. Sind sie aber nicht. Man muss nichts entfernen für dieses Resultat. Und das weisst du.

Ja es ist in Spec. Dass beim Hochsetzen des Powerlimits ein Garantieverlust der CPU droht habe ich weder behauptet noch angedeutet.

Ob es "von Intel vorgesehen" ist, das hängt ganz vom verwendeten Modell ab. Beim 12900K in Kombination mit einem Z690 Board liegt der von Intel vorgeschlagende Defaultwert bei ca. 240W. Bei non K CPUs (speziell den 12600 um den es sich hier primär dreht lautet der von Intel vorgeschlagene Standardwert "65W" für PL1. Was die B/H Chipsätze angeht, so ist mir noch nichts bekannt aber mich würde es stark wundern, wenn hier auch die Empfehlung gelten würde diese auf 240W auszulegen. Das ist ja doch ein Kostenfaktor und bei den ganzen kleinen 35W Office i3 vollkommen unnötig.

Auch die erklärung mit den Drawcall passt nicht. Wieso sollte dies nur bei ADL zutreffen? Das müsste sich genau gleich beim 5950x niederschlagen. Tut sich aber nicht.

Die Draw Calls sind die Erklärung warum die Performance 20% einbricht. Das hat nichts mit ADL zu tun. Dass der Effekt existiert sollte eigentlich spätestens seit den HWU Videos allgemein bekannt sein.

Warum der 5950X bei der 6900 XT von Igor mehr gezogen hat als mit seiner RTX 3090 wissen wir derzeit nicht aber ich denke nicht, dass es direkt etwas damit zu tun hat. Das müsste man genauer untersuchen woran es liegt. Vielleicht verbrauchen die Idle Kerne mehr, vielleicht arbeitet auch die Boostlogik aggressiver und er boostet höher. Derzeit können wir darüber nur spekulieren. Es könnte aber auch gut sein, dass einfach nur das AMD System von Igor irgendwelche Probleme hatte.

Der 12600K läuft mit 115W und ist schneller als ein 5800X mit 120W. So und nun?

Kann man nicht akzeptieren, dass AL besser ist?

Irgendwie verstehe ich den Zusammenhang mit meinem Zitat nicht ganz.

Jo, diese Preise sind ja wohl komplett vom Mond und in 2 Jahren ist 6400er DDR5 sicher die Baseline, so wie es bei DDR4 lange Zeit 3200er Ram war. :rolleyes:

Ob 4800 oder 6400 würde ich jetzt gar nicht als so problematisch ansehen. Das Hauptproblem der aktuellen DDR5 RAMs ist, dass die Timings so katastrophal sind. Hier werden bei den besten RAMs gerade einmal die JEDEC Vorgaben erreicht. Bei DDR4 ist selbst die Standardware (z.B. 3200 CL14) schon um 50% schneller.

Denke zudem, dass DDR5 nicht ganz so lange halten wird wie DDR4, da DDR6 schon weit über die anfängliche Konzeptionsphase hinaus ist und wieder jede Menge Konkurrenz auf dem CPU-Markt herrscht. Ich gebe DDR5 noch 4 Jahre, dann sehen wir schon erste DDR6 Desktop-CPUs. Wobei, die Lebenszeit wäre jener von DDR4 dann durchaus recht ähnlich.

Die Frage ist was DDR6 bringen wird. Noch einmal die Speicherkanäle verdoppeln wird sich mit den Pins denke ich nicht ausgehen und wenn nur die Bandbreite erhöht wird so wird das nicht viel bringen.

Wenn ich sowas lesen möchte ich echt so hart facepalmen, dass mir die Birne wegfliegt.
15000 Beiträge hier und es fehlt das elementarste Grundwissen was seit Jahrzehnten bekannt ist.
Absolut 0 Eigeninitiative selber Wissen zu sammeln. Dann von anderen sich das vor den Latz tragen zu lassen um das dann nach zu blöken.

Na schlechten Tag gehabt heute?

1. 65W alder Lake sind nicht angekündigt, oder findest du was auf der Intel Seite dazu? Aber stimmt ja, da müsste man ja selber schauen. :rolleyes:

Offiziell angekündigt nicht aber das Lineup ist aus diversen Leaks schon relativ gut bekannt. Wie man das mit 8000 Posts nicht wissen kann. Da muss ich so viel facepalmen dass mir die Birne wegfliegt ;D

2. Ob 65W nun wirklich 65W sind hängt von dutzenden Faktoren ab, die aber alle schon längst bekannt sind.

Wenn es ja schon bekannt ist, dann ist es doch gut. Das sind die besten Voraussetzungen um Fragen auch zu beantworten...

3. Was dein i5 6600 real verbraucht, kann dir hier niemand sagen der nicht die selbe CPU im Einsatz hat.

Die Frage hieß ja nicht "bestimme die Verlustleistung des 6600 auf 3 Kommastellen genau".

Wieviel dank Ding real braucht kann man abschätzen indem man sich z.B. ein 6600K Review ansieht und dann noch mal ein bisschen was für die 200MHz weniger Takt abzieht:
https://www.tomshardware.com/reviews/skylake-intel-core-i7-6700k-core-i5-6600k,4252-11.html

Überraschung: Es sind dann maximal 65W

Wieso setzt du dich denn nicht einfach mal an deinen scheiß PC, lädst z.B. Cinebench R23 runter und guckst einfach mal bei HWinfo oder Intel XTU was die CPU verbraucht, anstatt Leute hier im Forum zu fragen? Das ist weniger als 5 Minuten Arbeit und Eigeninitiative und man könnte ja selber Erkenntnisse gewinnen. :rolleyes:

Und der Cinebench Verbrauch ist dann im Alltag aussagekräftig für was? Das hörte sich nicht unbedingt nach Grafikworkstation an.

4. Für jemanden der es geschafft hat, 15000 Beiträge im 3DCenter Forum zu schreiben, sollten irgendwelche W Angaben der Hersteller egal sein. Im Nachgang kann man eh alles den eigenen Bedarf anpassen. Man kann auch auch einen 242W 12900K permanent auf 15W laufen lassen, wenn man das denn möchte.

Ja genau. Absolut schändlich wenn es jemand nicht geschafft hat 17 Jahre durchgehend in allen Subforen hier immer auf dem aktuellen Stand zu bleiben ;D

Geldmann3
2021-12-14, 05:28:42
Also Nächstes habe ich die Auswirkung der E-Cores sowie des Hyperthreadings in GTA V getestet.

https://i.ibb.co/vPcYKrH/GTA-V-No-HT-No-E-Cores.png (https://i.ibb.co/vPcYKrH/GTA-V-No-HT-No-E-Cores.png)

In manchen Konstellationen scheint die minimale Framerate um rund 5% zuzunehmen, was sich jedoch aus irgend einem Grund negiert, sobald ich nur die E-Cores im BIOS deaktiviere. Dann gehen sogar 4% an durchschnittlicher Performance verloren. Also insgesamt geben sich alle Konfigurationen hier nicht signifikant viel. Es ist weiterhin schwer, in GTA V einen klaren Trend zu erkennen.

Auch den 9900K interessiert es in diesem Spiel kaum, ob Hyperthreading aktiv oder inaktiv geschaltet ist.

Einzig und allein der 5600X leidet ohne SMT wieder ein wenig, verliert ohne die zusätzlichen Threads etwa 6% an Leistung. Zusammen mit den bisher durchgeführten Gaming-Benchmarks lässt sich hier der Trend erkennen, dass man beim 5600X SMT definitiv NICHT deaktivieren sollte.

Lowkey
2021-12-14, 10:04:24
Ohne zu suchen: W10 oder W11? Muss vllt in die Grafik mit rein, damit nachfolgende Generationen an Benchmarkforschern schlauer werden.

Geldmann3
2021-12-14, 10:27:53
Hast Recht, werde das in zukünftigen Grafiken einfügen, war nach wie vor Windows 10.

Tigershark
2021-12-14, 11:47:00
Also Nächstes habe ich die Auswirkung der E-Cores sowie des Hyperthreadings in GTA V getestet.

[...]

Auch den 9900K interessiert es in diesem Spiel kaum, ob Hyperthreading aktiv oder inaktiv geschaltet ist.

Einzig und allein der 5600X leidet ohne SMT wieder ein wenig, verliert ohne die zusätzlichen Threads etwa 6% an Leistung. Zusammen mit den bisher durchgeführten Gaming-Benchmarks lässt sich hier der Trend erkennen, dass man beim 5600X SMT definitiv NICHT deaktivieren sollte.

Hm. Vielleicht schon, vielleicht erkennt man aber auch "nur", dass 6 Kerne ohne HT dann eben nicht mehr reichen, weil selbst Oldies wir GTA V mehr als 6 threads nutzen. 9900K und 12900K haben ja selbst im worst case 8 Threads zur Verfügung. Wäre also in dem speziellen Fall interessant zu sehen, ob sich bspw. ein 5800X auch so verhält wie der 5600X (ich denke - nein).

Geldmann3
2021-12-14, 12:00:37
Leider habe ich gerade keinen 5800X zur Verfügung, um das zu testen, vermute allerdings auch, dass es an den ,,nur" 6 Threads liegt.

Lowkey
2021-12-14, 12:47:20
Schwer zu sagen. Ich suche gerade vergleichbare Benchmarks heraus.

https://images.anandtech.com/graphs/graph16220/119238.png
https://images.anandtech.com/graphs/graph17047/127297.png

Dazu ist wenig zu finden, aber laut Anandtech sind die Kerne eventuell nicht der Grund.

Geldmann3
2021-12-14, 13:05:47
Wobei ich wahrscheinlich noch weiter im CPU-Limit teste, denn dort wird mit 720p low oder 1080p Max getestet.

Ich hingegen teste mit maximalen Details in 720p und FSR Performance, was also effektiv interne 360p bedeutet.

robbitop
2021-12-15, 09:16:22
Ja low details verstehe ich bei niedrigen Auflösungen bei CPU Tests nicht. Den Unsinn macht Anandtech auch immer. Low Details reduziert und verzerrt ja auch CPU Load (je nach setting). Siehe Sichtweite, Partikel, Geometriedetails etc

aufkrawall
2021-12-15, 15:23:24
Ich verstehe nicht, warum du die ganzen Tests ausgerechnet noch mit Windows 10 machst. Damit ist zwar nicht jeder Test mit den E-Cores unbedingt hinfällig, aber die Möglichkeit besteht natürlich.

BlacKi
2021-12-15, 17:08:04
Ja low details verstehe ich bei niedrigen Auflösungen bei CPU Tests nicht. Den Unsinn macht Anandtech auch immer. Low Details reduziert und verzerrt ja auch CPU Load (je nach setting). Siehe Sichtweite, Partikel, Geometriedetails etcwer spielt denn schon mit allem auf ultra. zumal es differenzen gibt zwischen den gpu herstellern. ich finde es toll, das es seiten gibt, die auch low mit im programm haben. diversität ist auf jeden fall ein gewinn.

Geldmann3
2021-12-15, 19:01:24
wer spielt denn schon mit allem auf ultra. zumal es differenzen gibt zwischen den gpu herstellern. ich finde es toll, das es seiten gibt, die auch low mit im programm haben. diversität ist auf jeden fall ein gewinn.

Meinst Du es gibt ernsthaft Leute, die eine High-End CPU haben und zugleich auf Low + 720p spielen?

Ich verstehe nicht, warum du die ganzen Tests ausgerechnet noch mit Windows 10 machst. Damit ist zwar nicht jeder Test mit den E-Cores unbedingt hinfällig, aber die Möglichkeit besteht natürlich.

Weil all meine Rechner mit Windows 10 laufen und ich noch nicht die Zeit hatte zu upgraden. Upgrade ich einen, muss ich es mit allen machen, oder die Werte sind nicht mehr vergleichbar. Außerdem habe ich unter Windows 10 eher eine bessere Performance in meinen Applikationen festgestellt, selbst mit dem 12900K, so verrückt das auch klingt.

Und auch in Gaming sehe ich keinen wahren Vorteil für Windows 11 (https://youtu.be/pQwM-5KDRRI?t=715), selbst bei der Nutzung der E-Cores nicht. Thread-Direktor hin oder her.
Wobei meine eigenen Tests dazu schon mehrere Wochen her sind, vielleicht hat sich das bereits wieder geändert.
In Topaz Video Enhance AI hatte ich in einem Fall jedoch sogar 10% weniger Performance, was effektiv in Stunden an zusätzlicher Wartezeit resultieren kann, egal wie sehr ich mit Process-Lasso getweakt habe.
Oder beim Kompilieren von Flight Simulator Mods...
Da kommen mir schon echt Zweifel beim Upgrade.

Dennoch habe ich vor in Kürze zu upgraden.
Hoffe echt, das hat sich inzwischen ein wenig geändert, zweifle jedoch um ehrlich zu sein daran.
Noch schlimmer wird es übrigens scheinbar, wenn man die ganzen Secure-Features aktiviert, wie MS es empfiehlt.

Eigentlich bin ich ja einer der ersten, die auf so ein neues OS springen.
Aber nicht, wenn ich einfach nur praktische Nachteile feststelle.

iamthebear
2021-12-15, 20:10:14
Ja low details verstehe ich bei niedrigen Auflösungen bei CPU Tests nicht. Den Unsinn macht Anandtech auch immer. Low Details reduziert und verzerrt ja auch CPU Load (je nach setting). Siehe Sichtweite, Partikel, Geometriedetails etc

Ja da sehe ich auch den Sinn dahinter nicht. Falls 720p nicht ausreicht sollte man entweder weiter mit der Auflösung runter oder die Rendering Auflösung halbieren.

Umgekehrt bin ich aber auch nicht unbedingt ein Fan davon Ultra zum Standard für Tests zu machen. Meiner Meinung nach sollte mit der Stufe darunter (z.B. Hoch oder Sehr Hoch) getestet werden. Ultra nutze ich in Spielen nur dann, wenn ich bereits in der höchsten Auflösung angelangt bin, Frameraten durchgehend über 60fps liegen und noch zusätzliche Leistungsreserven da sind. Meiner Meinung nach sollte "Ultra" dann auch RT beinhalten.

Lowkey
2021-12-15, 20:19:30
@Geldmann3

Im Prinzip sind alle Tests und Reviews angreifbar. Es geht vielmehr um das Beleuchten von Details, die in den Release-Reviews fehlen.

Du könntest natürlich alles zusammenfassen und im Usertest Forum am Stück veröffentlichen. Denn hier geht es später unter.

BlacKi
2021-12-15, 20:22:39
Meinst Du es gibt ernsthaft Leute, die eine High-End CPU haben und zugleich auf Low + 720p spielen?


es geht um die low performance von cpus mit highendkarten. die auflösung spielt da keine rolle, hauptsache cpu limit. 720p ist doch eher symbolischer natur und nicht als zielauflösung zu sehen.

iamthebear
2021-12-15, 22:29:04
Im Prinzip will man ja messen wieviele fps die CPU generieren kann. Deshalb:
.) Sollte die Auflösung, die ausschließlich Auswirkung auf die GPU Last hat so weit reduziert werden damit die Rendering Pipeline nie voll läuft.
.) Bei allem anderen sollte gelten "so praxisnah wie möglich" d.h. wenn Effekte die normalerweise genutzt werden die CPU Last erhöhen sollte die auf jeden Fall ein sein. Dreht man diese Effekte alle ab, so könnte dies dazu führen, dass weniger Threads am Arbeiten sind und damit CPUs mit weniger Kernen besser dastehen als sie es in der Praxis eigentlich tun. Das wird bei 12900K vs. 5950X relativ egal sein aber spätestens bei 12400F vs. 12600K wird das ein großes Thema wie sinnvoll bzw. notwendig die zusätzlichen E Cores sind (auch in Vergleich zum 5600X).

davidzo
2021-12-15, 23:24:27
Die bringen echt diesen Witz von einem CPUkühler auf den Markt:
https://videocardz.com/newz/intels-new-stock-cpu-cooler-for-alder-lake-is-real-the-first-photo-leaks-out

Das Dink mit schrägen dekorativen Plastiklamellen statt echten Kühllamellen. Die natürlich trotzdem echte Luftverwirbelungen und Lärm machen :freak:

Dadrunter steckt natürlich derselbe für 2021 / Alderlake völlig inadäquate Alukühler der mal für Core 2 Duo entwickelt wurde uns seitdem nur zur Kostenreduktion verändert wurde (höhe verringert).

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77734&stc=1&d=1639607262

Freestaler
2021-12-15, 23:38:06
VIDEOCARZ irrt sich da. Das ist der VRM Kühler. CPU ist nur nebenher. ADL hat sich der Fokus verschoben ;-). Im ernst, Katastrophe die lamellen.

Denniss
2021-12-16, 03:23:06
Der kleineste von AMD hat auch keinen größeren Kühlkörper aber er hat einen geschlossenen Ring um den Lüfter damit die beförderte Luft auch unten duch den Kühlkörper geht. Beim Intel geht einiges seitlich verloren

Geldmann3
2021-12-16, 03:44:39
Im Prinzip will man ja messen wieviele fps die CPU generieren kann. Deshalb:
.) Sollte die Auflösung, die ausschließlich Auswirkung auf die GPU Last hat so weit reduziert werden damit die Rendering Pipeline nie voll läuft.
.) Bei allem anderen sollte gelten "so praxisnah wie möglich" d.h. wenn Effekte die normalerweise genutzt werden die CPU Last erhöhen sollte die auf jeden Fall ein sein. Dreht man diese Effekte alle ab, so könnte dies dazu führen, dass weniger Threads am Arbeiten sind und damit CPUs mit weniger Kernen besser dastehen als sie es in der Praxis eigentlich tun. Das wird bei 12900K vs. 5950X relativ egal sein aber spätestens bei 12400F vs. 12600K wird das ein großes Thema wie sinnvoll bzw. notwendig die zusätzlichen E Cores sind (auch in Vergleich zum 5600X).

Habe gestern darüber nachgedacht, wie man den optimalen CPU-Test durchführen würde. Man müsste den Grafiktreiber so modifizieren, dass die GPU das Bild gar nicht wirklich rendert oder nur schemenhaft, der CPU allerdings vorgaukeln, dass in 8k gerendert werde. Die CPU bekommt dann nach jedem Frame immer nur direkt die Rückmeldung ,,Fertig, gib mir mehr" Denn einige Games, wie beispielsweise Forza Horizon 5, haben die gerenderten Details und Drawcalls an der Auflösung hängen.

Du könntest natürlich alles zusammenfassen und im Usertest Forum am Stück veröffentlichen. Denn hier geht es später unter.
Das habe ich diesen Monat noch vor, wenn ich es zeitlich hinbekomme. :)

es geht um die low performance von cpus mit highendkarten. die auflösung spielt da keine rolle, hauptsache cpu limit. 720p ist doch eher symbolischer natur und nicht als zielauflösung zu sehen.
CPU-Limit ist nicht gleich CPU-Limit, man verringert die Auflösung ja gerade dafür, um dort zu landen. Im Optimalfall hätte man eine Auflösung von 0px x 0px, dann muss die GPU nämlich gar nicht mehr rendern und man testet nur noch die CPU.

Natürlich kommt es immer auf das Ziel an.
Will man praktische Benchmarks? (Die müsste man dann in praktischen Auflösungen mit praktischen Settings durchführen. Lernt dann allerdings nicht viel über die CPU, da meist im GPU-Limit.)
Oder will ein CPU-Limit herbeiführen?

Will man einfach nur irgendein CPU-Limit herbeiführen? (Z.b. mit low Settings)

Oder will man wirklich wissen, was die Engine imstande ist, mit den Kernen zu tun, wenn man sie die Spielwelt mit so vielen Details wie möglich füllen lässt? (Also möglichst maximierten Settings.)

iamthebear
2021-12-16, 08:18:43
Ich denke den Idealfall von "GPU faked 8K" wird man schwer umsetzen können. Mit etwas Unschärfe wird man leben müssen.

Werden nur die absoluten fps beeinflusst ist das ja weitgehend egal. Interessant wird es erst wenn sich die Reihenfolge oder die Abstände verschieben z.B.:
.) Die Anzahl der durchschnittlich laufenden Threads ändert sich. Das hat auf Grund der Speicherkanäle auch Einfluss auf die Frage DDR4 vs. DDR5
.) Der entfernte/zusätzliche Programmcode ist deutlich mehr oder weniger speicher/cachelastig

Aber meine Meinung dazu ist:
Im Zweifelsfall akzeptiert man lieber eine leichte Verschiebung von 2-3% indem man mit der Renderingauflösung runter geht als dass man zur Hälfte GPU limitiert ist und den Anschein erweckt dass sowieso alle CPUs gleich schnell sind. Mag bei heutigen GPUs stimmen aber wenn man in 3 Jahren eine RDNA4 Karte rein steckt wird das ganz anders aussehen.

Wobei die größte Unsicherheit ja die Frage ist wie in 3 Jahren die Spiele aussehen werden denn genau dafür muss man sich jetzt rüsten. Ist da weiterhin viel IPC gefragt oder könnte man stattdessen mehr Kerne brauchen? Wird auf ADL optimiert werden oder kauft ab Zen 4 sowieso jeder nur mehr AMD? Alles ungeklärte Fragen.

WedgeAntilles
2021-12-16, 09:52:03
oder kauft ab Zen 4 sowieso jeder nur mehr AMD? Alles ungeklärte Fragen.
Na zumindest die Frage kann man klar mit "nein" beantworten - schließlich hätte AMD gar nicht die Kapazitäten um überhaupt den gesamten Markt abzudecken.
Selbst wenn jeder AMD wollte könnte nicht jeder AMD kaufen.

Und ein Gedankenspiel dass jeder sagt "AMD oder ich kaufe nix" mag theoretisch machbar sein, aber eher wird die Erde vorher durch einen Meteoriten ausgelöscht, als das das in diesem Extrem passieren wird.

Platos
2021-12-16, 10:08:22
wer spielt denn schon mit allem auf ultra. zumal es differenzen gibt zwischen den gpu herstellern. ich finde es toll, das es seiten gibt, die auch low mit im programm haben. diversität ist auf jeden fall ein gewinn.

Wer spielt schon in 720p ? Trotzdem macht es Sinn, dass man in 720p testet. Wenn man Praxistests will, dann kann man sich die jeweilige Auflösung geben, das testen nämlich mittlerweile lobenderweise immer mit.



Natürlich kommt es immer auf das Ziel an.
Will man praktische Benchmarks? (Die müsste man dann in praktischen Auflösungen mit praktischen Settings durchführen. Lernt dann allerdings nicht viel über die CPU, da meist im GPU-Limit.)
Oder will ein CPU-Limit herbeiführen?



Ich würde schon sagen, dass CPU Tests auf hohen Auflösungen wichtig sind (neben 720p oder 1080p Tests). Natürlich muss man wissen, wie gut die CPU theoretisch ist, aber im Endeffekt will man auch wissen, wie sehr sich das in der Praxis auswirkt und dafür braucht es dann auch 1080p, 1440p und 2160p Tests. Zu sagen, ab Auflösung xy ist man sowieso im GPU-Limit, ist Blödsinn. Gerade mit Alderlake. Von daher finde ich, muss man alle Tests in 1080p, 1440p und 2160p machen. Mittlerweile sind die GPUs so gut, dass man mit 1080p eig. quasi immer im CPU-Limit liegt. Mit einer 4090 braucht man für CPU-Tests kein 720p mehr, denke ich.

robbitop
2021-12-16, 11:16:30
wer spielt denn schon mit allem auf ultra. zumal es differenzen gibt zwischen den gpu herstellern. ich finde es toll, das es seiten gibt, die auch low mit im programm haben. diversität ist auf jeden fall ein gewinn.
Und wer spielt mit einer Top Tier CPU auf low details? Das ist doch wesentlich weniger repräsentativ.

Zumal es bei CPU Tests ja primär um die CPU Leistung im CPU Bottleneck geht. Also tut man natürlich alles dafür, dass die CPU Last maximiert wird.

Thunder99
2021-12-16, 12:56:57
Wobei die größte Unsicherheit ja die Frage ist wie in 3 Jahren die Spiele aussehen werden denn genau dafür muss man sich jetzt rüsten. Ist da weiterhin viel IPC gefragt oder könnte man stattdessen mehr Kerne brauchen? Wird auf ADL optimiert werden oder kauft ab Zen 4 sowieso jeder nur mehr AMD? Alles ungeklärte Fragen.

Es wird sich nichts groß ändern. 6-Kerner werden für alles langen wie jetzt auch, um flüssig spielen zu können.

BlacKi
2021-12-16, 21:35:06
Und wer spielt mit einer Top Tier CPU auf low details? Das ist doch wesentlich weniger repräsentativ.

Zumal es bei CPU Tests ja primär um die CPU Leistung im CPU Bottleneck geht. Also tut man natürlich alles dafür, dass die CPU Last maximiert wird.ihr versteift euch gerade auf low 720p. mir gehts um geringere settings als ultra und 100% cpu limit.


wenn du competitive games spielst, dann suchst du nicht danach was das die beste grafik, sondern was die beste performance bietet. und da kann 4k low sinnvoll sein. ja, die meisten die competitive spielen, spielen auf 1080p oder max 1440p, aber dort werden nochmals ganz andere fps gewünscht, was für die suche nach der richtigen gpu und cpu auch das setting auf low wichtig ist.


diversität ist immer ein gewinn. viele interessierts nicht, aber deshalb ist es nicht unnötig.

TurricanM3
2021-12-17, 10:46:24
Ich kriege heute G.Skill mit Samsung ICs. Bin gespannt was damit geht. Hynix scheinen aktuell wohl am besten zu laufen, nur die zu kriegen ist quasi unmöglich.

Geldmann3
2021-12-17, 13:24:18
Sicher eine Erklärung, warum ich in einigen Games die beste Performance messe, wenn die E-Cores inaktiv sind. Also war mir schon länger bekannt, doch netter Artikel.

Alder Lake – E-Cores, Ring Clock, and Hybrid Teething Troubles (https://chipsandcheese.com/2021/12/16/alder-lake-e-cores-ring-clock-and-hybrid-teething-troubles/)

iamthebear
2021-12-17, 21:55:13
Interessante Sache. Könnte das vielleicht auch der Grund sein warum die Verlustleistung so sehr rauf schießt sobald man den letzten E Core deaktiviert:
https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-test/2/#abschnitt_wie_effizient_sind_p_und_ecore
Wobei 50W nur für den Ringbus schon echt heftig wären.

Ist die Frage ob sich das dann auf jedem Powerlevel so verhält.

TurricanM3
2021-12-19, 01:56:12
Habe mal Anno1800 mein uraltes Savegame mit 40k Einwohnern getestet.

5950X (5050MHz) 3733C14 1:1 mit komplett durchoptimierten Subs:

https://abload.de/thumb/anno1800_2021_11_27_1wyjgh.png (https://abload.de/image.php?img=anno1800_2021_11_27_1wyjgh.png)

Viel mehr optimieren konnte man den nicht.

12900k @5300/4000 DDR5@5400C34 (Subs über Apex preset, da geht sicher noch was):

https://abload.de/thumb/anno1800_2021_11_28_1gik7s.png (https://abload.de/image.php?img=anno1800_2021_11_28_1gik7s.png)

:eek:

Ich musste allerdings Windows drüberbügeln (inplace) da zuerst alles in Slowmo lief. Anno1800 liegt Intel zwar eher, aber um ehrlich zu sein erscheint mir das zu krass. :ucrazy:
Oder das Game hat irgendwelche Eigenheiten, die das zum benchen weniger eignen. Ich kann also nicht 100% garantieren, dass das so korrekt ist. Habe aber extra je 2x gebencht und immer ~ 2Min. gewartet bis sich alles füllt und bei exakt 70:22:00 den screenshot gemacht.

Hab nun Samsung ICs. Hier mal mit 6000C32 + opt. Subs:

https://abload.de/thumb/anno1800_2021_12_19_090jd3.png (https://abload.de/image.php?img=anno1800_2021_12_19_090jd3.png)

Allerdings bin ich auf Win11 inzwischen (nur drübergebügelt) und das Game hatte einen Patch. Also mit Vorsicht zu genießen.

dildo4u
2021-12-19, 06:03:25
Teilweise Performance Regression mal sehen was man Ende 2022 an Timings/Speed so bekommt.


omumzW1AtGE

Lowkey
2021-12-19, 14:36:51
Das Video deutet an, dass Intel den sehr guten DDR4 Support übernimmt und den experimentellen DDR5 Support erst etablieren muss.



Wo steht eigentlich die News zum 12900k(f), dass Intel nun den Turbo 3.0 von 53x auf 52x reduziert hat?

Fertigungsprobleme?

ryan
2021-12-19, 16:59:10
Das Video deutet an, dass Intel den sehr guten DDR4 Support übernimmt und den experimentellen DDR5 Support erst etablieren muss.



Wo steht eigentlich die News zum 12900k(f), dass Intel nun den Turbo 3.0 von 53x auf 52x reduziert hat?

Fertigungsprobleme?



Turbo 3.0 war schon immer bei 5.2 Ghz.

Der_Korken
2021-12-19, 18:21:16
Teilweise Performance Regression mal sehen was man Ende 2022 an Timings/Speed so bekommt.


https://youtu.be/omumzW1AtGE

Ich frage mich bei den extremen Performance-Boosts, die es in manchen Spielen gibt, ob das bei DDR4 auch eine Frage der (fehlenden) Ranks liegt. Bei Zen 1 Release war die Frage Singlerank vs Dualrank stellenweise super interessant, weil es in einigen Titeln starke Performance-Zuwächse gab (so wie bei DDR5) und interessanterweise arbeitet DDR5 ja so ein bisschen wie DDR4 mit verdoppelten Ranks, weil jeder DIMM über zwei unabhängige Channel mit halber Bandbreite angesprochen wird. Leider gab es nur sehr wenige Teste für Singlerank vs Dualrank und in Benchmarks wird das auch nicht immer angegeben wie DDR4 lief (bei 16GB ist klar, dass es zwei Singlerank 8GB-Module sind, aber bei 32GB-Systemen ginge theoretisch beides).

Lowkey
2021-12-19, 18:53:39
Bei DDR5 hast du eine hohe Bandbreite, aber die Timings sind relativ schlecht. Daher skalieren alte Single/DualCore Spiele mit schnellem DDR4 besser. Haben wir ein absolutes CPU Limit, dann ist DDR5 eine Wohltat, wie TurricanM3 gezeigt hat.

Even.de im hwluxx hatte ein paar Tests zu den Rängen gemacht.

2x16gb DDR4 DR waren bei Intel oftmals ein Problem, also langsamer als 4x8gb.

Turbo 3.0 war schon immer bei 5.2 Ghz.


Es hält sich hartnäckig im hwluxx.

Der_Korken
2021-12-19, 19:48:40
Bei DDR5 hast du eine hohe Bandbreite, aber die Timings sind relativ schlecht. Daher skalieren alte Single/DualCore Spiele mit schnellem DDR4 besser. Haben wir ein absolutes CPU Limit, dann ist DDR5 eine Wohltat, wie TurricanM3 gezeigt hat.

Even.de im hwluxx hatte ein paar Tests zu den Rängen gemacht.

2x16gb DDR4 DR waren bei Intel oftmals ein Problem, also langsamer als 4x8gb.

Dass DDR5 nur dann schneller sein kann, wenn es genug parallele Zugriffe gibt, ist aufgrund der rohen Zahlen (Durchsatz und absolute Latenz) klar. Die Frage ist halt, ob es wirklich am höheren Durchsatz liegt oder daran, dass die Riegel an sich mehr parallele Zugriffe (offene Banks) erlauben. Weil mehr Durchsatz hätte man theoretisch auch schon vorher durch Quadchannel-DDR4 haben können (wobei es da heutzutage keine attraktiven Plattformen mehr für gibt - bei Intel bremst das Mesh, bei AMD der riesige Epyc-IO mit höheren Latenzen. Und man muss minimum 24 Kerne (Threadripper) kaufen, was absurd teuer ist für eine Gaming-Kiste).

iamthebear
2021-12-19, 22:53:34
Die Frage ist wie viele Reviews mit Dual vs. Quad Channel Interface bei vergleichbaren CPUs gab es denn die letzten Jahre? Alle Threadripper hatten auch deutlich mehr Kerne als vergleichbare CPUs.

Auch neigt der Vorteil der zusätzlichen Speicherkanäle schnell unter zu gehen wenn nur Spiele (mit wenig Threads) und Cinebench (läuft rein im L2) getestet werden.

Der_Korken
2021-12-20, 00:49:06
Zu Zen 1 Zeiten gab es die teilweise noch, weil die HEDT-Plattformen damals noch halbwegs erschwinglich waren, d.h. den Preisbereich zwischen 400 und 1000€ abgedeckt haben. Jetzt wo man im Desktop 16 Kerne bekommt ist HEDT für Gamer komplett uninteressant geworden, vor allem mit den veralteten Architekturen dort.

Denniss
2021-12-20, 01:27:41
5.3 hatte doch das komische Raketendings vor ADL

Geldmann3
2021-12-20, 16:22:19
Nach einer kleinen Benchmarkpause hier nun die Auswirkungen, welche ich beim Deaktivieren der Effizienzkerne sowie der Hyperthreads in Shadow of the Tomb Raider feststelle:

https://i.ibb.co/ykPchXX/ROTR-No-HT-No-E-Cores.png (https://i.ibb.co/ykPchXX/ROTR-No-HT-No-E-Cores.png)

Für mich sieht es so aus, als wäre Hyperthreading der Performance in diesem Spiel eher abträglich, während die E-Cores tendenziell zu einer Verbesserung führen. Wobei sich alle Konfigurationen so wenig geben, dass man die Unterschiede sogar schon der Messungenauigkeit zuschreiben könnte. (+/-2% zum 12900K @Stock)

Der 5600X verliert dagegen mal wieder deutlich durch die Abschaltung von SMT. Während der 6-Kerner mit SMT noch 4% vor dem 9900K liegt, fällt dieser ohne SMT 4% hinter den 9900K zurück. Der 9900k hingegen ist von der Deaktivierung seiner Hyperthreads auch in diesem Titel wieder unbeeindruckt.

aufkrawall
2021-12-20, 16:27:27
Sieht nach einer Stelle nahe am GPU-Limit oder ohne viele NPCs aus, ich habe schon 20% mit HT auf dem 11400F in dem Spiel gemessen.

Tigershark
2021-12-20, 16:34:30
Nach einer kleinen Benchmarkpause hier nun die Auswirkungen, welche ich beim Deaktivieren der Effizienzkerne sowie der Hyperthreads in Shadow of the Tomb Raider feststelle:

https://i.ibb.co/ykPchXX/ROTR-No-HT-No-E-Cores.png

Für mich sieht es so aus, als wäre Hyperthreading der Performance in diesem Spiel eher abträglich, während die E-Cores tendenziell zu einer Verbesserung führen. Wobei sich alle Konfigurationen so wenig geben, dass man die Unterschiede sogar schon der Messungenauigkeit zuschreiben könnte. (+/-2% zum 12900K @Stock)

Der 5600X verliert dagegen mal wieder deutlich durch die Abschaltung von SMT. Während der 6-Kerner mit SMT noch 4% vor dem 9900K liegt, fällt dieser ohne SMT 4% hinter den 9900K zurück. Der 9900k hingegen ist von der Deaktivierung seiner Hyperthreads auch in diesem Titel wieder unbeeindruckt.

Interessant - hast du auch die 1% low aus dem Szenario? Mich würde mal interessieren, ob sich die dann ähnlich verhalten oder wieder völlig aus dem Rahmen fallen...

Geldmann3
2021-12-20, 16:51:34
Habe in diesem Fall den internen Benchmark verwendet, der mir leider keine 1% lows zurückgibt. Wollte ihn nutzen, da er schon relativ ordentliche Szenarien testet, fand ich.
Sieht nach einer Stelle nahe am GPU-Limit oder ohne viele NPCs aus, ich habe schon 20% mit HT auf dem 11400F in dem Spiel gemessen.

Naja, das Game lief intern in 240p, würde da eigentlich kein großartiges GPU-Limit erwarten.

Ex3cut3r
2021-12-20, 18:57:23
Alter. Die Power von Samsung B-Die Getunt.

3600 ~ 4,2/4,150
32GB DDR4 3800 CL14, IF 1900mhz
RTX 3080 Ti @ 1,950 MHZ, +500 Mem

https://abload.de/thumb/desktop_2021_12_20_18wcjqn.png (https://abload.de/image.php?img=desktop_2021_12_20_18wcjqn.png)

https://abload.de/thumb/desktop_2021_12_20_18t5k2j.png (https://abload.de/image.php?img=desktop_2021_12_20_18t5k2j.png)

177 FPS avg. Damit bin ich on paar mit dem 12900k?! ;D

Oder hast du mit RT Schatten ON getestet? Dann sieht es nochmal -10 FPS. Kann ich auch benchen.

https://abload.de/img/zentimings_screenshothmjg6.png

-=Popeye=-
2021-12-20, 19:30:44
Mit Verlaub mit eurem DLSS geraffel scheint irgend etwas nicht zu stimmen.

i7-12700k @ stock
2x16GB DDR4-4000 CL16-16-16-28 2T + Subs
ASRock RX 6900 XT OC Formula @ stock (wassergekühlt)
Win 11

https://abload.de/img/sottr_2021_12_20_19_18tjw5.jpg

https://abload.de/img/sottr_2021_12_20_19_1qqk1i.jpg

Ex3cut3r
2021-12-20, 19:31:11
Ist unfair, weil du eine AMD hast. AMDs sind schneller im CPU Limit als Nvidias.

aufkrawall
2021-12-20, 19:34:08
Kann ich in dem Spiel nicht bestätigen:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12826910#post12826910
Der CPU 95% Wert von -=Popeye=- ist in etwa so viel höher, wie man es mit 3466 vs. 4000er RAM erwarten kann.

Ex3cut3r
2021-12-20, 19:41:51
Soweit ich weiß hat Geldmann auch noch eine 6900XT. Ich wette das mit der AMD Karte Richtung 200 FPS avg. hat. ;D

Oder aber er hat "Scheiße" gebencht. :freak:
Geldmann hat ja nur 3200 CL14 XMP genutzt? Popeye benutzt getunten RAM und eine AMD Karte. Du hast ja auch getunten RAM.

aufkrawall
2021-12-20, 19:43:36
-=Popeye=- hat doch auch eine 6900 XT.

VooDoo7mx
2021-12-20, 19:49:36
Mit Verlaub mit eurem DLSS geraffel scheint irgend etwas nicht zu stimmen.

i7-12700k @ stock
2x16GB DDR4-4000 CL16-16-16-28 2T + Subs
ASRock RX 6900 XT OC Formula @ stock (wassergekühlt)
Win 11

https://abload.de/img/sottr_2021_12_20_19_18tjw5.jpg

https://abload.de/img/sottr_2021_12_20_19_1qqk1i.jpg

Um was geht es jetzt hier überhaupt?
Ihr habt komplett verschiedene Settings und sogar verschiedene Spielversionen. Wtf?
Einigt euch auf eine Auflösung und ein Preset.
So ist das doch komplett Banane und mit Verlaub, vollkommen bescheuert was ihr da veranstaltet.
Wie 2 Geiteskranke die sich gegenseitig mit komplett wirren Theorien, versuchen den jeweils anderen zu überzeugen.
Shadow of the Tomb Raider jutzt im übrigen auch nicht die E-Cores.

aufkrawall
2021-12-20, 19:53:09
Was für "unterschiedliche Presets"? LOD und Schatten stehen auf ultra, der Rest ist quasi sowieso egal (bis auf RT natürlich). Wird schon passen, spätestens mit den synthetischen CPU-Ergebnissen des Benchmarks.

-=Popeye=-
2021-12-20, 20:02:19
Um was geht es jetzt hier überhaupt?
Ihr habt komplett verschiedene Settings und sogar verschiedene Spielversionen. Wtf?
Einigt euch auf eine Auflösung und ein Preset.
So ist das doch komplett Banane und mit Verlaub, vollkommen bescheuert was ihr da veranstaltet.
Wie 2 Geiteskranke die sich gegenseitig mit komplett wirren Theorien, versuchen den jeweils anderen zu überzeugen.
Shadow of the Tomb Raider jutzt im übrigen auch nicht die E-Cores.

Zum einen redert DLSS bei 720p in einer niedrigeren Auflösung und zum anderen ist hier DLSS wohl einfach nur murks. Wie soll man denn da Vergleiche herstellen wenn der andere DLSS Hardware bedingt nicht kann und mit dem vermeintlich schwächeren System deutlich mehr FPS generiert.

aufkrawall
2021-12-20, 20:20:57
Was spielt ihr jetzt wegen DLSS an euch rum? Das ist scheißegal im CPU-Limit:
https://abload.de/thumb/sottr_2021_12_20_20_1iiju2.png (https://abload.de/image.php?img=sottr_2021_12_20_20_1iiju2.png) https://abload.de/thumb/sottr_2021_12_20_20_1p7kdy.png (https://abload.de/image.php?img=sottr_2021_12_20_20_1p7kdy.png)

Man landet höchstens im "Tensor Core GPU-Limit" (?), aber dafür gibt es ja die synthetischen CPU-Werte im Benchmark...

Geldmann3
2021-12-20, 20:35:28
Alter. Die Power von Samsung B-Die Getunt.

3600 ~ 4,2/4,150
32GB DDR4 3800 CL14, IF 1900mhz
RTX 3080 Ti @ 1,950 MHZ, +500 Mem

https://abload.de/thumb/desktop_2021_12_20_18wcjqn.png (https://abload.de/image.php?img=desktop_2021_12_20_18wcjqn.png)

https://abload.de/thumb/desktop_2021_12_20_18t5k2j.png (https://abload.de/image.php?img=desktop_2021_12_20_18t5k2j.png)

177 FPS avg. Damit bin ich on paar mit dem 12900k?! ;D

Oder hast du mit RT Schatten ON getestet? Dann sieht es nochmal -10 FPS. Kann ich auch benchen.

https://abload.de/img/zentimings_screenshothmjg6.png


Ja, hatte tatsächlich auch die RT-Schatten aktiv.

Hmm, trotzdem, WTF, warum hast Du so viele FPS mit einem 3600?
Das ist ja mehr, als ich mit dem 5600X gemessen habe. :conf2:

Habe übrigens DX12 verwendet.

-=Popeye=-
2021-12-20, 20:39:38
Ok, dann erklärt das auch die DLSS Nutzung.

Aber mal ehrlich so macht der Test doch eigentlich keinen Sinn und ist den ganzen Aufwand nicht wert.

Er holt die Performance über den gut gepimten RAM.

Geldmann3
2021-12-20, 20:48:11
Sehe bei mir gerade unprofessioneller Weise, dass SAM bei der RTX 3090 nie aktiv gewesen zu sein scheint. Es wird in den Eigenschaften der RTX 3090 nicht ,,Großer Speicherbereich" angezeigt.
Ob das einen Unterschied macht, weiß ich nicht genau.

Bringt schon was, so wie es ausschaut (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/rBAR-auf-Geforce-Benchmarks-1369569/).

Lasse es jetzt für den Rest der 12900K Benchmarks wohl auch deaktiviert, damit es wenigstens konsistent ist.

Baue einfach zu viel am Rechner rum, da habe ich gar nicht mehr drüber nachgedacht. Frage mich auch schon, wie viele Wechsel so ein PCIe Steckplatz aushält. ;D

-=Popeye=-
2021-12-20, 20:57:18
Derartige SAM/rBAR zugewinne gibt es hier mit einer Radeon und Alder Lake auch nicht, da muss Intel nochmal ran, auf meinem 9900KS waren diese höher.

aufkrawall
2021-12-20, 21:45:20
Im völligen CPU-Limit sowieso nicht.

Ex3cut3r
2021-12-20, 21:55:16
Hmm, trotzdem, WTF, warum hast Du so viele FPS mit einem 3600?
Das ist ja mehr, als ich mit dem 5600X gemessen habe. :conf2:

Habe übrigens DX12 verwendet.

Ram Tuning. ;)
Subtimings ganz wichtig.
Versuchs mal.

Ist natürlich schon geil, wenn ein 3600, 150€ CPU einen 5600X für über das doppelte an Geld nass macht. ;)
Ich lasse sogar Zen 3 aus, ich könnte mir einfach einen holen. X570 Board habe ich eh. Aber ich warte nun auf die 3D Cache Versionen, dass dürfte dann mit meinem Ram Tuning richtig abgehen.

DX12 habe ich natürlich auch verwendet. Aber Windows 10 halt, aufgeräumt und kaum Prozesse im Hintergrund.

BlacKi
2021-12-20, 22:00:06
ist doch ganz einfach. rt schatten + ram tuning+ rt dx12 driveroverhead nachteil. die unterschiede sind dann absolut gesehen gigantisch und natürlich nicht vergleichbar. also pop vs geld.

TurricanM3
2021-12-20, 22:25:14
Wie ist das eigentlich mit rBar bei ADL, hatte mal irgendwo gelesen das sei auszulassen? Hab es auch nicht aktiv.

-=Popeye=-
2021-12-20, 22:39:23
Ist Spiel abhängig CB hat einen Test dazu.

https://www.computerbase.de/2021-11/intel-core-i9-12900k-i7-12700k-i5-12600k-gaming-benchmark-test/3/#diagramm-life-is-strange-true-colors-1280-720-resizable-bar

Ältere CPUs profitieren stellenweise deutlich mehr, bei Alder Lake kann/muss man es aber nicht zwingend einschalten.

TurricanM3
2021-12-20, 22:43:31
Ok, also das gehört demnach dann schon an. Ich hatte irgendwas von Problemen gehört und das aus gelassen. Danke dir.

VooDoo7mx
2021-12-20, 23:26:21
Ich hab mal die gleichen Schwansinns Settings wie Ex3cut3r mit meinen nicht übertakteten 12700K mit DDR4 4000 G1 getestet und hab 231 fps raus.
Und wie gesagt, Shadow of the Tomb Raider nutzt die E_Cores gar nicht, scheint wohl ein Bug zu sein, wahrscheinlich wäre ich mit abgeschalteten E Cores noch schneller.

Wie er dann meint er wäre mit seinen 177fps auf 12900K Niveau? Wahrscheinlich zu viel Lack gesoffen.
:facepalm:

Ex3cut3r
2021-12-20, 23:40:13
Ich hab mal die gleichen Schwansinns Settings wie Ex3cut3r mit meinen nicht übertakteten 12700K mit DDR4 4000 G1 getestet und hab 231 fps raus.
Und wie gesagt, Shadow of the Tomb Raider nutzt die E_Cores gar nicht, scheint wohl ein Bug zu sein, wahrscheinlich wäre ich mit abgeschalteten E Cores noch schneller.

Wie er dann meint er wäre mit seinen 177fps auf 12900K Niveau? Wahrscheinlich zu viel Lack gesoffen.
:facepalm:
Schawinns Settings? Er hat 720p mit Ultra Performance DLSS ausgewählt, ich habs zum vergleich genauso gemacht. Wie gesagt, er hat stinknormalen DDR4 3200 CL14 XMP benutzt.

Wäre nett, wenn du dein Ergebnis trotzdem posten wurdest.

Hier nochmal seine Ergebnisse mit Stinknormalen RAM ohne Tuning. Vlt. hast du ja Lack gesoffen, du nimmst doch so gern einiges zu dir. Oder hast du vlt. zu viel Voodooo gemacht?

https://i.ibb.co/ykPchXX/ROTR-No-HT-No-E-Cores.png

aufkrawall
2021-12-20, 23:41:49
Leute, nehmt doch einfach die 95% CPU Werte und ignoriert den Rest. Oder stellt euch wie oben in Paititi hin. Die avg fps des Benchmarks sind wesentlich weniger aussagekräftig. Case closed, danke...

Geldmann3
2021-12-21, 06:36:20
Ich hab mal die gleichen Schwansinns Settings wie Ex3cut3r mit meinen nicht übertakteten 12700K mit DDR4 4000 G1 getestet und hab 231 fps raus.
Und wie gesagt, Shadow of the Tomb Raider nutzt die E_Cores gar nicht, scheint wohl ein Bug zu sein, wahrscheinlich wäre ich mit abgeschalteten E Cores noch schneller.

Wie er dann meint er wäre mit seinen 177fps auf 12900K Niveau? Wahrscheinlich zu viel Lack gesoffen.
:facepalm:

Shadow of the Tomb Raider nutzt die E-Cores nicht?

Und was tut es dann hier bei mir?
https://i.ibb.co/nrv2twP/All-Threads.png

Also bei mir schnappt es sich alle 24 Threads, wenn vorhanden.

(Nicht über den Takt wundern, habe gerade ein Energiesparprofil am Laufen. Das ändert aber nichts an der generellen Threadnutzung)

Daredevil
2021-12-21, 07:26:51
Brauchts denn echt 24 Threads, um 100 FPS in Tomb Rainer darzustellen? ^^
Aber gut, der Takt ist ja in der Tat recht niedrig, bei 5Ghz würde das bestimmt anders aussehen, mh?
Wie hoch ist denn der CPU Verbrauch in diesem Setting?

Geldmann3
2021-12-21, 07:52:13
Im Screenshot hatte ich die CPU auf lediglich 46W limitiert und die P-Cores auf 3,8Ghz. War vorher ein wenig am Experimentieren.

Hier ein Graph, den ich mal erstellt hatte, um das Verhalten des Games bei unterschiedlichen Wattages abzubilden:

https://i.ibb.co/N3WFL3w/SOTR.png (https://i.ibb.co/N3WFL3w/SOTR.png)

Zu den 100 FPS muss ich sagen, dass es auch eine der heftigsten Szenen war.
Manchmal sieht man auch kaum Nutzung der E-Cores.

teezaken
2021-12-21, 11:32:04
Alter. Die Power von Samsung B-Die Getunt.

3600 ~ 4,2/4,150
32GB DDR4 3800 CL14, IF 1900mhz
RTX 3080 Ti @ 1,950 MHZ, +500 Mem

https://abload.de/thumb/desktop_2021_12_20_18wcjqn.png (https://abload.de/image.php?img=desktop_2021_12_20_18wcjqn.png)

https://abload.de/thumb/desktop_2021_12_20_18t5k2j.png (https://abload.de/image.php?img=desktop_2021_12_20_18t5k2j.png)

177 FPS avg. Damit bin ich on paar mit dem 12900k?! ;D

Oder hast du mit RT Schatten ON getestet? Dann sieht es nochmal -10 FPS. Kann ich auch benchen.

https://abload.de/img/zentimings_screenshothmjg6.png
Hab mal die selben Ingame Settings eingestellt mit meinem 5800X @ 3600MHz RAM. (Begrenzt auf 75W, hab nicht extra geguckt ob ich da reinrenne, vermutlich nicht)
https://abload.de/thumb/shadowofthetombraidermakcx.png (https://abload.de/image.php?img=shadowofthetombraidermakcx.png)

https://abload.de/thumb/shadowofthetombraider2hjwq.png (https://abload.de/image.php?img=shadowofthetombraider2hjwq.png)

Edit.: Hab es mal überprüft und der Benchmark hängt wirklich bei meinen 75W PPT, evtl. hole ich das mal mit offenem PPT nach.

BlacKi
2021-12-21, 14:10:15
Mit Verlaub mit eurem DLSS geraffel scheint irgend etwas nicht zu stimmen.

i7-12700k @ stock
2x16GB DDR4-4000 CL16-16-16-28 2T + Subs
ASRock RX 6900 XT OC Formula @ stock (wassergekühlt)
Win 11

https://abload.de/img/sottr_2021_12_20_19_18tjw5.jpg

https://abload.de/img/sottr_2021_12_20_19_1qqk1i.jpg


ich hab mal die trial version runtergeladen. deine config ist ja fast durchgehend gpu limitiert.


ich hab die settings aber mal von dir bis auf AA aus und auflösung 800x600 übernommen. ich hätte ja gerne 720p dlss versucht, aber das ging irgendwie nicht. vermutlich liegt das an der trial version.

8c16t so wie in der signatur

https://i.ibb.co/vV8vQJx/20211221140320-1.jpg

https://i.ibb.co/rkZBPqn/20211221140324-1.jpg
habs mal in einen post gezogen wegen übersichtlichkeit
man sieht schö, dass das gpu limit erneut steigt.
ich probiere gleich nochmal 8c16t+8

€dit: achja, gestern win11 komlett frisch installiert.
8c8t
https://bilderupload.org/image/779e94579-20211221144634-1.jpg
https://bilderupload.org/image/4fc294648-20211221144627-1.jpg



8c16t+8
so mag ich meine cpu tests, 0% gpu gebunden^^
https://abload.de/img/20211221150657_1k7kd1.jpg
https://abload.de/img/20211221150704_14kjsp.jpg

Tigershark
2021-12-21, 14:17:40
ps: abload ist tot?

Nö. Funktioniert einwandfrei (so gut wie abload halt funktioniert).

Ihr habt jetzt also an 3 Rechnern mit unterschiedlichen Konfigs 232FPS. Ob das vll irgendein Engine-Limit ist?

*edit* okay, mit dein neuen Bildern erübrigt sich die Frage nach dem Engine-Limit. Dann wohl doch Zufall :-P

BlacKi
2021-12-21, 14:50:59
sry DP

Lowkey
2021-12-21, 15:27:57
Abload ist heute gestört. Geht aber hin und wieder. Ich hatte mit 5950x gerade 190fps mit den Settings.


Ich habe das Setting am Laufen:

12700KF (SP85/52), Asus 690-i, 2x16gb DDR5-6000 CL36

Jetzt gehe ich halt hin und stelle die CPU wie immer auf 50x (P) Allcore, 40x (E) Allcore und 40x (Cache). Den Speicher stellt man zunächst auf XMP. Die Vcore muss man nicht wirklich austesten, denn für 5000Mhz gibt die Asus AI einen Wert + LLC vor. Das stimmt sogar.

Wenn das System dann läuft (Win10), kann man weiter übertakten. Ab mehr als 1.25v Vcore wird es zunehmend unkühlbar. Also stellt man dann mit Hilfe der AI Auswertung im Bios die Kerne in 3 Gruppen ein: 3x 53x 5x52 und Allcore auf 50. Ebenso werden die E-Kerne eingestellt (hat praktisch kaum eine Auswirkung, denn entweder laufen sie mit oder nicht. Zwischenstufen sieht man nicht). Dann taktet die CPU bei bis zu 3 Kernen einfach auf 5300Mhz. Dazu kann man OCTVB mit +1 aktivieren. Dann taktet die CPU oft eine Stufe höher, aber nur mit aktivierten C-States und Windowsprofil auf Ausbalanciert. Mit 54x laufen die Benchmarks einen Hauch schneller durch und besonders die Single Thread Performance steigt deutlich an.

Weil aber die E-Kerne mitlaufen, kann man den Cache nicht höher als 41/42 betreiben. Ebenso klauen die E-Kerne etwas Vcore und Cache. AVX512 klappt ebenfalls nicht wenn die E-Kerne an sind. So wäre es sinnvoll die CPU nur mit 8 P-Kernen zu betreiben und E-Kerne auszuschalten. Dann laufen die P-Kerne in der Theorie mit weniger Spannung und der Cache kann auf CPU Allcore -3 gestellt werden (teste ich noch aus).

Das Hauptproblem an der Stelle ist das Binning seitens Intel. Mein Plan war es nur die 8 P-Kerne hochzuziehen. Doch bei sämtlichen 12700k(f) findet man keine gute CPU bzw. gute CPU Qualität. 12900k(f) sind grundsätzlich qualitativ besser.

Zweitens kann man derzeit am DDR5 nichts einstellen oder den "Turbo" freischalten. Mit XMP startet der PC relativ schnell und ist stabil. Alles andere geht nicht wirklich stabil.

Drittens hilft mir der EKWB Support nicht weiter, denn der Kühler steht für das Board auf der Freigabeliste, aber die Backplate passt nicht richtig und der Lotes Sockel verzieht den HS der CPU. In 4-8 Wochen verspricht man mir Verbesserungen, aber nicht zwingend für aktuelle Kunden, sondern nur für Neukäufer. Daher haben die meisten Neukäufer hohe Temperaturen selbst bei Teillast. Bei der Montage muss man grundsätzlich zuerst die Backplate fest montieren
und dann erst die CPU einsetzen.

Sehr positiv fällt mir das Bios von Asus auf. Den CMOS Reset brauchte ich noch nie und es bootet nur noch 2s länger als mein AM4 Brett.

Geldmann3
2021-12-21, 15:28:32
Also bin ich auf meinen Rechnern in diesem Benchmark Ram- gebunden, aufgrund des ,,nur" 3200 CL14 Kits?

Mit den Raytracing-Schatten auf Ultra und DLSS Ultra Performance lande ich bei 176FPS und bin dabei in 10% der Zeit GPU gebunden. Trotz nur internen 240p?

https://i.ibb.co/87JHZ4z/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-13-09-74.png (https://i.ibb.co/87JHZ4z/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-13-09-74.png)

Schalte ich die Raytracing-Schatten aus, lande ich bei 197 FPS und bin 0% GPU gebunden:

https://i.ibb.co/XJqbFNk/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-08-43-11.png (https://i.ibb.co/XJqbFNk/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-08-43-11.png)

Schalte ich DLSS hingegen aus, stürze ich auf nur noch 164 FPS und bin zu 36% GPU gebunden:

https://i.ibb.co/55snGZ5/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-17-26-94.png (https://i.ibb.co/55snGZ5/Shadow-of-the-Tomb-Raider-Screenshot-2021-12-21-15-17-26-94.png)

DLSS hilft also auch in 720p noch die GPU zu entlasten.

Auf eure 230+ FPS-Werte komme ich nicht, wegen dem Ram?

Edit: Ich sehe gerade, ihr habt sowohl einen neuen Build vom Game, als auch einen neueren Treiber installiert.
Frage mich, warum Steam mir kein Update angeboten hat...

Versuche jetzt mal beides zu Updaten und es zu wiederholen.

Hmm, ne, scheinbar gibt es kein Update für das Game?
Eventuell verhält sich eure Trial-Version anders als das Full Game?

BlacKi
2021-12-21, 15:48:12
meine werte kannst du nicht als referenz nehmen, aber ja, ramtuning ist extrem wichtig.

teezaken
2021-12-21, 16:18:36
Hab mal die selben Ingame Settings eingestellt mit meinem 5800X @ 3600MHz RAM. (Begrenzt auf 75W, hab nicht extra geguckt ob ich da reinrenne, vermutlich nicht)
https://abload.de/thumb/shadowofthetombraidermakcx.png (https://abload.de/image.php?img=shadowofthetombraidermakcx.png)

https://abload.de/thumb/shadowofthetombraider2hjwq.png (https://abload.de/image.php?img=shadowofthetombraider2hjwq.png)

Edit.: Hab es mal überprüft und der Benchmark hängt wirklich bei meinen 75W PPT, evtl. hole ich das mal mit offenem PPT nach.
239FPS @ Stock PPT, 242FPS @ Stock PPT und ohne SMT.
Kann gerne Bilder nachliefern falls gewünscht, aber ansonsten musste ich meine GPU trotz 800x600 und ultra performance DLSS schon gut übertakten und selbst dann habe ich ein paar % GPU Limit.

Lowkey
2021-12-21, 17:02:12
https://abload.de/img/tr54xhejr3.jpg

12700KF mit 2070 ohne DDR5 Tuning

Geldmann3
2021-12-21, 17:10:07
Was für DDR5 Ram?

Lowkey
2021-12-21, 17:18:12
Der 6000er CL36. Ohne E-Kerne 209

BlacKi
2021-12-21, 17:24:34
angeblich wäre adl mit den e cores nichtmehr langsamer...

ich hatte gedacht, es liegt an meinem alten win10. aber win11 hier performt nicht anders.

VooDoo7mx
2021-12-21, 18:20:20
Schawinns Settings? Er hat 720p mit Ultra Performance DLSS ausgewählt, ich habs zum vergleich genauso gemacht. Wie gesagt, er hat stinknormalen DDR4 3200 CL14 XMP benutzt.

Wäre nett, wenn du dein Ergebnis trotzdem posten wurdest.

Hier nochmal seine Ergebnisse mit Stinknormalen RAM ohne Tuning. Vlt. hast du ja Lack gesoffen, du nimmst doch so gern einiges zu dir. Oder hast du vlt. zu viel Voodooo gemacht?

https://i.ibb.co/ykPchXX/ROTR-No-HT-No-E-Cores.png
Oh die Settings sind nicht von dir, sondern von Geldmann3, dann entschuldige ich mich. Eine Flasche Lack geht auf mich!

Es ist kompletter Schwachsinn wenn man zum benchen im CPU Limit einerseits eine extrem niedrige Auflösung nimmt, dann jedoch aber Ultra Deteils+. Dann auch noch DLSS mit dazu zu nehmen halte ich noch mehr für Quark, da dann wiederum Leute mit AMD Grafikkarten nicht vergleichen können.
Shadow of the Tomb Raider nutzt die E-Cores nicht?

Und was tut es dann hier bei mir?
https://i.ibb.co/nrv2twP/All-Threads.png

Also bei mir schnappt es sich alle 24 Threads, wenn vorhanden.

Bei Windows 11 (was ich nutze).
Hätte ich noch dazu schreiben müssen, sorry.
Brauchts denn echt 24 Threads, um 100 FPS in Tomb Rainer darzustellen? ^^
Aber gut, der Takt ist ja in der Tat recht niedrig, bei 5Ghz würde das bestimmt anders aussehen, mh?
Wie hoch ist denn der CPU Verbrauch in diesem Setting?
Ich hab hier was zu den CPU Verbrauch, bei mehreren modernen (Raytracing-)Spielen, Screenshots mit Verbräuchen gepostet:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12857664&postcount=579

Kurz zusammengefasst: Mein 12700K stock mit -125mV undervolt braucht bei modernen SP Titeln selbst bei 200fps+ kaum mehr als 70W.

------------------------------------------------------------------------

So hier nochmal: 12700K@ stock DDR4 4000 G1 CL18-22-22-42, kein Sub Timing Tuning

#1 Geldmann3 Settings: 1280x720 DLSS UP, HDR aus, Ultra Details + 4 weitere Einstellungen auf Ultra/hoch, DX12

https://abload.de/img/20211221175844_1q1kxb.jpg

#2 1280x720 TAA (kein DLSS!), HDR aus, Lowest Preset, DX12

https://abload.de/img/20211221182522_12jjyk.jpg

#3 1920x1080 TAA (kein DLSS!), HDR aus, Lowest Preset, DX12

https://abload.de/img/20211221180451_1fmkn3.jpg

VooDoo7mx
2021-12-21, 18:56:20
Doppelpost, bitte löschen.

Geldmann3
2021-12-21, 19:00:15
Es ist jedoch kompletter Schwachsinn wenn man zum benchen im CPU Limit einerseits eine extrem niedrige Auflösung nimmt, dann jedoch aber Ultra Deteils+. Dann auch noch DLSS mit dazu zu nehmen halte ich auch für Quark, da dann wiederum Leute mit AMD Grafikkarten nicht vergleichen können.


Halte es nicht für kompletten Schwachsinn.
Die Ultra Details sind dafür da, dass die CPU bei der Berechnung der Spiellogik vor nichts verschont bleibt, was eventuell CPU-Zyklen beanspruchen KÖNNTE. Ich kann nicht in den Code jedes Spiels schauen und daher nicht völlig ausschließen, welcher Effekt die CPU beansprucht und welcher nicht.

Die niedrige Auflösung und DLSS sorgen dann dafür, dass das ganze Repertoire an möglichen, zu berechnenden Effekten zwar aktiv ist, die GPU dabei jedoch so wenig wie möglich belasten.

Leute mit AMD Grafikkarten können sowieso nicht vergleichen, da diese im CPU-Limit ganz andere Frameraten generieren können. Bei CPU-Tests sollte man immer wenigstens Karten mit der selben Architektur gegeneinander testen.

Meine 6900 XT ist im CPU Limit z.b. wesentlich schneller.

Verwende sie nur deshalb nicht dafür, weil sie in einem Rechner bei meiner Mutter steckt und ich sie dort nicht dauernd herausreißen kann/will, wie ich es mit der RTX 3090 gerade tue.

Wenn ich es anders machen würde, müsste ich zudem bei jedem Spiel drüber nachdenken, welche Settings ich bei welcher Auflösung fahren will.
Daher nehm' ich den No-Brainer. Auflösung auf 720p, Upsampling ggf. auf den sparsamsten Modus, alle Settings rauf und go.
Natürlich könnte ich noch bei jedem Spiel fein granular analysieren, welches Setting, was für eine CPU-Last in welcher Szene verursacht, wüsste dann am Ende aber auch nichts genau, da ich nicht weiß, wie das Game intern arbeitet. Daher Cmon, Auflösung minimieren, Settings, außer AA maximieren und go.

Das ist dann schon so CPU-limitiert, wie niemand jemals realistisch gehen würde und alle möglichen Settings die CPU-Last verursachen könnten sind dabei.

Außerdem würde jedes manuelle herumgetweake an den Settings von meiner Seite theoretisch den Ausgang der Benchmarks insofern beeinträchtigen, dass dann ,,mein BIAS" drin wäre.
So haue ich einfach alles rein, was die Developer reingehauen haben, lasse die GPU so wenige Pixel wie möglich berechnen und fertig.

Ex3cut3r
2021-12-21, 19:20:00
Und warum sind die jetzt alle so viel schneller @ Geldmann? Kannst du nicht auch mal den RAM hochzuziehen, oder die anderen wie du mit 3200 CL14 XMP benchen? Gilt natürlich nur für Alderlake User.

Geldmann3
2021-12-21, 19:27:24
Das würde mich auch sehr interessieren!

Ob da bei mir alles in Ordnung ist...

Runterziehen sollte ja einfacher gehen als hochziehen.^^
Wenigstens mit DDR4.

3200 CL14-14-14-34.

Mir kommt der Unterschied nämlich ein bisschen groß für Ramtuning vor.

Habe übrigens einfach nur XMP aktiviert:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77797&stc=1&d=1640111442

Könnte theoretisch auch der Unterschied zwischen Spiel und Trial-Version sein.

aufkrawall
2021-12-21, 19:29:17
Das Lowest-Setting ist wirklich mal Unsinn, und über aktiviertes RT lässt sich das Gleiche sagen. Man könnte jetzt gemein "Wer viel misst..." anmerken, oder etwas netter "Weniger ist manchmal mehr"... ;)

Geldmann3
2021-12-21, 19:35:00
Warum, die CPU muss in vielen Titeln hart für Raytracing arbeiten, um z.b. die BVH-Struktur zu erstellen.

Je höher das Setting, desto größer eventuell der zu berechnende Radius.
Jedoch sind die meisten Games ja leider sehr intransparent, wenn es darum geht, was man da nun wirklich intern verstellt.

Am liebsten hätte ich überall Regler wie im ART-Mark.

Rays per Pixel
Max-Bounces

oder auch sowas wie den Faktor der internen Renderauflösung des RT-Passes.

Das ist doch das Problem, man weiß einfach nicht, was man da runterstellt, wenn man von ,,Ultra" runter geht.
Mir würde bei den meisten RT-Effekten z.b. ein viertel der Renderauflösung genügen, wenn die Ausgabeauflösung hoch genug ist.

aufkrawall
2021-12-21, 19:38:26
Warum
Weil es die fps im GPU-Limit um mitunter 50% knüppelt. Du hast doch selber schon angemekrt, dass du so in 720p immer noch partiell im GPU-Limit hängst...
Übrigens hat das Spiel auch Resolution Scale, DLSS brauchts da auch nicht.

Lowkey
2021-12-21, 20:18:10
Bekomme mehr Punkte mit GPU OC. Passt also noch nicht ganz.

Ich muss mal den max. Cache auslooten und danach gezielt jeden Kern takten lassen. Ich denke pro Kern kann man durch Kern OC noch +100mhz rausholen. Mit OCBTV taktet er auch krumm und das bringt Leistung.

Matrix316
2021-12-21, 20:28:54
Die Bastelwut hat gesiegt bzw. mein Gaming PC bekommt sein Weihnachtsgeschenk. ;) Ist aber nur ein 12700K. Ja 12 Kerne und 24 Threads sind ganz nett, aber da ich kein Videoschnitt mache oder nichts großartig rechnen lasse, sollte der reichen (wahrscheinlich sollte sogar ein 12600K reichen, aber ich will ja nicht zu sehr downgraden *g*) . Das was am meisten CPU braucht sind nur die Spiele und Chrome. :D Dazu ein Tuf Z690 Board mit DDR4 (da soll meine AIO passen) und was wahrscheinlich das größte Update sein wird eine neue PCIe M2 SSD. :D ;) *g*

-=Popeye=-
2021-12-21, 20:50:09
Ich lasse auch nochmal ein paar Bilder da und dann noch viel Spaß mit euren komischen Settings.

i7-12700k @ stock
2x16GB DDR4-4000 CL16-16-16-28 2T + Subs
ASRock RX 6900 XT OC Formula @ stock (wassergekühlt)
Win 11

https://abload.de/img/12700k_ddr4_even_subszvk6m.png

https://abload.de/thumb/12700k_4000_ramcpjov.png (https://abload.de/image.php?img=12700k_4000_ramcpjov.png)

800x600

https://abload.de/img/sottr_2021_12_21_14_4fwk6v.jpg

https://abload.de/img/sottr_2021_12_21_14_45ukjc.jpg

1280x720

https://abload.de/img/sottr_2021_12_21_17_5c9jzu.jpg

https://abload.de/img/sottr_2021_12_21_17_5jukdn.jpg