PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Alder Lake - Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8

BlacKi
2021-12-21, 20:59:28
für dx12 titel wünsch ich mir auch manchmal ne amd gpu:frown:

iamthebear
2021-12-21, 21:13:02
Also ich sehe das wie Geldmann. Gerade bei RT arbeiten oft zusätzliche Threads was die Kaufentscheidung in vielen Fällen deutlich verändern kann wenn z.B. die 6 Kerner ohne E Cores (12400F/5600X) wegbrechen während die 8 Kerner oder 6+4 noch gut mithalten.
Ob jetzt DLSS ultra Performance sinnvoll ist wenn das Spiel auch 50% Renderauflösung einstellbar hat bin ich mir nicht sicher. Aber auch hier würde ich sagen: Wenn DLSS in der Praxis ein ist, dann besser mit aktivieren denn vielleicht generiert der Treiber hier ja auch etwas mehr CPU Last.

aufkrawall
2021-12-21, 21:33:07
für dx12 titel wünsch ich mir auch manchmal ne amd gpu:frown:
Komisch, dass das hier auf dem 11400F mit der 3060 im CPU-Limit genau so schnell läuft wie vorher mit der 6800.
Aber ich hab natürlich auch eine Spiele-CPU und keinen Multi-CCX- oder little.BIG-Krüppel...

Edit: Das lief mit dem 6700K auf Turing auch mal langsamer im CPU-Limit als mit AMD. Kann ich mit dem 11400F und Ampere bzw. neueren Treibern aber nicht mehr bestätigen...

BlacKi
2021-12-21, 22:22:07
Komisch, dass das hier auf dem 11400F mit der 3060 im CPU-Limit genau so schnell läuft wie vorher mit der 6800.
Aber ich hab natürlich auch eine Spiele-CPU und keinen Multi-CCX- oder little.BIG-Krüppel...

Edit: Das lief mit dem 6700K auf Turing auch mal langsamer im CPU-Limit als mit AMD. Kann ich mit dem 11400F und Ampere bzw. neueren Treibern aber nicht mehr bestätigen...


popeyes aida werte sind scheiße für seine angelegten latenzen, die hauptlatenzen sind besser als bei mir. ich hab 44.x ns. deshalb schob ich es auf den driveroverhead von nv in dx12 spielen. wäre aber interessant, wenn die neuen treiber das nichtmehr hätten.

aufkrawall
2021-12-21, 22:27:32
wäre aber interessant, wenn die neuen treiber das nichtmehr hätten.
Es wird arg aufs jeweilige Spiel ankommen, ggf. auch vornehmlich mit bestimmten CPU-Kombis etc. Da muss man schon genau aufapssen, argumentieren und (valide!) testen, sonst kochen hier alle nur noch ihren Halbwissen-Eintopf auf. Es zeichnet sich leider gerade so etwas ab...

BlacKi
2021-12-21, 22:37:34
geldmaaaaaaaannnn^^ bitte reiß die karte bei deiner mutter raus!^^

-=Popeye=-
2021-12-21, 22:55:13
popeyes aida werte sind scheiße für seine angelegten latenzen, die hauptlatenzen sind besser als bei mir. ich hab 44.x ns. deshalb schob ich es auf den driveroverhead von nv in dx12 spielen. wäre aber interessant, wenn die neuen treiber das nichtmehr hätten.

2x8GB SR verhält sich bei den Latenzen anders als 2x16GB DR. ;)

https://www.hardwareluxx.de/community/attachments/12700k_aida_cl16-png.702208/

https://www.hardwareluxx.de/community/attachments/12700k_aida_cl16_-png.702209/

Ex3cut3r
2021-12-21, 22:56:15
Es wird arg aufs jeweilige Spiel ankommen, ggf. auch vornehmlich mit bestimmten CPU-Kombis etc. Da muss man schon genau aufapssen, argumentieren und (valide!) testen, sonst kochen hier alle nur noch ihren Halbwissen-Eintopf auf. Es zeichnet sich leider gerade so etwas ab...

Da muss man gar nix testen, weder muss man nun die Verschwörungstheorie auspacken. Nvidia ist im CPU Limit in DX12 in den meisten Titeln einfach langsamer als AMD. Das ist Fakt. Warum das so ist, bis heute leider keine Antwort von Nvidia. Dafür ist Nvidia halt in DX11 schneller als AMD. Aber ganz ehrlich, welche neue Titeln ist diese Jahr rausgekommen mit DX11? Mir fällt da nur Days Gone ein. Nächstes Jahr wird es wohl gar keiner sein. Von daher vlt. sollte mal Nvidia mal am DX12 Pfad im Treiber basteln. Denn für den Market Leader ist das schon peinlich.

TurricanM3
2021-12-21, 23:10:28
Bei mir sieht das so aus, hab aber kein Tomb Raider:

https://abload.de/thumb/6000c32_gsatsgjp9.png (https://abload.de/image.php?img=6000c32_gsatsgjp9.png)

BlacKi
2021-12-21, 23:21:20
Bei mir sieht das so aus, hab aber kein Tomb Raider:

https://abload.de/thumb/6000c32_gsatsgjp9.png


trial kann man downloaden, ist halt aber anders als die vollversion.

aufkrawall
2021-12-21, 23:23:56
Da muss man gar nix testen
Tja, wenn das dein Anspruch ist, dann gute Nacht. Ich ziehe es vor, mir keinen Müll nach Gutdünken aus den Fingern zu saugen und bleibe lieber bei den Fakten. Und Fakt ist, es läuft hier mit der 3060 nicht langsamer, auch wenn es nicht in deine Erzählung passt...

VooDoo7mx
2021-12-22, 00:11:13
für dx12 titel wünsch ich mir auch manchmal ne amd gpu:frown:

Ja ich will auch Spiele in 720p lieber mit 270 statt 250fps spielen.
Die 6900XT ist ggü der 3080 Ti die eindeutig bessere 720p Karte. :ugly:


Aber ich hab natürlich auch eine Spiele-CPU und keinen Multi-CCX- oder little.BIG-Krüppel...

Nee du hast ne arme Leute CPU und musst nur deinen Neid kompensieren.
Frag doch mal nach ner Taschengelderhöhung.

Da muss man gar nix testen, weder muss man nun die Verschwörungstheorie auspacken. Nvidia ist im CPU Limit in DX12 in den meisten Titeln einfach langsamer als AMD. Das ist Fakt. Warum das so ist, bis heute leider keine Antwort von Nvidia. Dafür ist Nvidia halt in DX11 schneller als AMD. Aber ganz ehrlich, welche neue Titeln ist diese Jahr rausgekommen mit DX11? Mir fällt da nur Days Gone ein. Nächstes Jahr wird es wohl gar keiner sein. Von daher vlt. sollte mal Nvidia mal am DX12 Pfad im Treiber basteln. Denn für den Market Leader ist das schon peinlich.

So pauschal kannst du das gar nicht nachweisen.
Und mit welchen Spielen ist man mit realistischen Settings denn im CPU Limit?
Wovon reden wir hier eigentlich?

BlacKi
2021-12-22, 00:19:18
Ja ich will auch Spiele in 720p lieber mit 270 statt 250fps spielen.
Die 6900XT ist ggü der 3080 Ti die eindeutig bessere 720p Karte. :ugly:



Nee du hast ne arme Leute CPU und musst nur deinen Neid kompensieren.
Frag doch mal nach ner Taschengelderhöhung.für die meisten spiele mag das uninteressant sein, aber im limit selbst, spielt es keine rolle wenn man unter die herzzahl des monitors dipt. da will man die maximale leistung haben. in sottr liegt man natürlich jenseits dessen was ich brauche.

aufkrawall
2021-12-22, 01:12:45
Nee du hast ne arme Leute CPU und musst nur deinen Neid kompensieren.

Lass mich raten: Im Straßenverkehr hupst und lachst du aus deinem Golf heraus Polo-Fahrer aus. Wenn du mich jetzt korrigieren willst, dass du stattdessen eine richtige Protzkarre fährst: nur zu!
Wer hier wohl einen Komplex seiner sozialen Herkunft mit sich rumschleppt... ;)

Ex3cut3r
2021-12-22, 04:42:17
So pauschal kannst du das gar nicht nachweisen.
Und mit welchen Spielen ist man mit realistischen Settings denn im CPU Limit?
Wovon reden wir hier eigentlich?
https://www.pcgameshardware.de/CPU-CPU-154106/Specials/Radeon-Geforce-CPU-Limit-Test-1368614/

Insgesamt können wir das oben gezeigte ganz einfach zusammenfassen: Kommt eine Lower-Level-API wie Direct X 12 zum Einsatz, ist die Performance mit einer AMD-Grafikkarte, wie der RX 6900 XT, im CPU-Limit mess- und fühlbar höher.

Desweiteren:

https://www.computerbase.de/2021-11/forza-horizon-5-benchmark-test/3/

GeForce hat Probleme mit dem CPU-Limit
AMDs aktuelle RDNA-2-Grafikkarten sind in Forza Horizon 5 schneller als die konkurrierenden Ampere-Grafikkarten von Nvidia. Das gilt vor allem für niedrige Auflösungen, bis hinauf zu Ultra HD gibt es aber einen Vorteil. In kleinen Auflösungen wie Full HD hat die GeForce-Riege das Problem in ein CPU-Limit zu geraten, das es auf Radeons offenbar nicht gibt. Dann ist die Radeon RX 6800 plötzlich vergleichbar schnell wie die GeForce RTX 3080 Ti.
6800 non XT ~ 3080 Ti, dass muss man sich mal geben. :eek: Alles wegen dem DX12 Overhead mit Nvidia Karten.

Nvidia läuft um einiges langsamer als AMD im CPU Limit. Fakt. Ist das wirklich so was neues für euch? :freak: Bin immer wieder erstaunt. Schaut euch das Video von HWU an, es ist teilweise erschreckend wie langsam Nvidia bei DX12 im CPU Limit mit vor allem halt schwächeren CPUs ist. Mit einer Nvidia Karte musst du halt mehr in deine CPU und/oder RAM investieren. Wenn du raus aus dem CPU Limit bei FHD und WQHD willst.

Erinnert ihr euch noch an das DX11 Zeitalter? Da hat Nvidia mit den legendären 337.50 Treiber, einfach mal die DX11 Performance im CPU Limit um das doppelte gesteigert. Wo bleibst sowas für DX12 Nvidia????? Warum seit ihr so ruhig was dieses Thema angeht? Tut endlich was Nvidia.

JLEIJhunaW8

TurricanM3
2021-12-22, 08:39:45
trial kann man downloaden, ist halt aber anders als die vollversion.

Der Benchmark ist abweichend? :confused:

Geldmann3
2021-12-22, 08:57:31
Wäre unlogisch, die Build-Version ist allerdings eine andere.
Daher ist es wenigstens nicht auszuschließen.

Lowkey
2021-12-22, 08:59:40
Und die Demo kann man nachträglich nicht einfach installieren. Bei mir weigert er sich.

TurricanM3
2021-12-22, 09:12:21
Falls es interessiert kann ich heute Abend auch mal mit der Demo laufen lassen. Müsste nur wissen wie ihr testet. Hab aber NV im Rechner.

BlacKi
2021-12-22, 11:59:23
Der Benchmark ist abweichend? :confused: ja, zb gibts kein 720p mit dlss oder internes resolution skaling.

Und die Demo kann man nachträglich nicht einfach installieren. Bei mir weigert er sich. auch mit anderem steamaccount?

-=Popeye=-
2021-12-22, 12:07:18
Der Benchmark ist abweichend? :confused:

Die Demo hat nur ein neueres Build weil diese im gegensatz zum Hauptspiel erst später DLSS und Raytracing spendiert bekommen hat, es sollte also beides vergleichbar sein.

btw

Single- vs. Dual-Rank, DDR4 vs. DDR5 – Was ist die ideale RAM-Config für Intel Alder Lake? | Synthetics und Gaming (https://www.igorslab.de/single-vs-dual-rank-ddr4-vs-ddr5-auf-alder-lake/)

Geldmann3
2021-12-22, 13:02:00
RMWgOXqP0tc

Matrix316
2021-12-22, 13:37:10
Klare Antwort: Ja, nein und vielleicht. ;)

Manchmal hilfts, oft nicht... was soll man da machen?

Lowkey
2021-12-22, 14:07:40
Man muss die E-Cores abschalten, den Uncore erhöhen, AVX512 aktivieren und eventuell noch ein paar andere CPU Parameter, die dann die freien Ressourcen auf die P-Cores verteilen.

zb. muss man wie bei AMD nun im Bios C-states anschalten und ebenso in Windows den Energiesparmodus aktivieren. Im Detail weiss ich nicht welche Einstellung bei Energiesparschema notwendig ist, doch kann er dann Kerne komplett abgeschaltet lassen (zB. bei Singlethread).

Man muss bei dem Video sehr genau hinschauen, denn eine Erklärung für CS und Starcraft fehlt noch. Grundsätzlich bringt das reine E-core abschalten also etwas. Die Frage ist nur wie gut es mit CPU OC und Mem OC später skaliert?

aufkrawall
2021-12-22, 14:42:32
Ist das wirklich so was neues für euch?
Nein, aber du stellst es verdreht da. Kannst auch in den FC6 Bench-Thread schauen, ~0 Vorteil für Radeons:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12833637&postcount=23
Schon allein das widerlegt deine Behauptung, mit Radeon wären die fps im CPU-Limit bei D3D12 immer ein gutes Stück höher, komplett...
Und es muss jetzt auch keiner anfangen, mit "Overhead" rumzuschwafeln. Bei SotTR sind hier nicht die fps identisch gewesen, sondern auch die CPU-Auslastung. Das Problem kann viel komplexer und spezifischer sein, etwa L3 Cache Nutzung bei Multi-CCX etc.: https://www.phoronix.com/scan.php?page=news_item&px=Mesa-L3-Cache-Pinning-Fixed
Kann sein, dass der AMD D3D12-Treiber bei so etwas besser optimiert ist. Wissen wir aber nicht, es testet ja niemand gut genug (man müsste verschiedene CPUs mit unterschiedlichen Kern-Topologien vergleichen).

Ex3cut3r
2021-12-22, 17:05:34
Echt jetzt ein Ubisoft Spiel? Btw. ist Intel ja wieder um einiges schneller in Dunia. Da braucht es schon Zen 3 um mit Intel 10 oder 11er Gen mitzuhalten. In fast jeden neuen Spiel ist AMD schneller im CPU Limit als Nvidia, mir ein Rätsel warum du das "Problem" verharmlost. Ist bei dir aber sowieso immer komisch, du scheint deine Meinung immer nach dem verbauten IHV in deinem PC anzupassen.

BlacKi
2021-12-22, 17:23:49
zumindest in sottr ist das doch schon getestet worden. ziemlich genau 20%.


https://youtu.be/G03fzsYUNDU?t=586

Ex3cut3r
2021-12-22, 17:26:34
Bei Forza Horizon 5 ist Nvidia auch um einiges langsamer als AMD. Dort ist eine 6800 non XT vergleichbar schnell wie eine 3080 Ti. :freak:

Am besten Testbar in der Innenstadt.

Bis jetzt, könnte das weder ein Nvidia Treiber, noch eine Game Update Fixen. Früher hat Nvidia auch regelmäßig mit Treibern, 10-20% rausgeholt. Seit Ampere sind diese Zeiten nun auch vorbei.

Von CB:

GeForce hat Probleme mit dem CPU-Limit
AMDs aktuelle RDNA-2-Grafikkarten sind in Forza Horizon 5 schneller als die konkurrierenden Ampere-Grafikkarten von Nvidia. Das gilt vor allem für niedrige Auflösungen, bis hinauf zu Ultra HD gibt es aber einen Vorteil. In kleinen Auflösungen wie Full HD hat die GeForce-Riege das Problem in ein CPU-Limit zu geraten, das es auf Radeons offenbar nicht gibt. Dann ist die Radeon RX 6800 plötzlich vergleichbar schnell wie die GeForce RTX 3080 Ti.

Bei BF2042 das gleiche. Und so weiter. KA, warum das so wenige wissen, oder verharmlosen. :confused:

Troyan
2021-12-22, 18:33:55
Weil es ein Problem von DX12 ist. Miserable API läuft auf veralteter AMD Hardware nunmal besser.

Der Treiber bei DX12 ist bzgl. CPU-Limit non existent.

aufkrawall
2021-12-22, 18:59:14
Echt jetzt ein Ubisoft Spiel? Btw. ist Intel ja wieder um einiges schneller in Dunia. Da braucht es schon Zen 3 um mit Intel 10 oder 11er Gen mitzuhalten. In fast jeden neuen Spiel ist AMD schneller im CPU Limit als Nvidia, mir ein Rätsel warum du das "Problem" verharmlost. Ist bei dir aber sowieso immer komisch, du scheint deine Meinung immer nach dem verbauten IHV in deinem PC anzupassen.
:facepalm:
Liegt vielleicht daran, dass ich auf eigene Benchmarks zurückgreifen kann und nicht auf das Urteil von Testern vertrauen muss, die nicht wissen, was die GPU-Auslastungsanzeige bedeutet...

Du wirfst schon wieder wild alles durcheinander, ist wahrscheinlich einfach zu komplex für dich. BF2042 macht definitiv irgendwas ganz komisches, was dem NV-Treiber gar nicht schmeckt. Das merkt man aber schon selbst im GPU-Limit an den Frame Times. Bei BFV gab es das Problem mit Nvidia DX12 exakt gar nicht. Wie soll das also sein können, wenn es ein generelles Problem des Treibers wäre? Du widersprichst dir laufend selbst und merkst es nicht mal...

Geldmann3
2021-12-22, 19:05:22
Leider verhält sich Cyberpunk 2077 bei mir nicht wie erwartet, wie man an den Benchmarks sieht: :confused:

https://i.ibb.co/TgC4C9B/Cyberpunk-2077-No-E-Cores-No-HT.png (https://i.ibb.co/TgC4C9B/Cyberpunk-2077-No-E-Cores-No-HT.png)

Ohne die E-Cores würde ich eigentlich mit einer leicht besseren Performance rechnen, jedoch verliere ich rund 6%.

Noch schlimmer wird es ohne die Hyperthreads. (-9%)

Deaktiviere ich die Effizienzkerne und HT, fällt meine Framerate sogar um ganze 38%!
Das ist ja verheerend!


Bei längeren Spielesessions fängt das Spiel mit weniger als 12 Threads bei mir sogar manchmal an in Zeitlupe mit einstelligen FPS zu laufen. :freak:
Zudem vervielfachen sich die Ladezeiten dann ab und zu während alle Kerne konstant auf 100% Auslastung festgepinnt sind.

Was sich hier auch in den min-FPS des 12900K ohne E-Cores und HT und denen des 5600X ohne SMT wiederspiegelt.

Die Ergebnisse sind natürlich ein absolutes Durcheinander, eventuell stimmt etwas bei mir nicht, doch ich wollte sie euch auch nicht vorenthalten.

Es scheint in dem Spiel nicht optimal zu sein, weniger als 12 Threads zu haben, um sich durch alles zu bruteforcen.


Ich muss nochmal warnen, irgendwas ist bei mir heute eindeutig mit dem Game verbuggt!

Vor ein paar Wochen hatte ich nämlich diese Ergebnisse gepostet und da lief das Ganze besser auf lediglich 8E-Cores:
https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png (https://i.ibb.co/rk5NyG2/Cyberpunk-2077-Corespeed.png)

Ich habe dieselbe Testszene verwendet, wüsste nichts davon, dass das Spiel ein Update gemacht hat und habe es mehrmals versucht, das kann nicht sein!
Aber ich weiß auch nicht warum...
Windows hat ein paar mal geupdatet.

Verrückt ist aber auch, dass es sich nicht auf ein System beschränkt, am 5600X hängt eine andere SSD mit einer anderen Windows Installation und die CPU wird auch unerwartet hart zerstört, ohne SMT.

Über Ideen wäre ich sehr erfreut. Ansonsten mache ich bald sowieso alle Systeme platt, um auf Windows 11 zu gehen.

Dachte eben schon, dass mein Kühler im 12900K-System eventuell lose wäre.
Doch die CPU geht ingame nicht über 65°C.

Also in der Praxis habe ich ja keine Probleme mit den Systemen, denn da deaktiviere ich nichts.

Ex3cut3r
2021-12-22, 22:14:29
:facepalm:
Liegt vielleicht daran, dass ich auf eigene Benchmarks zurückgreifen kann und nicht auf das Urteil von Testern vertrauen muss, die nicht wissen, was die GPU-Auslastungsanzeige bedeutet...

Du wirfst schon wieder wild alles durcheinander, ist wahrscheinlich einfach zu komplex für dich. BF2042 macht definitiv irgendwas ganz komisches, was dem NV-Treiber gar nicht schmeckt. Das merkt man aber schon selbst im GPU-Limit an den Frame Times. Bei BFV gab es das Problem mit Nvidia DX12 exakt gar nicht. Wie soll das also sein können, wenn es ein generelles Problem des Treibers wäre? Du widersprichst dir laufend selbst und merkst es nicht mal...

Vergiss es, leugne das "Problem" halt weiter. Mit deiner 3060 ~ 2070 non Super Leistung, hast du eh kein Problem, da die GPU auch einfach viel zu lahm ist @ 1440p.

Weil es ein Problem von DX12 ist. Miserable API läuft auf veralteter AMD Hardware nunmal besser.

Der Treiber bei DX12 ist bzgl. CPU-Limit non existent.

Darauf gehe ich keine ein, das ist mir leider zu dämlich.

aufkrawall
2021-12-22, 22:28:06
Vergiss es, leugne das "Problem" halt weiter.

Wenn hier einer leugnet, dann wohl eher du. Und zwar Fakten, die nicht in den Kram passen. Etwa bei Far Cry 6, weil es ein "Ubisoft-Spiel" ist, was auch immer das heißen soll. ;D
Anstatt ewig rumzuheulen, kannst du dir auch einen 10400F oder eine Radeon kaufen, wenn es so schlimm ist. Aber das machst du ja gerne...

Lowkey
2021-12-22, 22:44:09
@Geldmann3

Einfach ein paar einfache Benchmarks machen, CMOS Reset durchführen und dieselben Tests wiederholen.

Geldmann3
2021-12-22, 23:05:51
Hmm, der CPU-Z Benchmark und Cinebench verhalten sich wie erwartet.

Ex3cut3r
2021-12-23, 04:22:40
Wenn hier einer leugnet, dann wohl eher du. Und zwar Fakten, die nicht in den Kram passen. Etwa bei Far Cry 6, weil es ein "Ubisoft-Spiel" ist, was auch immer das heißen soll. ;D
Anstatt ewig rumzuheulen, kannst du dir auch einen 10400F oder eine Radeon kaufen, wenn es so schlimm ist. Aber das machst du ja gerne...

Was soll ich denn nun mit nem 10400f? Die 10% mehr als mein 3600 raushaut soll dann der Game Changer sein? Meinst du das ernst?

Ich warte auf Zen 3 mit 3D Cache. X570 Board habe ich doch eh seit fast 2 Jahren nun. Alles andere wäre einfach unvernünftig, und pure Geldverbrennung. Zwar habe ich mit dem Gedanken gespielt, auf Alder Lake zu wechseln, aber nein.

dildo4u
2021-12-23, 09:09:15
Weil es ein Problem von DX12 ist. Miserable API läuft auf veralteter AMD Hardware nunmal besser.

Der Treiber bei DX12 ist bzgl. CPU-Limit non existent.
Irrelevant was du glaubst was fortschrittlicher ist jede wichtige Multiplattform Engine muss auf AMD zugeschnitten werden wegen den Konsolen.
NV hat es früher nur den Arsch getrettet, da der PC von DX11 dominiert wurde.
Sobald die Dual AMD GPU kommt ist es vorbei wenn NV nicht grundsätzlich was ändert.
Selbst wenn NVs 5nm Modelle absolute Monster sind bringt es nix wenn man sie nicht auslasten kann.

Geldmann3
2021-12-23, 10:20:43
Hier habe ich nochmal in Red Red Redemption 2 gemessen.

Da bin ich wohl trotz interner 240p leicht ins GPU-Limit gelaufen.

https://i.ibb.co/NFvhDZh/RDR2-No-E-Cores-No-HT.png (https://i.ibb.co/NFvhDZh/RDR2-No-E-Cores-No-HT.png)

UJpnYg4Lrrs

;D

Wie kann es eigentlich sein, dass die RTX 3090 einen Takt von 19xx MHz anzeigt, dabei aber eine GPU Auslastung von über 90% bei einer internen Auflösung von nur 240p? :freak:

Lowkey
2021-12-23, 10:39:59
Geralt *hmmm*

Die Grafikkarte muss auf Höchstleistung stehen (Nvidia Treiber)

Aber wie Igor schreibt: wenn E-Core aus, dann geht AVX512 + Cache statt 1:1 E-Core (4.0Ghz) auf knapp unter 5Ghz. Wobei dann die Spannungen stimmen müssen. Das 'Auto' von Asus reagiert nicht immer mit passenden Spannungen.

Kurz: die Ressourcenumverteilung klappt nicht automatisch. Und dann spielen die C-States mit. Welches State ist optimal?



Ich bin am Arbeitsspeicher dran. Wobei AVX2 = aus = kostet Leistung. AVX512 = an + E-Cores macht mir hier und da im Singlethread einen Bonus von ein paar Prozent (Da ja AVX512 nur auf P-Core läuft und die automatisch die Singlethread Aufgaben bekommen). AVX512 auf Auto bedeutet, dass das Board es automatisch abschaltet wenn die E Kerne an sind. Läuft anscheinend dennoch.

Geldmann3
2021-12-23, 10:57:09
Wo stelle ich im Nvidia Treiber denn ,,Höchstleistung" ein und was bewirkt das?
Der Takt scheint ja schon oben zu sein.

In der Nvidia Systemsteuerung finde ich so ein Setting auf die Schnelle nicht.

BlacKi
2021-12-23, 13:57:41
das die grafikkarte nicht runtertaktet aufgrund zu geringer last. auf derselben seite wo vsync und co steht.

Lowkey
2021-12-23, 14:22:07
Auf die Schnelle (https://www.computerbase.de/forum/attachments/unbenannt-jpg.659885/)

Geldmann3
2021-12-23, 14:45:08
Ah, danke, der stand bei mir auf normal.

Werde den Benchmark gerade nochmal wiederholen und schauen, ob es etwas an der Auslastung oder dem Ergebnis ändert.

Edit: Es macht keinen Unterschied.

ryan
2021-12-23, 18:12:18
Schaut euch das mal an: https://www.anandtech.com/show/17078/intel-alder-lake-ddr5-memory-scaling-analysis/4

Die machen dort ein RAM scaling in 4k und 1440p --> mit einer GTX 1080 :freak:
...und wundern sich das es keine Unterschiede gibt.

Anandtech lernt einfach nicht dazu, echt peinlich für so eine große Seite.

Geldmann3
2021-12-23, 18:33:50
Was zur Hölle? :freak:

Da frag ich mich schon, ob die sich verschrieben haben. 1 statt 3?

https://i.ibb.co/BTq4j5W/Deppert.png (https://i.ibb.co/BTq4j5W/Deppert.png)

Ja seid ihr denn deppert?^^

Also nichts gegen die 1080, wenn man nichts Besseres haben sollte, doch da kann man doch nicht bei den Auflösungen bleiben.

Die Schwankungen der Frameraten bei den ganzen schön gewissenhaft durchgeführten Runs finde ich auch lustig, das sind doch einfach Zufallsschwankungen. ;D

Lowkey
2021-12-23, 18:36:00
'Sie simulieren die aktuelle GPU Knappheit'

BlacKi
2021-12-23, 18:41:54
wäre mir aber meine zeit zu schade für diese tests.

ryan
2021-12-23, 18:55:05
Der Civilization Test ist noch besser in 4k, alles innerhalb von 0,4 fps. Wozu die Arbeit, wenn man letztendlich eh komplett im GPU Limit testet. Wenn sie wenigstens in 720p getestet hätte, wäre eine GTX1080 vielleicht noch gut genug gewesen bei einigen Spielen.

Quatsch ist auch die kleine Unterteilung beim RAM, ist doch logisch das zwischen 5200 und 5400 kaum ein Unterschied sein kann selbst ohne GPU Limit. Statt 10 RAM speeds nur 5 und dafür ein paar Tests mehr, wäre sinnvoller.

mocad_tom
2021-12-23, 19:26:01
Ich hab eine 1080TI
Bedeutet dies nun, die GPU ist stark übermotorisiert?

:hammer:

Lowkey
2021-12-23, 20:05:48
Am 9. März 2017 stellte Nvidia die GeForce GTX 1080 Ti vor

Fällt schon unter Retro?

BlacKi
2021-12-23, 20:13:00
nochnichtmal eine 8800gtx ist retro, dazu muss die HW schon von vor 2007 sein.

iamthebear
2021-12-23, 21:49:01
Bis auf WinRAR kann man die Ergebnisse komplett knicken. Die Spiele sind im GPU Limit und der Rest der Anwendungen läuft anscheinend im L2/3 Cache.

latiose88
2021-12-24, 02:04:48
Meinst Du P+HT+E? oder P+E?

Edit:
Habe ein Problem mit dem 12900K.
In Handbrake verwendet er, wie auf dem Screenshot unten zu sehen, immer nur die E-Cores. (Windows 10)
Habe zwar vor dieses Jahr auf Windows 11 zu wechseln, doch ob das noch gefixt wird?

Auch mit Process Lasso lässt sich die Nutzung aller Kerne nicht forcieren.
Solange auch nur 1 E-Core zugewiesen ist, werden die P-Cores nicht verwendet.
Folglich kann ich immer nur die E-Cores oder die P-Cores verwenden, aber nicht beide.
Wenn ich die Hyperthreads deaktiviere, werden die E-Cores wenigstens noch teilweise aktiv.

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77412&stc=1&d=1637195263

Also praktisch ist es jetzt kein Problem für mich, ganz angenehm so eine zweite CPU zu haben, die sowas im Hintergrund macht. Doch zum Benchmarken oder für maximale Geschwindigkeit ist das scheiße.

Ein ähnliches Problem habe ich mit 7-Zip. Sobald dieses nicht mehr im Vordergrund läuft, wird dieses beim Packen oder Entpacken komplett auf die E-Cores geschoben. Natürlich toll für die Responsiveness des Systems, aber schlecht für die Geschwindigkeit.

Interessant Handbrake das ach so toll ist,macht da Probleme.Wo ich habe testen lassen,scheint Xmedia Reocode wohl kein Problem damit zu haben.Getestet wurde mit einem 12900k wo dann schrittweise die e Cores und auch die P Cores reduziert worden sind.Am ende ohne Stromlimit gesetzt zu haben,lag das Ergebnis bei 6 P Cores mit HT und 4 e cores am schnellsten.Leider werden die Cache außerhalb der Anwendung mit verwendet. Bis dann auf 125 Watt gedrosselt wurde. Da sank die Leistung und der Takt lief nur noch von 4,7 ghz auf 4,1 ghz.Also sprich wenn die 4,7 ghz anliegen,dann werden die P Cores verwendet.SO habe ich das gelesen gehabt.

Oder aber es liegt an meinen Settings die wollen anscheinend keine E cores. Besser ist es noch ohne die E cores zu testen.Leider finde ich keinen der einen i5 12600k besitzt.Damit ich sicher sein kann,das das Ergebnis wirklich nicht verfälscht wird. Denn das ist wichtig um herauszufinden wie sich ne neue Archtektur mit weniger Kernen verhält. Wird also auch bei der Zen 4 gewiss sich auch so verhalten. Ich freue mich weniger Kerne zu brauchen für die selbe Leistung. Mit dem Special Test von mir verhält es sich halt anderst. 2x die selbe Software und dann kriegt man garantiert ne Optimale Leistung heraus.

The_Invisible
2021-12-24, 08:56:18
Hab nun Samsung ICs. Hier mal mit 6000C32 + opt. Subs:

https://abload.de/thumb/anno1800_2021_12_19_090jd3.png (https://abload.de/image.php?img=anno1800_2021_12_19_090jd3.png)

Allerdings bin ich auf Win11 inzwischen (nur drübergebügelt) und das Game hatte einen Patch. Also mit Vorsicht zu genießen.

Das wär echt ein schöner Boost für mich (und andere) als Anno Fan , von 47 auf 77, da würde man wenn es linear skaliert im Endgame von <30fps auf fps im mittleren 40er Bereich kommen was schon SEHR viel angenehmer wäre.

Andererseits muss man die komplette Plattform dafür neu kaufen. Naja ich warte da mal, habe genug zu tun mit Umzug derzeit, jedenfalls schöne Aussichten für zukünftige CPUs.

Dr@gonXP
2021-12-24, 12:32:46
Hab noch ein bisschen weiter getestet und war etwas erstaunt, wie gering die Abweichung im Cinebench war, obwohl ich PL2 von 160Watt auf 144Watt reduziert habe.

https://abload.de/thumb/zwischenablage01jnj52.jpg (https://abload.de/image.php?img=zwischenablage01jnj52.jpg)


Meine Settings sind jetzt:

PL1 = 128 Watt
PL2 = 144 Watt
Vcore = adaptive / offset / - / 0,06 Volt

MiamiNice
2021-12-24, 13:37:32
Das wär echt ein schöner Boost für mich (und andere) als Anno Fan , von 47 auf 77, da würde man wenn es linear skaliert im Endgame von <30fps auf fps im mittleren 40er Bereich kommen was schon SEHR viel angenehmer wäre.

Andererseits muss man die komplette Plattform dafür neu kaufen. Naja ich warte da mal, habe genug zu tun mit Umzug derzeit, jedenfalls schöne Aussichten für zukünftige CPUs.


Mir juckt es aus Anno und anderen Gründen auch hart an der Geldbörse. Aber, ich sag mir immer wieder, ADL ist nur der Raptor Lake Abfall - die richtige CPU für Gamer kommt noch. Einfach durchhalten und so.

BlacKi
2021-12-24, 13:46:24
raptorlake bringt nichtmal ne neue architektur, sonder wohl nur lediglich etwas mehr cache und im besten fall 200mhz mehr. gerade die 200mhz mehr kannst du echt stecken lassen. oder denkst du, das raptor billiger wird?

MiamiNice
2021-12-24, 14:01:22
Raptor bringt größere und schnellere L2 + L3 Caches + Zeug das in ADL noch deaktiviert ist. Was meinst Du wie das beim Gaming abgehen wird? Ich denke es wird eine beachtliche Mehrleistung geben. Zumal es nächstes Jahr dann auch brauchbaren DDR 5 geben sollte.

VooDoo7mx
2021-12-24, 17:59:45
Ja der wird voll krass abgehen, Alda! olololol
Dann bastel ich mir auch nen verchromten Doppelauspuff an meinen PC mit ner 2000W Endstufe. Voll krass Brudí, das feier ich dann.

:facepalm:

Das einzige was hier Abfall ist, sind deine grenzdebilen Kommentare.

Das einzige was gesichert über Raptor Lake ist, dass die Effizenzkerne auf 16 verdoppelt werden, aber weiter die selben "Gracemont" bleiben und das es Cache Optimierungen bei den Big Cores geben wird. Zu den Cachegrößen oder was genau geändert wird, gibt es noch keinerlei Informationen.
Also ist es rein spekulativ wieviel % das bringen wird. Kann auch sein, dass nur in bestimmten Szenarien 3% mehr gibt und sonst immer 0%
Der Sprung wird auf jeden Fall relativ klein bleiben in etwa so wie von Sandy Bridge auf Ivy Bridge.

Rapor Lake ist ja nur Meteor Lake Abfall.

Erst Meteor Lake wird wieder mehr Änderungen an den Big Cores bringen.

Es kommt auch wohl darauf an von wo aus man afrüstet. Von einen 9900K kann man sich fürs Gaming Upgrade auf Alder Lake oder Raptor Lake sparen.
Ich selber hab von einen fast schon uralten 6 Kern 5820K Haswell E aufgerüstet.

Geldmann3
2021-12-24, 18:31:02
Also ich muss sagen, das klingt zwar verrückt, für mich war das Upgrade vom 9900K auf den 12900K das größte Upgrade ever. Meine Render- und Kompilierzeiten haben sich halbiert. Zudem bekomme ich in fast jedem Game in 4K einen merkbaren Unterschied. Was ich nicht erwartet hätte.

Eventuell liegt es aber auch an meiner aktuellen Situation, weil ich die Mehrleistung wirklich brauchte, was nicht oft in meinem Leben der Fall war.

Vom r5 2600X auf den r5 3600X auf den r5 5600X habe ich jeweils kaum etwas bis nichts bemerkt.

Das Upgrade vom Xeon 1231 v3 auf den i7 5820k auf den i9 9900k irgendwie ebenfalls kaum. Hab die Leistung damals aber auch nicht wirklich gebraucht.

Selbst das Upgrade damals vom AMD 1 Kerner auf einen 3 Kerner auf einen 6 Kerner habe ich nicht so sehr bemerkt. :freak:

Das einzige Upgrade, bei dem ich ähnliches gespürt hatte, war das vom FX 8350 auf den r5 2600. Mit dem 8350 ging vieles nicht reibungslos, war sehr langsam bei Konsolenemulation und so.

Im Xenia Emulator, in dem ich mit dem 9900K in den 30ern herumgehangen habe, bin ich mit dem 12900K nun in den 50ern, das ist schon ein Upgrade...

BlacKi
2021-12-24, 18:49:15
und wenn man ehrlich ist, wird alderlake noch durch den imc bei ddr4 und die maximalen taktraten bei ddr5 noch ausgebremst.

mich stören eigentlich nur die fehlenden pcie5 für ssds. notfalls wirds erst mit meteor etwas werden bzgl. pcie5 ssds. die next gen grafikkarten werden allerdings schon sicher pcie5 können und dann könnte man 8x fahren und mit einem pcie to m.2 adapter 2x 4xpcie5 ssds verbauen. leider fehlen noch die adapter. die ssds sind ja schon angekündigt.

es ist schon beeindruckend was intel gerade nach vorne schiebt. geht doch, warum nicht gleich so!

ryan
2021-12-24, 20:41:09
raptorlake bringt nichtmal ne neue architektur, sonder wohl nur lediglich etwas mehr cache und im besten fall 200mhz mehr. gerade die 200mhz mehr kannst du echt stecken lassen. oder denkst du, das raptor billiger wird?


Da wäre ich vorsichtig. Es soll nicht nur etwas mehr Cache geben, einige Quellen sprechen von mehr als das. Den aktuellen Stand hatte ich hier zusammengefasst: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12862403#post12862403

Zusätzlich gibt es eine Quelle direkt von Intel, wo die Rede von much better CPU cache capability, much better performance/smoothness for gamers gewesen ist. Ob ein etwas größerer Cache alleine einen großen Effekt erzielt, ist zweifelhaft. Es könnte sich auch an der Anbindung selber was geändert haben.

Zu dem Cache Thema auch ganz interessant das Interview vom Golden Cove Chef Architekt:



Wundern Sie sich also nicht, wenn Sie in der nächsten Generation eine andere Cache-Hierarchie und andere Kapazitäten sehen. So entwickelt sich das Ganze weiter. Bei den Workloads ist es wie mit dem Huhn und dem Ei. KI-Workloads entwickeln sich aus bestimmten Gründen weiter. Die Mikroarchitektur entwickelt sich weiter, und das eine nährt das andere, und am Ende sieht man den Fortschritt in der Technologie. Und dann ist da noch die Bedeutung einiger spezifischer Workloads. Je nachdem, ob man für Spiele oder für KI optimieren will. Wenn wir aufkommende Workloads sehen, die von großem Interesse sind, dann schauen wir wie sie sich verhalten.
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/57731-interview-mit-adi-yoaz-intels-chief-architect-des-performance-core.html

MiamiNice
2021-12-25, 07:53:40
Ja der wird voll krass abgehen, Alda! olololol
Dann bastel ich mir auch nen verchromten Doppelauspuff an meinen PC mit ner 2000W Endstufe. Voll krass Brudí, das feier ich dann.

:facepalm:

Das einzige was hier Abfall ist, sind deine grenzdebilen Kommentare.

Das einzige was gesichert über Raptor Lake ist, dass die Effizenzkerne auf 16 verdoppelt werden, aber weiter die selben "Gracemont" bleiben und das es Cache Optimierungen bei den Big Cores geben wird. Zu den Cachegrößen oder was genau geändert wird, gibt es noch keinerlei Informationen.
Also ist es rein spekulativ wieviel % das bringen wird. Kann auch sein, dass nur in bestimmten Szenarien 3% mehr gibt und sonst immer 0%
Der Sprung wird auf jeden Fall relativ klein bleiben in etwa so wie von Sandy Bridge auf Ivy Bridge.

Rapor Lake ist ja nur Meteor Lake Abfall.

Erst Meteor Lake wird wieder mehr Änderungen an den Big Cores bringen.



1. Mimimi
2. Die iGnore Funktion ist Dein Freund
3. Scheinst Du keine Ahnung zu haben was beim Gaming „knallt“
4. Es fehlen Dir scheinbar paar Intel Roadmap Infos

ios war wohl der Meinung den Rest des Posts zu killen. Ist einfach noch zu früh.
Um es kurz zu machen Raptor ist sicherlich vieles, eventuell die beste Gaming CPU für einige Zeit auch nach Meteor Lake, aber sicher kein Meteor Lake Abfall. ADL dagegen kann man aber durchaus schon als Raptor Abfall bezeichnen. 0-3% von ADL auf RTL hören sich für mich nach grenzdebilen Bullshit an. RTL wird ein ADL auf Gaming Steroiden. Von MTL hält man sich als Gamer wahrscheinlich eher fern.

robbitop
2021-12-25, 09:02:36
@Geldmann3
Naja Rendern und Kompilieren profitieren schon von MT Leistung. Von einem 2600X auf einen 3600X auf einen 5600X erhöht ja nicht die Core Anzahl. Und nun bist du von 6C auf 16C hochgegangen. Klar, dass das in MT Anwendungen viel Leistung freigibt. Mit einem 5950X wäre die Situation wahrscheinlich nicht viel anders gewesen.

Freestaler
2021-12-25, 09:42:22
Ja, schlicht bis Dato die falschen CPU für diesen Workload. Wenns 3950,5950 auf 12900k wäre da die differenz beim Rendern und kompolieren wohl sehr klein. Analog gleich wie vom 5600 auf 12900k z.B. von nem 10400 auf nen 5950. Äpfel mit Birnen.
Macht aber 12900 nicht schlechter ;-)

Geldmann3
2021-12-25, 10:57:19
Bin vom 9900K auf den 12900K umgestiegen.

Der 5600X ist im Zweitrechner.

ZeroStrat
2021-12-25, 11:07:49
Schaut euch das mal an: https://www.anandtech.com/show/17078/intel-alder-lake-ddr5-memory-scaling-analysis/4

Die machen dort ein RAM scaling in 4k und 1440p --> mit einer GTX 1080 :freak:
...und wundern sich das es keine Unterschiede gibt.

Anandtech lernt einfach nicht dazu, echt peinlich für so eine große Seite.

Da weiß man nicht, was man sagen soll. Diplomatisch formuliert, kann man hier einfach nur massive methodische Schwächen attestieren. Anandtech genießt einen hervorragenden Ruf in der Techszene, die Architekturananlysen von CPUs beispielsweise sind weltklasse, aber die Gaming Benchmarks werden stiefmütterlich behandelt. Das ist dermaßen "lieblos", man würde besser ganz drauf verzichten.

Wie kann man ernsthaft erwarten, dass man in 4K mit einer derart schwachen GPU überhaupt Unterschiede raustesten kann? Das ist reine Zeitverschwendung.

https://images.anandtech.com/graphs/graph17078/111397.png

robbitop
2021-12-25, 11:10:37
Bin vom 9900K auf den 12900K umgestiegen.

Der 5600X ist im Zweitrechner.

Trotzdem boosten die 8 E Cores die MT Leistung ja schon dolle. Und dazu kommt, dass man von einem 6 Jahre alten Core auf einen von 2021 umgestiegen ist. Letzterer war sicherlich auch noch von den Spectre/Meltdown mitigations (HW Abschaltung, uCode etc) gebeutelt.

Geldmann3
2021-12-25, 11:11:25
Wie viel Zeit sie damit verschwendet haben müssen.

Sie hätten im Prinzip 1x DDR5-6400 CL36 und 1x DDR5-4800 CL36 testen können und bemerkt, dass sich da nichts tut.

Ich seh' grad, noch dazu 4K. ;D

Die hätten gleich auch einen Framelock bei 54FPS aktivieren können...
Hätte zum etwa selben Ergebnis geführt.

Wenn es wenigstens eine iGPU gewesen wäre.

Freestaler
2021-12-25, 11:35:24
Andererseits zeigt Anand schön, das Gaming wohl doch nicht mit 240p stattfindet. Und die 10% bei 240p dann wohl wirklich absaufen. Muss ja auch mal einer machen ;-) (ja, ich weiss min fps usw.).

Lowkey
2021-12-25, 11:38:03
und wenn man ehrlich ist, wird alderlake noch durch den imc bei ddr4 und die maximalen taktraten bei ddr5 noch ausgebremst.

mich stören eigentlich nur die fehlenden pcie5 für ssds. notfalls wirds erst mit meteor etwas werden bzgl. pcie5 ssds. die next gen grafikkarten werden allerdings schon sicher pcie5 können und dann könnte man 8x fahren und mit einem pcie to m.2 adapter 2x 4xpcie5 ssds verbauen. leider fehlen noch die adapter. die ssds sind ja schon angekündigt.

es ist schon beeindruckend was intel gerade nach vorne schiebt. geht doch, warum nicht gleich so!

Die Serienstreuung bei Intel ist immens groß, auch beim IMC. Ich lese mich durch die Ergebnisse und da ist die Spanne bei DDR4 und DDR5 recht groß.

Bei den SSDs sind die maximalen Transferraten einfach Unsinn. Mit 5.0 kommen neue Controller mit mehr IOPS. Und dann kannst du die SSDs mit 3.0 betreiben und merkst nichts. Meine 4.0 ist auf 3.0 kühler und schneller. Ich teste zwar noch weiter, aber bin davon überzeugt, dass 5.0 bei SSDs unbedeutend wird.

Aber das ist dann auch die Angst der User. Selbst wenn Intel rät die E-Cores fürs Gaming abzuschalten wird sich die Mehrheit der Gamer dagegen entscheiden.

Slipknot79
2021-12-25, 11:49:44
Andererseits zeigt Anand schön, das Gaming wohl doch nicht mit 240p stattfindet. Und die 10% bei 240p dann wohl wirklich absaufen. Muss ja auch mal einer machen ;-) (ja, ich weiss min fps usw.).


Habe ich mir auch ged8 (y)
Im GPU-limit sind Mainstream CPUs und aufwärts der letzten Generationen gleich, Umstieg unnötig für Gamer. (y)
Die unnötigen Krüpel E-Cores machens auch nicht notwendiger.
Man muss offensichtlich auf 720p runter um überhaupt irgendwas zeigen zu können. :redface:

ZeroStrat
2021-12-25, 11:54:04
Man muss offensichtlich auf 720p runter um überhaupt irgendwas zeigen zu können. :redface:
Muss man gewiss nicht. Man kann auch in 1080p testen. Mit einer schnellen GPU (z.B. RX 6800 XT) und fordernden Szenen sieht man auch dann große Unterschiede.

Wenn man allerdings Speicherskalierungstests machen will, dann muss das GPU-Limit weg, sonst macht man alles, aber keinen Speicherskalierungstests. Geht es um Tech-Reviews von Games, kann man gerne auch 1080p testen, wobei man gut argumentiren kann, dass auch dann 720p besser ist. Man sieht dadurch nämlich die Reserven für stärkere GPUs.

Mortalvision
2021-12-25, 12:02:39
Ich fands auch witzig, dass bei Computerbase im Test die Skalierung in 1080p und 4k nahezu gleich war. Was haben die da für Games genommen, CSGO mit reduced textures mod pack? :freak:

Geldmann3
2021-12-25, 22:12:46
Wenn ich die Ergebnisse der 6 von mir getesteten Games zusammennehme, sehe ich, zumindest auf meinem System, keinen Vorteil darin, die E-Cores zu deaktivieren. Ich kann mir vorstellen, dass die oberen 3 Konfigurationen sich mit schnellerem Ram in der Rangfolge leicht austauschen können, eventuell kommt man ohne die E-Cores dann ein paar Prozent vor den 12900K@Stock. Mit meinem System konnte ich das im Schnitt allerdings nicht feststellen.

https://i.ibb.co/Bt127n8/12900-K-Performance-Index.png (https://i.ibb.co/Bt127n8/12900-K-Performance-Index.png)

Die oberen drei Ergebnisse sind allerdings auch ziemlich im Rahmen der Messungenauigkeiten.

Auf jeden Fall sollte man nicht die E-Cores zusammen mit den Hyperthreads deaktivieren. Mit nur 8 zur Verfügung stehenden Threads habe ich im Schnitt 10% Performance eingebüßt.

Der 5600X kam im Schnitt noch auf 82% der FPS des 12900K, nahm ich diesem jedoch sein SMT, fiel er ganz ans Ende der Rangliste und war nur noch ~64% so schnell wie der 12900K.

Auch der 9900K hat ohne Hyperthreading im Schnitt 4-5 Prozent seiner Performance verloren.

BlacKi
2021-12-25, 22:54:01
für eft und cities skyline kann ich sagen, das 8c8t beim 12900k mit +12% belohnt wird.

Die Serienstreuung bei Intel ist immens groß, auch beim IMC. Ich lese mich durch die Ergebnisse und da ist die Spanne bei DDR4 und DDR5 recht groß.

wage ich zu bezweifeln, rein auf den imc bezogen. wenn du unterschiedliche boards mitreinnimmst, ok. aber dann bewertest du hauptsächlich die boards. ich hab selber das budged gigabyte board gehabt, welches maximal 3800 zuließ. mit dem msi billig board sind 4040 stabil und über 4100 bootbar. imho, wer nur 3800 booten kann, den limitiert das board. die schwankung die ich gesehen habe, board unabhängig, liegt bei 100mhz imc takt.

was ssds angeht, ja, das wird erst richtig interessant, wenn direct io genutzt werden kann. rein von der transferrate würden heute auch sata ssds keine limierung darstellen.

aber wenn ich mir eine ssd kaufe, dann sollte das zukunftstauglich sein. wenn ich mir jetzt eine pcie 4.0 hole, dann muss ich die bald wieder wechseln, weil ich die ja nicht verkaufe wie zb. andere hardware.

Lowkey
2021-12-25, 23:13:41
Hmm die Sache mit der Serienstreuung stammt von insgesamt drei Binnern, die nebenher auch den DDR4/DDR5 ausprobiert haben. Darin wird noch der Grund gesehen, warum manche CPUs nicht mit XMP 6000+ laufen wollen.

Lowkey
2021-12-25, 23:15:28
Hab noch ein bisschen weiter getestet und war etwas erstaunt, wie gering die Abweichung im Cinebench war, obwohl ich PL2 von 160Watt auf 144Watt reduziert habe.

https://abload.de/thumb/zwischenablage01jnj52.jpg (https://abload.de/image.php?img=zwischenablage01jnj52.jpg)


Meine Settings sind jetzt:

PL1 = 128 Watt
PL2 = 144 Watt
Vcore = adaptive / offset / - / 0,06 Volt

200w braucht mein 12700kf für den CB23 Wert von 24600 rum.

Matrix316
2021-12-25, 23:19:59
Aaaaalso.

Kurzer Vergleich.

Links Ryzen 5900X Rechts 12700K
MB: Asus X570 Strix-E vs Asus TUF Z690 Plus (DDR4)
RAM: 32 GB G Skill Trident Z 3600 16-19-19-38-58 2T mit AL beim Ryzen weiß ich garnet.
Kühlung: NZXT Kraken X63 passt wunderbar in die 1200er Halterungen vom Mainboard
Grafik: Gigabyte RTX 3080 Aorus Master

Hier mal ein Screenshot Vergleich bei Arma 3 in 1080p und am Anfang vom ersten Infantrie Showcase. Der 12700K hat deutlich mehr FPS und ist deutlich deutlich kühler! Über 20°! In allen Benchmark Spiele Vergleichen ist das so. Hä? Beim Ryzen war PBO noch aktiviert, beim Intel nur XMP für den Speichertakt, sonst alles Auto.

https://abload.de/img/armavergleichtempj4kms.jpg (https://abload.de/image.php?img=armavergleichtempj4kms.jpg)

aufkrawall
2021-12-25, 23:26:23
Das monolithische Die bei ADL ist riesig und AMD legt Folterspannungen für die Boost-Taktraten auf (+ dein PBO). Logischerweise bleibt der Intel bei ähnlicher MC-Effizienz dann massiv kühler. Ist selbst mit der Saufziege RKL so, den 11900K ggf. mal ausgeklammert.

Ex3cut3r
2021-12-25, 23:56:55
Aaaaalso.

Kurzer Vergleich.

Links Ryzen 5900X Rechts 12700K
MB: Asus X570 Strix-E vs Asus TUF Z690 Plus (DDR4)
RAM: 32 GB G Skill Trident Z 3600 16-19-19-38-58 2T mit AL beim Ryzen weiß ich garnet.
Kühlung: NZXT Kraken X63 passt wunderbar in die 1200er Halterungen vom Mainboard
Grafik: Gigabyte RTX 3080 Aorus Master

Hier mal ein Screenshot Vergleich bei Arma 3 in 1080p und am Anfang vom ersten Infantrie Showcase. Der 12700K hat deutlich mehr FPS und ist deutlich deutlich kühler! Über 20°! In allen Benchmark Spiele Vergleichen ist das so. Hä? Beim Ryzen war PBO noch aktiviert, beim Intel nur XMP für den Speichertakt, sonst alles Auto.

https://abload.de/img/armavergleichtempj4kms.jpg (https://abload.de/image.php?img=armavergleichtempj4kms.jpg)
+30 FPS Impressive, Very Nice. Ryzen saugt.

rl2AM3j3dIw

Matrix316
2021-12-26, 02:29:53
+30 FPS Impressive, Very Nice. Ryzen saugt.
[...]
In 4K merkt man leider nicht mehr so viel davon. ;)

https://abload.de/img/cinebench20wzk9z.jpg (https://abload.de/image.php?img=cinebench20wzk9z.jpg)

Ex3cut3r
2021-12-26, 02:34:32
Stimmt. Warum dann das Upgrade? :freak:

Oder machst du auch was produktives am Privat PC?

Matrix316
2021-12-26, 11:46:19
Stimmt. Warum dann das Upgrade? :freak:

Oder machst du auch was produktives am Privat PC?
Eben nicht. ;) Eigentlich brauch ich Power nur zum Spielen. Aber gerade da soll ja AL etwas besser sein. Eigentlich von der Leistung hätte ich den 12900K holen müssen, damit es ein richtiges Upgrade ist, aber das war mir dann zu teuer und ich weiß auch nicht ob mein 750W Netzteil das mit der 3080 zusammen mitmacht. :uponder: Und das gibt ja noch eine Option zum Upgraden in der Zukunft - sollte nicht schon der Nachfolger vorher da sein. ;)

Ich wollte halt nur mal wieder was Neues + Basteldrang. :) Das erste Intel System seit 2017. =)

Lowkey
2021-12-26, 11:55:37
Irgendwer hatte doch gesagt, dass man bei Alterlake nur noch CB23 nutzen sollte. CB geht nur auf Kerne, also hat für Spiele keine Aussagekraft. Selbst CPU-Z spinnt im Singlethread relativ oft und AIDA wird hier und da bei mehrfacher Ausführung zunehmend besser.

Ich nehme aktuell nur noch den 3DMark CPU Profile Test und den x264 Benchmark. Für Spiele habe ich noch nichts passendes gefunden.


@Blacki

Alderlake hat wohl 2x IMC(?) und wegen dem Quadchannel ist es dann doch empfindlicher als alles vorherige.

Matrix316
2021-12-26, 12:17:53
Aaalso das Arma Bild von gestern ist wohl nicht ganz korrekt von den Zahlen, weil ich festgestellt hatte, dass die AIO Pumpe nicht mit vollem Speed lief. Jetzt noch mal in 1080 an der gleichen Stelle. 35° CPU Temp ist schon nicht so schlecht. :D In Cinebench war die Temp auch gesten weit über 80 und mit richtiger Pumpengeschwindigkeit bei 70 oder so.

https://abload.de/img/arma1080abloadrfjgo.jpg (https://abload.de/image.php?img=arma1080abloadrfjgo.jpg)

Was da noch Reserven sind... da geht glaube ich noch was.

EDIT: Windows 11 hab ich auch nicht neu installiert. Ich hatte nur vorher die AMD Chipsatz Treiber Software runtergeworfen.

The_Invisible
2021-12-26, 13:19:45
Das monolithische Die bei ADL ist riesig und AMD legt Folterspannungen für die Boost-Taktraten auf (+ dein PBO). Logischerweise bleibt der Intel bei ähnlicher MC-Effizienz dann massiv kühler. Ist selbst mit der Saufziege RKL so, den 11900K ggf. mal ausgeklammert.

Ja die hohe Temp beim Ryzen 5000 im Boost nervt schon etwas, das geht hier oft sogar über 80°C, wobei mein voriger 3900x hier auch viel kühler war. Beim 5000er hat man glaub ich zu sehr übertrieben. (Alles mit noctua nh d15).

Hab auch überlegt ein "Sidegrade" zum 12700/12900 zu machen aber der ganze Aufwand? Ne jetzt nicht :D

robbitop
2021-12-26, 13:28:43
Zu 99,9% ist man doch sowieso mit fast jeder CPU im GPU Limit. Es gibt natürlich ein paar wenige Einzelfälle bei denen die Programmierer offenbar kein vernünftiges Multithreading hinbekommen.

Lowkey
2021-12-26, 14:04:05
Zu 100% kommt man mit Alderlake auch auf 90°

OCTVB sollte an sein und das taktet bis zum erreichen einer Temperatur die CPU hoch. Beim 12700k stellt man +1 und beim 12900 meistens +2.

Intel hat das Prinzip von AMD übernommen und verteilt die Ressourcen neu, nur selten automatisch ab Werk. So kann der 12900er mit max 58x auf einem Kern boosten und du hast einen Singlethreadwert weit oberhalb von default.


PS: mit den Vorgaben von Igors lab (erst Mainboard einbauen, dann Kühlerhalterung, dann CPU einsetzen und zuletzt den Kühler montieren) komme ich nicht auf bessere Temperaturen. Der Kühler passt einfach nicht auf den Heatspreader.

Ex3cut3r
2021-12-26, 15:18:41
Zu 99,9% ist man doch sowieso mit fast jeder CPU im GPU Limit. Es gibt natürlich ein paar wenige Einzelfälle bei denen die Programmierer offenbar kein vernünftiges Multithreading hinbekommen.

Ich verstehe es auch nicht, warum tut man sich das an? Wenn man sowieso in 4K spielt? 99% GPU Auslastung, die kann nicht mehr werden, egal welche Super CPU man sich einbaut. :confused:

Naja, Intel wird es freuen. AMD eher nicht so, wenn Leute von Zen 3 schon auf AlderLake wechseln. ;D

Ich wurde ja lachen, wenn Zen 3 mit 3DCache doch gleichschnell oder gar schneller ist, denn mit X570 hätte man nur die CPU wechseln müssen, was macht ihr dann eigentlich? Wieder zurück und X570 Board kaufen? ^^

Slipknot79
2021-12-26, 15:29:54
Ich bin schon auf die Zeiten gespannt, wo man von GPU Generation zur nächsten nur noch 10% moar Leistung bekommen wird. :redface:

Rebell
2021-12-26, 15:30:43
Sogar mein 5600x@Stock mit nur DDR4-3200CL16 lastet die 3090FE meistens komplett aus.. unter 3440x1440 und max. Details wird eh nichts gezockt. Festgenagelt auf max. 120fps durch Gsync.

robbitop
2021-12-26, 15:36:32
Naja, Intel wird es freuen. AMD eher nicht so, wenn Leute von Zen 3 schon auf AlderLake wechseln. ;D
Ist nicht viel mehr als ein Sidegrade welches durch das GPU Limit sowieso fast immer maskiert ist.

Ex3cut3r
2021-12-26, 15:52:01
Sogar mein 5600x@Stock mit nur DDR4-3200CL16 lastet die 3090FE meistens komplett aus.. unter 3440x1440 und max. Details wird eh nichts gezockt. Festgenagelt auf max. 120fps durch Gsync.
Kann ich unterbieten.

3600 (Zen 2 mit DDR4 3733 CL14 + Subs)
RTX 3080 Ti
2560x1440, 240HZ, VRR

Kein CPU Limit. Außer bei Deathloop ~ 120 FPS aber.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12878486&postcount=4959

Ist nicht viel mehr als ein Sidegrade welches durch das GPU Limit sowieso fast immer maskiert ist.

In 4K ist das nicht mal ein Sidegrade, sondern exakt das gleiche. Da die GPU nicht schneller werden kann, wenn Sie auch mit dem Zen 3 bei 99% Auslastung war. :wink:

BlacKi
2021-12-26, 15:54:03
auch in bf2042? mit dlss?^^

The_Invisible
2021-12-26, 16:31:31
Ihr braucht schon die richtigen Spiele zb Anno 1800 oder City Skylines, da ist im späteren Spielverlauf egal ob 1080p oder 4k :D

Mich nervt halt nur etwas das bis so 6 Cores die Temp trotzdem über 80°C geht weil halt so 100W in ein winziges Chiplet reingeballert werden. Sieht man auch schön wenn ich Vollast über alle 16Kerne und mit 140W mache, dass da temperaturmäßig nur so im höheren 60er Bereich rauskommen weil die Abwärme besser verteilt wird.

Matrix316
2021-12-26, 17:00:22
Also ich glaube, dass bei mir kein CPU Update in den letzten 4 Jahrn gamingtechnisch großartig was geändert hat. Ich bin vom 4790K zum 1700X und das war auch nur ein Sidegrade. Dann zum 2700X, zum 3800X, 3900X und dann 5900X und am meisten hat man FPS technisch vom 2 zum 3er und vom 3 zum 5er was gemerkt. Insgesamt wars vom 4790K zum 5900X ein riesen Sprung, aber der Umstieg damals von 980TI zur 1080TI und letztes Jahr auf die 3080 hat viel mehr gebracht als jedes CPU Upgrade.

Was aber schon etwas beeindruckend ist, ist die Singlecore Performance.

https://abload.de/thumb/cpuz2hzkkw.jpg (https://abload.de/image.php?img=cpuz2hzkkw.jpg)
https://abload.de/thumb/cpuz1juj5o.jpg (https://abload.de/image.php?img=cpuz1juj5o.jpg)
https://abload.de/thumb/cpuz212ujl8.jpg (https://abload.de/image.php?img=cpuz212ujl8.jpg)

EDIT: Was aber cool ist in Windows 11 (wobei ich nicht weiß ob es das auch in 10 schon gab) - ich hab ja die Hardware quasi fast komplett geändert mit CPU, Mainboard und auch die SSD. Windows 11 sagte dann, das System muss neu aktiviert werden, weil kein Key gefunden wurde. Dann gibt es im Aktivierungsmenü eine option "ich habe die Hardware geändert" oder so und dann kann man die Lizenz von einem bei Microsoft gespeichertem System quasi auswählen. Das ist ziemlich cool gemacht.

EDIT2: Wie war das da noch mal mit Apple M1 Max im Geekbench Single Score? ;)

https://abload.de/thumb/geekbencho5kck.jpg (https://abload.de/image.php?img=geekbencho5kck.jpg)

Jetzt hab ich HWInfo64 nebenbei laufen zu lassen wie das im Geekbench so aussieht und jetzt bekomme ich höhere Werte als vorher...

https://abload.de/thumb/geekbench1asjk9.jpg (https://abload.de/image.php?img=geekbench1asjk9.jpg)

Cinebench23 ist auch net sooo schlecht:

https://abload.de/thumb/cinebench23c9kny.jpg (https://abload.de/image.php?img=cinebench23c9kny.jpg)

Slipknot79
2021-12-26, 23:45:04
Ihr braucht schon die richtigen Spiele zb Anno 1800 oder City Skylines, da ist im späteren Spielverlauf egal ob 1080p oder 4k :D


Wenn die CPU in 4k zum Limit wird, dann gibt es wohl die CPU noch nicht, die das Spiel flüssig darstellen can? :redface:

iamthebear
2021-12-27, 02:46:14
Intel hat das Prinzip von AMD übernommen und verteilt die Ressourcen neu, nur selten automatisch ab Werk. So kann der 12900er mit max 58x auf einem Kern boosten und du hast einen Singlethreadwert weit oberhalb von default.

Da würde ich gern mal Screenshots davon sehen. Mit normalen 24/7 Kühlmethoden wirst du keine 5.8 GHz schaffen.

Ich bin schon auf die Zeiten gespannt, wo man von GPU Generation zur nächsten nur noch 10% moar Leistung bekommen wird. :redface:

Du meinst so wie für die 700 Euro Käufer von der 1080 Ti zur 3060? Ne warte da wurde die Performance ja um 10% weniger ;D

EDIT: Was aber cool ist in Windows 11 (wobei ich nicht weiß ob es das auch in 10 schon gab) - ich hab ja die Hardware quasi fast komplett geändert mit CPU, Mainboard und auch die SSD. Windows 11 sagte dann, das System muss neu aktiviert werden, weil kein Key gefunden wurde. Dann gibt es im Aktivierungsmenü eine option "ich habe die Hardware geändert" oder so und dann kann man die Lizenz von einem bei Microsoft gespeichertem System quasi auswählen. Das ist ziemlich cool gemacht.

Meinst du nach einer frischen Neuinstallation bevor du den Key eingegeben hast oder hast du bei einem bestehenden System einfach die Hardware geändert?

Lowkey
2021-12-27, 09:14:32
Da würde ich gern mal Screenshots davon sehen. Mit normalen 24/7 Kühlmethoden wirst du keine 5.8 GHz schaffen.


Natürlich kann man per Allcore OC im klassischen Sinne einfach einen maximalen Multi bestimmen.

Oder man geht den Weg wie AMD: jeder Kern bekommt sein eigenes Limit und dann, was nicht jedes AM4 Brett kann, definiert man den maximalen Multi für die Auslastung (1 Kern 2 Kerne 4 Kerne Allcore). Und dann geht auf den Multi noch TVBOC mit max +2 auf den Multi drauf. Und schon hat mindestens ein Kern je nach restlichen Einstellungen und Kühlung bis zu 58x.

Geldmann3
2021-12-27, 09:41:03
Mit Flüssigstickstoff vielleicht...

Lowkey
2021-12-27, 09:54:14
Mein gammeliger 12700k schafft schon 54x auf mehreren Kernen und das ist nur ein SP74 (VID <1.2v)

Geldmann3
2021-12-27, 10:02:07
Kurz schafft mein 12900K das auch.
Doch 5,8 ist eine Welt davon entfernt.

Das Maximum, was ich mit dem Auto-AI-OC gesehen habe, waren 5,3Ghz auf 2 Kernen.
Höher scheint der ,,von alleine" nicht zu gehen.

BlacKi
2021-12-27, 10:11:05
Mein gammeliger 12700k schafft schon 54x auf mehreren Kernen und das ist nur ein SP74 (VID <1.2v)
bei welcher temperatur? und was heißt schaffen? welches tool nutzt du zur testung auf stabilität?

Lowkey
2021-12-27, 10:53:15
Ich teste mit CB23 und Karthu. Bei einzelnen Kernen existiert noch kein passende Test (wie bei AMD Corecycler), also verlasse ich mich auf die bis jetzt korrekten Angaben aus der Asus AI.

Zum Vergleich nehme ich immer noch: https://www.3dmark.com/cpu/308500

Ich habe das Setting wieder verworfen und die Hardware nach Igos Vorgabe neu eingebaut und versuche die Temperatur zu verringern, wenn es auch auf 1-3 Kernen auf über 80° geht. Das Templimit lag mit TVBOC bei 98°. Mit dem 3Dmark Profile Test sieht man direkt die Auswirkung auf das Settung und wie beim 5950x muss man sich für ein Szenario entscheiden: maximale Threadleistung oder maximale Performance auf wenigen Kernen. Ich denke Asus meint mit leicher Last im Bios genau diese Auslastung auf wenigen Kernen.

Im nächsten Anlauf muss ich mal vergleichen, ob die Steuerung ab Werkt mit +/- "adaptive" Spannungen besser läuft als manuelles Überschreiben mit festen Werten.

Wuge
2021-12-27, 11:19:53
5,8 geht nicht würde ich mal behaupten. Selbst 5,7 ist exotisch. 5,6 machbar, auch dauerhaft bei leichter Last.

MSABK
2021-12-27, 11:46:44
Kann ich unterbieten.

3600 (Zen 2 mit DDR4 3733 CL14 + Subs)
RTX 3080 Ti
2560x1440, 240HZ, VRR

Kein CPU Limit. Außer bei Deathloop ~ 120 FPS aber.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12878486&postcount=4959



In 4K ist das nicht mal ein Sidegrade, sondern exakt das gleiche. Da die GPU nicht schneller werden kann, wenn Sie auch mit dem Zen 3 bei 99% Auslastung war. :wink:

Dein Ram ist aber brutal, welcher ist das genau?

Ich habe hier auch einen 3600X und 3200er CL14 Ram, habe da aber bis jetzt nichts optimiert. Wenn ich mal Zeit habe will ich die 3600CL14 probieren.

Matrix316
2021-12-27, 12:54:22
[...]

Meinst du nach einer frischen Neuinstallation bevor du den Key eingegeben hast oder hast du bei einem bestehenden System einfach die Hardware geändert?

Ich hab die Hardware geändert (Mainboard, CPU + SSD). Ich hatte erst mal keine Lust Windows komplett neu zu machen (das hatte ich erst öfters gemacht als Windows 11 rausgekommen ist ;)).

Btw. hier ein schönes Video "meiner" CPU Reise von Anfang 2017 (wobei den 4790K hatte ich von Ende 2014 bis der Ryzen 1700X rauskam) bis 2021:

Intel 4790K vs 12700K (die Ryzens dazwischen fehlen natürlich).

JAqXRLGmdEE

Aber da hat sich schon was getan.

Geldmann3
2021-12-27, 14:22:48
Mir ist beim Kanal des verlinkten Videos schon öfter aufgefallen, dass die Videos wahrscheinlich teilweise Fake sind. Ich schätze er ,,simuliert" die Hardware manchmal nur. Er hatte nämlich öfter Hardware gezeigt, die er unmöglich haben konnte und die nicht ansatzweise performt hat, wie erwartet.

Als ich das unter einigen Videos adressiert habe, wurden meine Kommentare einfach gelöscht. Ein weiterer Indikator für mich.

Ein Red-Flag ist für mich schon, dass man niemals was von der Hardware sieht, nicht einmal CPU-Z Shots oder so.

#####################################

Wie auch immer, nachdem ich mit dem 12900K System nun auf Windows 11 umgestiegen bin, hier ein paar Benchmarks gegen Windows 10. Zu mehr komme ich heute wohl nicht mehr.

https://i.ibb.co/LPfnJZz/Windows10vs-Windows11-Benchmarks.png (https://i.ibb.co/LPfnJZz/Windows10vs-Windows11-Benchmarks.png)

Ex3cut3r
2021-12-27, 14:53:21
Jap, das machen viele da auf YouTube, solche Kanäle gibt komischerweise immer mehr. Da muss man aufpassen.

Manche sogar richtig erfolgreich, obwohl klar ist (für mich jedenfalls) das es Fakes sind.

Letzens z.B. war in einem Video eine 3060 non Ti schneller als eine 2080 Ti, und die Kommentare unten, waren alle begeistert. ;D

ryan
2021-12-27, 15:18:19
Es gab sogar schon vorm ADL-S release oder auch direkt am Tag 1 Videos von eigentlich sehr aufwändigen Vergleichsvideos mit zig unterschiedlichsten ADL-S und älteren CPUs. Auch das ist ein Indiz für ein Fake. Meist fehlt auch eine ordentliche Systembeschreibung usw.

iamthebear
2021-12-27, 19:07:40
Da gibt es einige Kanäle mit diesen Fake Videos. Man erkennt diese dadurch:
.) Der Titel hat immer das Format "RTX 3080 vs Radeon 6900 XT Test in 10 Games", wobei die CPUs/GPUs und die Anzahl der Spiele immer unterschiedlich sind. Manchmal auch mit 3 CPUs/GPUs. Ich schätze einmal da wird versucht die Suchbegriffe möglicht gut zu treffen.
.) Jedes Video hat keinen Inhalt bis auf einen Splitscreen vom ingame Footage mit MSI Afterburner oder ähnlicher Anzeige, wobei die hier immer nachträglich auf die Vidoes gelegt wird und die Frameraten hingeschätzt werden (manchmal besser, manchmal weniger gut)
.) Der Kanel hat fast nur solche Videos.

aufkrawall
2021-12-27, 19:10:19
Ich find ja YT-Videos witzig, in denen bei bestimmten Spielen der Frame Time-Graph dann auf einmal eine zu 100% glatte Linie ist, obwohl besagte Spiele auf ausnahmslos jedem System Ruckler haben. Da wird auch abseits von Fakes viel gequirlter Müll hochgeladen. Trifft aber natürlich nicht auf alles zu.

latiose88
2021-12-27, 19:35:02
Ah ok und welche Videos kann mann denn dann am besten Vertrauen die keine Fakes sind?

iamthebear
2021-12-28, 01:49:20
In der Regel jedem normalen Review d.h. Stimme im Video wo die Ergebnisse bzw. das Produkt erklärt werden.

Von der Qualität der Reviews meine Empfehlung:
Hardware Unboxed: https://youtube.com/c/Hardwareunboxednow

Klassische Webseiten:
www.computerbase.de (gute Reviews inkl. Leistungsrating, bei CPU Reviews ist leider der Anwendungsparkour ziemlich einseitig
www.techpowerup.com (sehr umfangreiche Anwendungstests bei Reviews also das was computerbase fehlt)
www.anandtech.com (gute technische Reviews mit Infos zur Architektur etc. außer für Spiele, das können die nicht)

latiose88
2021-12-28, 23:25:14
Hi hat wer von euch zufälliger einen 12600k oder ihr nur überwiegend nen 12700k und 12900k?

BlacKi
2021-12-28, 23:32:54
Hi hat wer von euch zufälliger einen 12600k oder ihr nur überwiegend nen 12700k und 12900k?ich würde dir gerne aushelfen, kanns leider nicht. haben mir keinen 12600k geschickt:(

Matrix316
2021-12-28, 23:34:56
Hat jemand ein Asus Z690 Hero Board?

QdoB9p3LXVQ

dildo4u
2021-12-29, 07:32:39
Hi hat wer von euch zufälliger einen 12600k oder ihr nur überwiegend nen 12700k und 12900k?
Der i5 macht kein Sinn ohne billige Boards.
Davon ab jeder der wirklich neutral kaufen will sollte warten was AMD und Intel zur CES zeigen.

Slipknot79
2021-12-29, 11:11:27
https://www.computerbase.de/2021-12/ces-absagen-nvidia-twitter-t-mobile-amazon-und-mehr-springen-ab/

Nix?

dildo4u
2021-12-29, 11:36:56
https://www.computerbase.de/2021-12/ces-absagen-nvidia-twitter-t-mobile-amazon-und-mehr-springen-ab/

Nix?
Man braucht für Produktankündigungen keine Leute@ der CES.

Intel’s leaders encourage you to join as the company delivers all its CES content and experiences virtually via the Intel Newsroom.

https://www.intel.com/content/www/us/en/newsroom/news/media-alert-intel-mobileye-ces-2022.html

Troyan
2021-12-29, 12:10:29
Der i5 macht kein Sinn ohne billige Boards.
Davon ab jeder der wirklich neutral kaufen will sollte warten was AMD und Intel zur CES zeigen.

Hä? der 12600K ist schneller als alles, was AMD hat. Der macht also für 300€ keinen Sinn ohne 150€ Board? :freak:

ryan
2021-12-29, 12:57:20
i5-12400 Temperatur in AIDA64 FPU mit boxed Kühler:


The reviewer tested the CPU with a yet unreleased Core i5-12400 6-core processor. It is reported that the average power consumption of this CPU is 81W with a peak of 89W (with PL1/PL2 limits are set to 224W and 250W respectively).

In the AIDA64 8 minute FPU stress test, the CPU reached a peak temperature of 75°C and an average of 70°C (with 20°C ambient room temperature). The CPU fan speed was 3100 RPM which was described as audible (no noise measurements were conducted though).
https://videocardz.com/newz/intel-stock-cooler-for-alder-lake-s-cpus-tested-up-to-73c-with-core-i5-12400-cpu


C0 stepping wieder, also 8+8 Abfall Die. Bei einem Preisunterschied von nur 20-25€ würde ich gleich zum i5-12500 greifen.

dildo4u
2021-12-29, 13:03:05
Hä? der 12600K ist schneller als alles, was AMD hat. Der macht also für 300€ keinen Sinn ohne 150€ Board? :freak:
Wenn man nur zocken will bringen ein die ECores gar nix daher hab ich ja gesagt beide Pressekonferenzen abwarten, der 12400 macht deutlich mher Sinn als 300€ Modelle von AMD und Intel.

BlacKi
2021-12-29, 13:04:18
Hä? der 12600K ist schneller als alles, was AMD hat. Der macht also für 300€ keinen Sinn ohne 150€ Board? :freak: gerade der 12600k hat noch taktreserven übrig, die man mit oc freilegen kann, nicht aber mit den b660 boards. und die bretter gibts doch schon ab 166€, auch wenn ich eher zum 181 € board von msi greifen würde.

Matrix316
2021-12-29, 13:29:45
Also ich würde eher den 12700K statt dem 12600er nehmen. :cool:

Nicht unbedingt, weil ich selbst einen habe :anonym: , sondern weil er schneller ist und gleichzeitig auch effizienter. Wenn Igors Tests hier stimmen: https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/3/

Troyan
2021-12-29, 13:30:51
Wenn man nur zocken will bringen ein die ECores gar nix daher hab ich ja gesagt beide Pressekonferenzen abwarten, der 12400 macht deutlich mher Sinn als 300€ Modelle von AMD und Intel.

Die 8 Kerne vom 12700K bringen in Spielen auch kaum was. :rolleyes:
Der 12600K hat in Multi-Core Anwendungen mehr Leistung als ein 5800X und ist in Spielen (deutlich) schneller. Den KF gibt es aktuell für 275€ und ist knapp 80€ günstiger als ein 5800X.

Die 4 E-Cores bringen natürlich was. Der 12600K ist 47% schneller als ein 11600K. Das überträgt sich im Worst-Case natürlich auch auf die Spiele, wenn wirklich mehr als 12 Threads benötigt werden.

Die kleinen Alder-Lake werden top Prozessoren sein, aber ein 12600K lässt sich eben übertakten und hat vier zusätzliche Kerne.

dildo4u
2021-12-29, 13:37:08
Der 12400 klingt für mich deutlich besser minimaler Kühlaufwand keine Probleme mit DRM etc.
Bei Raptor Lake kann man es sich das alles noch mal angucken, es zahlt sich nie aus Early Adopter zu sein. (Höste Preise, meiste Bugs)
Es sei denn man erwartet das die Verfügbarkeit schlechter wird als vor Weihnachten.

BlacKi
2021-12-29, 14:37:09
ja, der 12400 ist mit den b660 boards natürlich günstiger und ist immernoch stark. aber 4 statt 5ghz ist halt auch ein wort. die meisten spiele können mit mehr als 12 threads eh immernoch nichts anfangen, aber auch der 12700k hat seine vorteile wenn man bereit ist nochmals 130€ oberdrauf zu bezahlen. bis auf den 12900k hat intel schon halbwegs passende preisedifferenzen gewählt.

Troyan
2021-12-29, 15:10:27
Battlefield 5 mit Raytracing kann bis zu 16 Threads voll auslasten. Mein i9-9900 lief hier unter Vollauslastung. Die E-Kerne ermöglichen nicht zeitkritische Task auszulagern und die P-Kerne mit den entsprechenden Aufgaben zu nutzen, die dafür vorgesehen sind.

Mein 12600K mit 4,5GHz und insgesamt 16 Threads ist in BF5 mit Raytracing ca. 30% schneller als mein i9-9900 mit 4,5GHZ. Und dabei laufen die E-Kerne mit 20% oder so geringerer Taktung. Und laut Task-Manager werden die Arbeiten schön gleichmäßig aufgeteilt ohne das ein, zwei Threads zum Limit werden.

BlacKi
2021-12-29, 15:16:29
darauf würd ich nichts geben. ich würde mir anschauen ob die e cores in bfv real bessere fps haben.

Matrix316
2021-12-29, 16:16:06
Also so wie ich die Benchmarks alle deute, sorgen die E-Cores dafür, dass die P-Cores mehr Zeit haben sich um das Spiel zu kümmern, während die E-Cores den Kram im Hintergrund abfrühstücken. Deswegen haben die Games mit Alder Lake CPUs auch bessere Frametimes, oder? Selbst wenn die AVG FPS nicht immer so hoch sind. https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/6/

aufkrawall
2021-12-29, 16:41:17
ADL hat bessere min Werte, weil da das CPU-Limit meist noch stärker durchkommt. Dürfte mit den E-Cores rein gar nichts zu tun haben.

dildo4u
2021-12-29, 16:46:42
Also so wie ich die Benchmarks alle deute, sorgen die E-Cores dafür, dass die P-Cores mehr Zeit haben sich um das Spiel zu kümmern, während die E-Cores den Kram im Hintergrund abfrühstücken. Deswegen haben die Games mit Alder Lake CPUs auch bessere Frametimes, oder? Selbst wenn die AVG FPS nicht immer so hoch sind. https://www.igorslab.de/intel-core-i9-12900kf-core-i7-12700k-und-core-i5-12600k-im-test-gaming-in-ganz-schnell-und-richtig-sparsam-teil-1/6/

Die BF Engine ist recht brutal was Core Auslastung angeht 12600k und 5600X haben exkat die selben min Werte dort erwarte ich auch den 12400.

https://youtu.be/6fIf-C8UjWY?t=217

Matrix316
2021-12-29, 17:27:10
ADL hat bessere min Werte, weil da das CPU-Limit meist noch stärker durchkommt. Dürfte mit den E-Cores rein gar nichts zu tun haben.

Schade! Aber wäre es nicht schön, wenn sie es würden? ;) Antivirensoftware, Driveroverhead etc.. der ganze Kleinkram im Hintergrund der das Spiel stört. Oder ist das gar nicht so viel?

Die BF Engine ist recht brutal was Core Auslastung angeht 12600k und 5600X haben exkat die selben min Werte dort erwarte ich auch den 12400.

https://youtu.be/6fIf-C8UjWY?t=217
Nutzt das nur 8 Kerne? Oder warum ist ein 12700 und 12900K dort gleich auf mit einem 5950X? EDIT: Ok ist so. Wird im Video ja gesagt. :D ;)

dildo4u
2021-12-29, 18:01:05
Ich wette HT fängt diese Störungen ausreichend ab, alles mit HT ist wesentlich besser gealtert als die Intel i5 Modelle ohne.


1iJROfmdseY

Ex3cut3r
2021-12-29, 20:01:00
Klaro. HT bringt nicht nur bessere Frameraten sondern auch ruhigere FrameTimes. Video ist ziemlich nichtssagend.

Also ich spucke 90-120 FPS @ Low im CPU Limit mit sauberen Frametimes aus. Allerdings Zen 2 6C/12T und 3733 Mhz RAM CL14 + Subtimings.

Undergrowth Quality
Terrain Quality
Mesh

Und High Fideltiy Object Amount Quality ganz unten, sind die CPU Intensiven Settings.

In BF1 war es nur Mesh

In BF5 Mesh, High Fideltiy Object Amount und Future Frame Rendering.

Future Frame Rendering scheint in BF2042 gar nix zu bringen, was auch logisch ist, denn es scheint nur in DX11 eine Funktion zu haben. KA warum DICE die Funktion bei einem DX12 Only Titel überhaupt ins Menü gepackt hat. ;D

Aber typisch. BF5 spuckt x2 höhere FPS aus, auch bei 64 Spielern Only.

Miserabelste BF Performance ever zumindest was die CPU Frames angeht.

Wird interessant ob Sie das überhaupt zumindest etwas fixen. Der "Normalo" mit Skylake 4C/8T oder Ryzen 1 Nutzer, alle Kern Versionen dümpeln irgendwo bei 40 FPS rum mit miserablen Frametimes.

Kein Wunder, das viele Nutzer abhauen und die Vorgänger zocken. Denn wirklich nachvollziehen, kann man den Hardware Hunger bei der Optik nicht wirklich.

BlacKi
2021-12-29, 21:51:25
die kernauslastung im cpu limit ist ein witz in bf2042. auch wenn die auslastung selten mehr als 4c8t auslastet, die fps ruckeln mit 8c8t auf jeden fall und bessern sich massiv mit 8c16t. vl es es angebracht weniger auf die cpu load zu schauen.

-=Popeye=-
2021-12-29, 23:35:36
Naja die Kernauslastung kann in BF2042 stellenweise auchmal so aussehen, was auch kein reines Ultra Setting ist. Und wie man sieht werden die E-Cores auch genutzt.

2560x1440: 6900XT + 12700k Win11

https://abload.de/thumb/bf2042_12700kwfkcw.jpg (https://abload.de/image.php?img=bf2042_12700kwfkcw.jpg)

edit: Richtig ist das je nach Map nicht mehr als 12-16 Threads genutzt werden.

dildo4u
2021-12-30, 05:04:19
Würde es nich ohne besser laufen da die dicken Kerne höher Takten können wenn die E Cores nicht heizen?

x-dragon
2021-12-30, 08:10:31
Scheinbar sollte man bei DDR5 aktuell echt noch aufpassen, was oder ob man sich das überhaupt schon holt ...

"Bei Gigabyte funktioniert kein XMP, und bei Asus brennt die Hütte"
https://www.deskmodder.de/blog/2021/12/30/bei-gigabyte-funktioniert-kein-xmp-und-bei-asus-brennt-die-huette/

Freestaler
2021-12-30, 08:46:09
Ich kann mir nicht verkneifen, wie war das nochmals mit "Intel ist ab Markt start ready und ausgereift", nicht so ein gebastel wie AMD? Es kochen alle mit Wasser. Behaltet das mal alle im Hinterkopf.

seaFs
2021-12-30, 12:03:51
Scheinbar sollte man bei DDR5 aktuell echt noch aufpassen, was oder ob man sich das überhaupt schon holt ...

"Bei Gigabyte funktioniert kein XMP, und bei Asus brennt die Hütte"
https://www.deskmodder.de/blog/2021/12/30/bei-gigabyte-funktioniert-kein-xmp-und-bei-asus-brennt-die-huette/
Buildzoid nimmt an, dass es bei Asus ein Fertigungsproblem gibt und ein Kondensator falsch herum verlötet wurde.
https://www.youtube.com/watch?v=2VkO4wiEAY4

horn 12
2021-12-30, 12:48:11
Nun, Zen 3 mit 3D Chache wird wohl mit dem intel 12600 / 12700 und vielleicht gar 12900K
wieder auf Augenhöhe sein und dies weiss AMD wohl zurecht, da die Preise der jetzigen Ryzen nicht gesenkt wurden und es nur noch bis zum Release gut ein Monat dauern dürfte!

BlacKi
2021-12-30, 14:19:35
Scheinbar sollte man bei DDR5 aktuell echt noch aufpassen, was oder ob man sich das überhaupt schon holt ...

"Bei Gigabyte funktioniert kein XMP, und bei Asus brennt die Hütte"
https://www.deskmodder.de/blog/2021/12/30/bei-gigabyte-funktioniert-kein-xmp-und-bei-asus-brennt-die-huette/
hat ja aber nichts mit intel zu tun. das die boardhersteller nachlassen konnte ich im generellen schon häufiger beobachten. das ist echt traurig, obwohl die boards immer teurer werden.

Nun, Zen 3 mit 3D Chache wird wohl mit dem intel 12600 / 12700 und vielleicht gar 12900K
wieder auf Augenhöhe sein und dies weiss AMD wohl zurecht, da die Preise der jetzigen Ryzen nicht gesenkt wurden und es nur noch bis zum Release gut ein Monat dauern dürfte!

gaming ja, anwendungstechnisch wird das fast nichts bringen.

x-dragon
2021-12-30, 14:56:40
Buildzoid nimmt an, dass es bei Asus ein Fertigungsproblem gibt und ein Kondensator falsch herum verlötet wurde.
https://www.youtube.com/watch?v=2VkO4wiEAY4

hat ja aber nichts mit intel zu tun. ... Ja aber wie das aussieht, darf Intel erstmal Beta-Tester spielen, bis AMD ihre neue Plattform rausbringt.

BlacKi
2021-12-30, 16:06:22
ich weiß nicht warum du auf den falsch aufgelöteten kapazitator anspielst. das ist ein qualitätsproblem, und hat mit beta nichts zu tun. weder mit adl noch mit ddr5.

Freestaler
2021-12-30, 17:52:25
Nichts mit Intel selbst, sondern neue Plattform. Da gibts doch immer Fehler. Intel oder AMD. REV1.0 halt. REV1.1 wird die Schaltung so gestaltet, das es nicht mehr passieren kann. Early Adapter "features" ;-).

BlacKi
2021-12-30, 18:33:19
das ist doch blödsinn. der, der die bestückungsmaschinen programmiert hat, hat scheiße gebaut. das hat doch nichts mit der plattform zu tun^^

Ex3cut3r
2021-12-30, 18:56:14
Klar, ist menschliches Versagen. Anscheinend muss das jetzt noch schneller von statten gehen als sonst. Anders kann mir so einen Fehler nicht erklären. Ist natürlich als Home User/Kunde bitter, den die Preise werden ja immer höher. Dieses Asus Dingens ist ja nicht grade billig.

Ärgerlich für alle beteiligten. Aber wichtig ist, wie ASUS damit jetzt umgeht. Fehler passieren, aber wichtig ist es, dazu zu stehen, und versuchen das für den Kunden so unkompliziert wie möglich zu gestalten, sonst leidet das Image der Marke ASUS.

VooDoo7mx
2021-12-30, 20:30:33
Also ich hab praktisch Day 1 einen MSI Z690-A Pro DDR4 und 12700K im Betrieb, alles mit einen frischen Windows 11 eingerichtet und es läuft absolut problemlos.

Einzigen Bug der mir aufgefallen ist, dass unter Windows 11 in Shadow of The Tomb Raider die E kerne nicht genutzt werden, bei Win 10 hingegen schon.
Das ist aber absolut vernachlässigbar und eher ein Software als Plattform Problem.

Ansonsten absolut stabiles System, 0 Abstürze oder ähnliches, RAM läuft problemlos DDR4 4000 G1.

Läuft genauso perfekt wie meine vorheriges X99 S2011-3 System.

aufkrawall
2021-12-30, 20:33:25
Einzigen Bug der mir aufgefallen ist, dass unter Windows 11 in Shadow of The Tomb Raider die E kerne nicht genutzt werden, bei Win 10 hingegen schon.

Und was läuft schneller?

TurricanM3
2021-12-30, 20:58:39
Also ich hatte meine Samsung ICs ja @6000C32 laufen, aber leider zicken die Dinger auch bei mir immer wieder herum. Training ist wackelig und beim nächsten Boot passt es nicht mehr (=instabil). Hab 8 Tage probiert das zu stabilisieren, beta Bios, verschiedenste Spannungen etc. aber keine Chance. Hab nun wieder die Dominator mit den Micron ICs @5200C32 laufen und das klappt ohne Probleme.

-=Popeye=-
2021-12-30, 22:21:37
Würde es nich ohne besser laufen da die dicken Kerne höher Takten können wenn die E Cores nicht heizen?

Wenn man die E-Cores abschaltet boostet der Getät keine Stück höher (4,7 GHz sind halt 4,7 GHz All-Core) aber heizt bzw. verballert mehr Strom als wenn man diese einfach eingeschaltet lässt.

Beispiel:

CB23 4700p/3600e/3600c ~ 177 Watt

CB23 4700p/0000e/4600c ~ 215 Watt

Und was läuft schneller?

Spielt keine Rolle, hier mal E-Cores ON/OFF mit Win11.

https://abload.de/thumb/sottr_2021_12_30_20_5k6kfc.jpg (https://abload.de/image.php?img=sottr_2021_12_30_20_5k6kfc.jpg) https://abload.de/thumb/sottr_2021_12_30_20_59cjr2.jpg (https://abload.de/image.php?img=sottr_2021_12_30_20_59cjr2.jpg) https://abload.de/thumb/sottr_2021_12_30_21_4r2k17.jpg (https://abload.de/image.php?img=sottr_2021_12_30_21_4r2k17.jpg) https://abload.de/thumb/sottr_2021_12_30_21_4qgjnu.jpg (https://abload.de/image.php?img=sottr_2021_12_30_21_4qgjnu.jpg)

edit: zwei Videos mit ON/OFF werden hier noch eingefügt

edit: Videos online

E-Cores ON

PmYvoahUWl4

E-Cores OFF

AfJVVpL55jQ

Man achte auf die CPU Watt.

iamthebear
2021-12-30, 22:39:07
Wenn E Cores nichts zu tun haben dann werden sie kaum irgendetwas anheizen.

In Reviews wurde sogar beobachtet, dass ohne Powerlimit der Verbrauch der P Cores sogar noch einmal kräftig zulegt sobald der letzte E Core abgeschaltet wurde. Das liegt afaik daran, dass dann der Ring Bus auch auf P Core Taktraten hochgetaktet wird und ist möglicherweise auch die Ursache dass Anwendungen des öfteren ein paar % schneller ohne E Cores laufen.

Was den Kondensator von Asus angeht: Natürlich passieren diese Probleme statistisch öfter wenn ein neues Produkt aufgenommen wird und die Anlagen erst darauf eingerichtet werden müssen. Daraus aber einen Nachteil für Intel abzuleiten ist zu weit gegriffen. Wenn AMD eine neue Chipsatzserie für AM4 auflegt ist dies genauso wahrscheinlich. Danach dürfte man nie wieder etwas Neues machen.

latiose88
2021-12-30, 23:09:33
Ok dann scheine ich wohl gück zu haben das sobald es 6 P kerne mit Ht ist,schlägt es mit 4 E Cores mit 8P cores ohne E cores.

Matrix316
2021-12-30, 23:18:53
Asus ruft die brennenden Boards zurück:

https://www.computerbase.de/2021-12/rog-maximus-z690-hero-asus-bestaetigt-montagefehler-und-ruft-mainboards-zurueck/

Dr.Doom
2021-12-31, 14:12:20
Immer wieder was neues...

Mir ist vorhin aufgefallen, dass, sobald ich HWinfo (neuste Version) gestartet habe, alle(!) Anwendungen die E-Cores bevorzugen, und Beenden von HWInfo dies auch nciht wieder rückgängig macht, Neustart notwendig.

Siehe Bild:
Die Auslastung durch Cinebench auf allen (logischen) Prozessoren ist links in den Diagrammen zu sehen.
Dann habe ich HWinfo gestartet und schwupp, CB -- und andere Anwendungen -- nutzen nur noch die E-Cores (die vier hinteren Diagramme).

Win10 21H2

Ist das bei jemandem auch so? :freak:


https://abload.de/img/image1wekdf.jpg

Matrix316
2021-12-31, 14:35:43
Welches Cinebench? Unter Windows 11 hab ich das nicht. ;)

Dr.Doom
2021-12-31, 15:37:17
Egal, welches CB, kann auch eine andere Anwendung sein, wie erwähnt. Handbrake, Spiele, etc.

Aber es liegt nichtmal am HWInfo... nach einer Weile nichtstun sind die P-Cores eingeschläfert.
Windows booten -> beispielsweise CB laufen lassen (CB20: ~8800 Punkte) --> nochmal starten --> und nur noch ~1200 Punkte, weils zig mal solange dauert, da die E-Cores nur noch rechnen. :confused:

Gestern war das noch nicht so...!? :freak:

-=Popeye=-
2021-12-31, 15:51:14
Wie Matrix316 schon schrieb bei Win 11 besteht dieses Problem nicht.

latiose88
2021-12-31, 16:16:27
es gibt aber auch Anwendung wo es egal ist ob die P oder E Kernen.Wo Leistung immer da ist. Wo es eben nicht so gut Opitmiert wurde. So ein Fall erlebte ich auch zwischen Windows 10 und Windows 11 dann nicht so nen riesen Unterschied gegeben hatte.

Dr.Doom
2021-12-31, 16:36:51
Kann ja sein, aber gestern war das noch nicht...

Die P-Kerne schlafen jetzt mittendrin einfach ein.
Links in den Diagrammen das Ende des ersten Durchlaufs, dann der zweite im Anschluss.
E-Cores laufen durch, P-Kerne verweigern mittendrin die Arbeit (CB im Hintergrund läuft noch) und Streiken bis zum Reboot.
EDIT: Auslastung geht von 100% auf 20% zurück. (Klar, 4 von 20. *g*) ... :confused:
https://abload.de/img/image12hkqb.jpg

VooDoo7mx
2021-12-31, 20:53:00
Geldmann3 hat hier auch schon ähnliches beobachtet. Er nutzt auch Windows 10.
Ich hab solche Probleme mit Win 11 nicht.

Also bei Win 10: entweder E-Cores abschalten oder auf Windows 11 umsteigen.

ChaosTM
2021-12-31, 21:06:19
11 ist leider immer noch Müll bezüglich Usability. Wechsle regelmäßig zwischen 11 und 10 und es wird nicht wirklich besser. Early Beta at best..

Empfehlung.: Abschaltung der E-cores ;)

iamthebear
2022-01-01, 00:46:36
Wäre interessant was dafür die Ursache ist. Schon mal mit den Energiespareinstellungen gespielt? Gab es irgendein Update? Wird da irgendetwas im Hintergrund gestartet, das das Verhalten auslösen könnte? Vielleicht immer nach 56 Sekunden vonn die CPU von PL2 in PL1 wechselt (selbst wenn beide auf 241W stehen sollte es das Tau ja noch geben).

Ich denke bei einem ADL System würde ich eher schon auf Win11 setzen wobei das generell noch einige Baustellen hat. Bei meinem 9900K System habe ich esbis jetzt nicht geschafft upzudaten, da ich jedes Mal nach dem Upgrade gleich mit einem Bluescreen inkl. automatischem Rollback begrüßt werde.

Geldmann3
2022-01-01, 23:00:53
Also ich bin nun ja auf Windows 11 umgestiegen, werde zuerst mal ein paar grundlegende Benchmarks zu Ende bringen und mir danach anschauen, ob die Probleme aus Windows 10 nun noch bestehen, bisher bin ich nicht auf solche gestoßen und generell lief Windows 11 bisher sehr bugfrei, was vor einem Monat noch ganz anders war.

Leider kam ich auch noch nicht dazu mir die ,,Problemsoftware" zu installieren, geschweige denn mir meine Workflows wieder unter Windows 11 einzurichten.

Meine ,,letzten Privatrechner" werde ich wahrscheinlich auch erst im Laufe des nächsten Monats umstellen und ich schätze, auf der Arbeit bleiben wir noch lange auf Windows 10.

Edit:
Habe gerade einen Bug in Cinebench R20 unter Windows 11 entdeckt, ich klicke auf ,,run" und bekomme sofort die ultimative Rekordpunktzahl:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77932&stc=1&d=1641075167 (https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=77932&stc=1&d=1641075167)

iamthebear
2022-01-02, 14:01:02
Ich ich doch gleich gesagt dass Win11 deutlich schneller ist als Win10 ;D

OpenVMSwartoll
2022-01-02, 16:46:59
Ich ich doch gleich gesagt dass Win11 deutlich schneller ist als Win10 ;D

Es löst sogar Aufgaben, bevor sie begonnen wurden.

Lowkey
2022-01-02, 17:06:40
Das mit dem Einstellen von DDR5 kann man aktuell komplett vergessen. Jetzt bin ich eine Woche dabei und kann quasi immer wieder von vorne anfangen, weil es nicht reproduzierbar ist.

Geldmann3
2022-01-02, 20:37:49
Insgesamt war Windows 10 in meinen Applikationsbenchmarks 1,3% langsamer als Windows 11.

Habe allerdings auch nicht die ganzen ,,Security-Enhancements" aktiv.

Da denk ich bei einem Privatrechner ja gar nicht dran, mehrere Prozent Performance für nichts rauszublasen.
Mit denen würde Windows 11 wohl unterliegen. (https://www.youtube.com/watch?v=weispOrByZ8)

https://i.ibb.co/CP8P8NL/Windows10vs-Windows11-alpha.png (https://i.ibb.co/cNnc6zV/Windows10vs-Windows11-alpha.png)

iamthebear
2022-01-03, 19:10:46
Bist du dir sicher, dass die 7zip Compression Werte stimmen? Techpowerup hat hier um die 126K:
https://www.techpowerup.com/review/intel-core-i9-12900k-alder-lake-12th-gen/13.html
Computerbase ist auch um die 125K.

Mit deaktivierten ECores sind es immer noch um die 100K.

ryan
2022-01-03, 23:16:15
https://videocardz.com/newz/specs-pricing-and-performance-of-intel-12th-gen-core-65w-desktop-cpus-leaked

Ok jetzt sind die Listenpreise raus.

i5-12400F $167
i5-12400 $192
i5-12500 $202
i5-12600 $223


12400F ist eine Option wenn man auf die iGPU nicht angewiesen ist, der 12400 dagegen macht wenig Sinn für mich. Nur 11 Dollar Unterschied zum schneller taktenden 12500, dafür bekommt man dann aber garantiert einen nativen 6+0 Chip mit besserer Effizienz, ich würde in dem Fall gleich zum 12500 greifen. Ansonsten kann mit dGPU der 12400F eine Option sein.

y33H@
2022-01-04, 07:15:51
Wieso bekommt man garantiert einen H0, also 6P+0E, beim 12500?

Geldmann3
2022-01-04, 08:35:50
Bist du dir sicher, dass die 7zip Compression Werte stimmen? Techpowerup hat hier um die 126K:
https://www.techpowerup.com/review/intel-core-i9-12900k-alder-lake-12th-gen/13.html
Computerbase ist auch um die 125K.

Mit deaktivierten ECores sind es immer noch um die 100K.

Techpowerup verwendet scheinbar schnellen DDR5 Ram, wovon 7-Zip stark profitiert.

Troyan
2022-01-04, 10:11:36
Alder-Lake Konkurrenz kommt frühsten in vier Monate. Soviel dazu, dass man einfach warten sollte. Und laut AMD wird es im Herbst auch eine neue Plattform geben.

dildo4u
2022-01-04, 10:16:13
Es geht nicht nur um CPUs, du hast 2-3 Jahre an AM4 X570/B550 Board Auswahl im Markt mit Ramsch Preisen bis Intel dort ist dauert es noch locker diese paar Monate.
Einfach bei MF gucken die einzige Intel CPU die sich verkauft ist ein 150€ Gen 11 Modell.


https://www.mindfactory.de/Hardware.html

Troyan
2022-01-04, 10:21:23
Die AMD-Plattform ist veraltet. Die Prozessoren zu teuer und zu langsam. Und trotzdem wurde hier noch nach dem Release von AL gesagt, man sollte warten. Zen3D ist DoA wie Rocket-Lake und im Herbst muss man bei AMD eine komplett neue Plattform kaufen. Die wird auch nicht günstiger als z690 Boards.

dildo4u
2022-01-04, 10:24:40
Natürlich werden die AMD Boards billiger es gab schon Leaks AMD geht nicht über 200Watt.Macht vermutlich wieder kein Sinn den Takt über 5Ghz zu steigern.

ryan
2022-01-04, 13:14:29
Wieso bekommt man garantiert einen H0, also 6P+0E, beim 12500?


Weil es nur beim 12400 einen Mix aus 8+8 und 6+0 gibt. Sofern das nicht extra beschriftet wird, ist das eine Lotterie was man kauft.

Der Preisunterschied vom 12400 zum 12500 ist einfach zu klein, das macht kein Sinn. 12400F ist mit dGPU aber eine wirklich sehr günstige Lösung für die gebotene Leistung egal ob C0 oder H0. Für budget gamer die erste Wahl imho wenn jetzt noch die günstigen Boards kommen.

y33H@
2022-01-04, 14:56:59
Die Frage wäre, woher diese Info stammt ^^ der 12400(F) kann laut Tray beides sein und 12500/12600 nur H0 mit 6P+0E, ist schon lustig.

ryan
2022-01-04, 15:26:56
Die Frage wäre, woher diese Info stammt ^^ der 12400(F) kann laut Tray beides sein und 12500/12600 nur H0 mit 6P+0E, ist schon lustig.


Von hier: https://twitter.com/momomo_us/status/1476539855387893760


Es ist aber auch logisch, was soll daran lustig sein? Wenn es schon beim 12400 nicht notwendig, alle aus teilkaputten 8+8 auf dem Markt zu bringen, ist es einfach naheliegend, das die teilkaputten nur für die langsamste SKU genommen werden, in dem Fall der 12400, während die höher taktenden 12500 und 12600 komplett vom 6+0 Die bedient werden.

y33H@
2022-01-04, 16:56:33
Klar, das Binning ist entscheidend - ich meinte "lustig" in dem Sinne, dass das teurere Die für einen günstigeren Prozessor verwendet wird.

-=Popeye=-
2022-01-04, 18:11:22
Techpowerup verwendet scheinbar schnellen DDR5 Ram, wovon 7-Zip stark profitiert.

Und warum ziehst du bei deiner Kiste den Speicher nicht ebenfalls hoch?

DDR4-3600 CL16 sind sicherlich drin.

dildo4u
2022-01-04, 19:27:19
ydgN4W97Esk

ujAz1kDwEWo

Loeschzwerg
2022-01-04, 19:45:15
H610 Chipsatz -> SingleChannel :freak::freak::freak:

Geldmann3
2022-01-04, 19:58:57
Und warum ziehst du bei deiner Kiste den Speicher nicht ebenfalls hoch?

DDR4-3600 CL16 sind sicherlich drin.

Um ehrlich zu sein habe ich mir einfach den Hassle noch nicht gemacht, läuft so schön in den specs out of the box und in dem einen oder anderen Game verliere ich aufgrund der Latenz dann wahrscheinlich wieder Performance.
7-Zip ist aber auch schon ein Extremfall.

Wuge
2022-01-04, 20:34:30
Klar, das Binning ist entscheidend - ich meinte "lustig" in dem Sinne, dass das teurere Die für einen günstigeren Prozessor verwendet wird.

Ein "guter" 6+0 ist "teurer" im Sinne von Wertigkeit als ein komplett verkrüppelter Rand-8+8, der zig Fehler und beschissene elektrische Eigenschaften haben kann ;)

iamthebear
2022-01-04, 22:00:02
Techpowerup verwendet scheinbar schnellen DDR5 Ram, wovon 7-Zip stark profitiert.

Und warum ziehst du bei deiner Kiste den Speicher nicht ebenfalls hoch?

DDR4-3600 CL16 sind sicherlich drin.

Habe jetzt noch einmal nachgesehen.
Der 7-zip Benchmark macht beim Komprimieren auf 24 Threads Random Reads auf den RAM. Das profitiert extrem stark von den 2 Speicherkanälen pro Riegel von DDR5. Schnellerer DDR4 RAM wird da nicht viel Unterschied machen. Hier braucht man einfach DDR5.

Das Ganze ist jedoch absolut nicht repräsentativ für die Gesamtperformance. Dies ist ja ein rein synthetischer Benchmark. Die Performance beim realen Packen sieht hier ganz anders aus. Je nach Archivgröße und gewählter Qualitätsstufe ist 7-zip oft rein single threaded. Da zählt dann nur Latenz von DDR4 statt Durchsatz.
Ich glaube ja, dass der integrierte Benchmark nur dazu da ist um davon abzulenken wie mieserabel die Multi Core Unterstützung eigentlich ist ;D

Ein "guter" 6+0 ist "teurer" im Sinne von Wertigkeit als ein komplett verkrüppelter Rand-8+8, der zig Fehler und beschissene elektrische Eigenschaften haben kann ;)

Ich kann die fehlenden Kerne bzw. den Cache sowieso nicht freischaltet. Von daher ist es relativ egal wie viele Kerne die CPU schon einmal hatte.

Im Fall des 12400 ist die Frage jedoch nicht so eindeutig:
.) 12400 mit 6+0 Die bedeutet wahrscheinlich, dass er den Takt des 12600 nicht geschafft hat.
.) 12400 mit 8+0 Die bedeutet, dass er entweder Takt des 12600K nicht geschafft hat oder mehr als 4 E Cores hinüber waren.

In beiden Fällen dürfte die CPU ein ziemlicher Potatoe sein. Ich denke aber eher, dass die meisten 12400er einfach so runter gedreht wurden, da der Markt es fordert.

Die Frage ist jedoch:
.) Die Dinger sind sowieso nicht übertaktbar
.) Vom Verbrauch ist sowieso jeder 12400 relativ niedrig

Also was kümmert es mich dann noch ob es gutes Silizium ist oder nicht solange er nach Specs läuft?

Das handfestere Argument ist für mich 200 MHz mehr Takt beim 12500 für nur 10$ mehr.

Den 12400F sehe ich sowieso nur als Notlösung wenn das Budget schon echt zwickt.
Die Möglichkeit einen PC auch eine diskrete GPU laufen zu lassen ist mir die 25 Euro locker wert:
.) Einfachere Fehlersuche wenn etwas nicht bootet und man die GPU ausschließen will
.) Wenn die GPU defekt ist sitzt man nicht komplett im Dunklen und kann den PC zumindest noch normal verwenden.
.) Nach dem nächsten Upgrade kann man den PC wunderbar irgendwo als Office PC verbauen

Es geht nicht nur um CPUs, du hast 2-3 Jahre an AM4 X570/B550 Board Auswahl im Markt mit Ramsch Preisen bis Intel dort ist dauert es noch locker diese paar Monate.
Einfach bei MF gucken die einzige Intel CPU die sich verkauft ist ein 150€ Gen 11 Modell.

https://www.mindfactory.de/Hardware.html

Das ist auch relativ klar. Der 11400 ist derzeit die einzige Alternative für die Budget Gamingschiene.

Alle potentiellen Alder Lake Käufer warten noch ab:
.) 12600K Käufer: Warten auf bezahlbare Boards
.) 12700K Käufer: Warten auf 50 Euro billigeren 12700 non K (fast ident zum 12700K wenn man PL1/2 hoch stellt) und billigere Boards
.) 12900K Käufer: Warten auf lieferbaren DDR5

Dass AMD CPUs generell viel gekauft werden ist auf den Kundenkreis von Mindfactory zurück zu führen. Einmal abgesehen davon gibt es eine Menge Gamer, die sich vor ein paar Jahren aus Preisgründen für einen 2600X oder 2700X entschieden haben und für die ist es natürlich naheliegend sich einfach einen neuen 5600X/5800X in das bestehende Board zu stecken und Board + RAM + Kühler weiter zu verwenden. Hier wäre auch der 5800X mit VCache eine sinnvolle Alternative wenn es AMD beim Preis nicht übertreibt.

ryan
2022-01-05, 13:44:33
https://www.igorslab.de/intel-core-i5-12400-review-effiente-gaming-cpu-fuer-die-breite-masse-teil-1/5/

i5-12400 ist der neue Effizienzkönig in Spielen, 40-43W Verbrauch in 720p. In 1080p 35-40Watt. Dabei ist das bei ihm nur das C0 Stepping.

y33H@
2022-01-05, 14:18:41
Mein 12400F ist ein H0, schaffe es aber frühestens für Freitag.

latiose88
2022-01-05, 17:04:49
Interessant wie hier manche auch wie ich H264 Umwandeln. Und es gab schon welche die für mich das bestäigen konnten.Es gab leichte Beschleunigung unter Windows 11.Mit einem AMD System brauche ich garnicht erst auf die Idee zu kommen auf Windows 11 zu gehen,weil am ende sogar langsamer als unter Windows 10.
Naja es scheint wohl irgendwann das ende der Optimierungen zu geben bzw zu kommen. H264 Umwandeln wird also langfristig kaum noch eine beschleungung zu geben.Und das Programm das ich verwende scheint mit der Kernskalierung unter Windows 11 Probleme zu haben.Das erklärt warum 2x die selbe Anwendung unterschiedliche Zeiten angezeigt hat.Naja ich werde das weiterhin beobachten. Und wer weis wie es sich mit einem älteren Intel System mit WIndows 11 sich so verhalten wird.Das weis halt keiner so genau.

aufkrawall
2022-01-05, 17:36:03
Je nach Archivgröße und gewählter Qualitätsstufe ist 7-zip oft rein single threaded. Da zählt dann nur Latenz von DDR4 statt Durchsatz.
Ich glaube ja, dass der integrierte Benchmark nur dazu da ist um davon abzulenken wie mieserabel die Multi Core Unterstützung eigentlich ist ;D

Das ist nun wirklich komplett übertrieben bzw. frage ich mich, was du da getestet haben willst. Solltest du nochmal wiederholen.

horn 12
2022-01-05, 18:32:33
Nun, der 5600X ist zwar um 30% Stromhungriger als der 12400
aber dennoch braucht man nicht wechseln auf den intel
Wer NEU kauft oder von Zen 1 oder der 9x00 Generation kommt, kann dies sicherlich machen und dem sei auch Recht so...
Zudem ich meinen 5600X zu Release November 2020 um Gerade mal 312 inkl. Versand bekam...

Somit werde auf den 5800X-3D Warten und nochmals Billig umsteigen.
Dürfte aber gut 500+ Euro kosten sollen das AMD Teil

y33H@
2022-01-05, 18:39:03
Das Ganze ist jedoch absolut nicht repräsentativ für die Gesamtperformance. Dies ist ja ein rein synthetischer Benchmark. Die Performance beim realen Packen sieht hier ganz anders aus. Je nach Archivgröße und gewählter Qualitätsstufe ist 7-zip oft rein single threaded.Hmmm, hier ist reales Packen (und ja, da ist am Ende auch ST dabei):

https://scr3.golem.de/screenshots/2111/12700K-Alder-Lake-Benches-Apps/thumb620/01-7-zip-v21.03-beta-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png

Fusion_Power
2022-01-05, 18:49:11
https://www.igorslab.de/intel-core-i5-12400-review-effiente-gaming-cpu-fuer-die-breite-masse-teil-1/5/

i5-12400 ist der neue Effizienzkönig in Spielen, 40-43W Verbrauch in 720p. In 1080p 35-40Watt. Dabei ist das bei ihm nur das C0 Stepping.
Klingt gut, ich bin ja ein Freund von ehr stromsparenden Desktop CPUs, mehr als 65W brauch ich nicht aufm Sockel. Aber irgend wie kurios dass das Hauptfeature des Alder Lake - nämlich die neuen "Effizienzkerne" nun komplett weg gespart werden bei den kleineren CPUs. Wozu hat Intel dann überhaupt dieses Big/Little Desin so propagiert? Zudem scheinen die kleinen Cores bei wenig Nutzen ja dann doch relativ viel Strom zu ziehen falls sie vorhanden sind.
Ist Alder Lake am Ende doch nur Marketing für ne ansonsten stinknormale neue CPU Generation ohne wirklich grundlegend neue Features? :uponder:

Wie dem auch sei, die Chancen stehen gut dass mein nächster PC ein Laptop wird, damit hat manns dann auch relativ leicht wenn man stromsparend computern möchte.

aufkrawall
2022-01-05, 18:59:15
Würde eher sagen, ADL ist die Vorbereitung der Software auf bessere littles irgendwann in der Zukunft. Zumindest würde ich davon ausgehen, dass die weiterhin größere Sprünge machen werden als die Bigs.

ryan
2022-01-05, 19:23:05
Klingt gut, ich bin ja ein Freund von ehr stromsparenden Desktop CPUs, mehr als 65W brauch ich nicht aufm Sockel. Aber irgend wie kurios dass das Hauptfeature des Alder Lake - nämlich die neuen "Effizienzkerne" nun komplett weg gespart werden bei den kleineren CPUs. Wozu hat Intel dann überhaupt dieses Big/Little Desin so propagiert?


Generell geht es um Flächeneffizienz und performance. Für die i5 no-K ist ein 6-0 Chip ausreichend gewesen in dieser Generation. 4+8 wäre eher kontraproduktiv gewesen im Desktop Bereich, 6 big cores sollten schon sein für gamer. Das komplette mobile lineup hat E-cores. In der Raptor Lake Generation sind die i5 non K im Desktop bestehend aus 6+8 und 6+4.

iamthebear
2022-01-06, 01:37:10
Hmmm, hier ist reales Packen (und ja, da ist am Ende auch ST dabei):

https://scr3.golem.de/screenshots/2111/12700K-Alder-Lake-Benches-Apps/thumb620/01-7-zip-v21.03-beta-(5gb-compression,-lzma2-ultra,-aes-256)-chart.png

Das kommt bei 7-zip wie gesagt stark auf die Archivgröße und Wörterbuchgröße an.

Bei 5GB Archiven skaliert 7-zip noch relativ gut. Da habe ich bei meinem 9900K großteils noch 80+ CPU Auslastung.

Bei kleineren Archiven sieht das aber schon komplett anders aus. Wenn ich z.B. den Cinebench R23 Ordner packe (ca. 600MB Original, gepackt auf 165MB) schwankt es so zwischen 1-5 Threads die aktiv.

Beim Entpacken wird glaube ich generell nur 1 Thread genutzt allerdings ist hier die Performance gut genug, dass es eigentlich ziemlich egal ist.

P.S.: Ist der 11900K hier in den Zaubertrank gefallen, dass er 100 Sekunden packt? Beim 12900K Review hatte der ja noch 183 Sekunden: https://www.golem.de/news/core-i9-12900k-alder-lake-im-test-das-intelperium-schlaegt-zurueck-2111-160611-7.html

latiose88
2022-01-06, 01:41:17
ah ok sehr interessant nur 1 Kern also beim Entpacken.WIe Verhält es sich denn bei Winrar.Also wenn man da Entpckt,braucht diese auch so wenig Kerne also nur 1 Kern wie bei 7Zip?
Aber Ram braucht es schon ne gewisse Menge ,weil wohin sollen denn die Daten zum Entpacken zwischen gespeichert werden.
Und ein Browser wie Firafox ,Opera oder Google Chrome brauchen also auch nur 1 Kern?

Dann habe ich ja einen Idealen Laptop für solche Aufgaben.Nur eines wird die Leistung dann nur noch beeinflussen,nämlich der CPU Takt ,nicht wahr?

aufkrawall
2022-01-06, 01:52:05
Liegt nicht an der Wörterbuch- und Archivgröße, sondern an der Beschaffenheit der zu komprimierenden Daten. Die meisten Leute dürften nicht ausgerechnet ständig Binaries o.ä. packen. Von daher fragwürdig, weshalb du ausgerechnet CB komprimiert hast...

Savay
2022-01-06, 12:04:09
Ich habe ja eher den Verdacht, dass das eine Cache Geschichte ist!

Bei mir sind es für den CB23 Ordner eher ca. "16" Threads...und 50-70% Auslastung mit den Profilen Schnell und Normal.

Erst wenn das Wörterbuch so gar nicht mehr in den Cache zu passen scheint bricht es total zusammen auf vielleicht 1-4 Threads. (Maximum, Ultra)

Geldmann3
2022-01-06, 12:08:25
Dann bin ich mal gespannt, wie der 5800X3D in diesem Task performt.
Der könnte dann ja ein Kompressionsmonster sein.

ryan
2022-01-06, 12:24:56
https://www.igorslab.de/intel-core-i5-12400-review-effiente-gaming-cpu-fuer-die-breite-masse-teil-1/5/

i5-12400 ist der neue Effizienzkönig in Spielen, 40-43W Verbrauch in 720p. In 1080p 35-40Watt. Dabei ist das bei ihm nur das C0 Stepping.


Hier jetzt noch der workstation Test.

https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/

Effizienteste CPU im Test (AutoCAD, Blender). Mit nur 4.0 Ghz MT ist Golden Cove richtig effizient. Das ist eigentlich das, was man bei den Skalierungstests nach unten vom 12900k schon sehen konnte.

y33H@
2022-01-06, 12:32:33
P.S.: Ist der 11900K hier in den Zaubertrank gefallen, dass er 100 Sekunden packt? Beim 12900K Review hatte der ja noch 183 Sekunden: https://www.golem.de/news/core-i9-12900k-alder-lake-im-test-das-intelperium-schlaegt-zurueck-2111-160611-7.htmlDas war ein Mess- bzw Übertragungsfehler (weil offensichtlich zu langsam), habe den daher noch mal reingesteckt und vergessen die alten Diagramme zu updaten - hole ich nach, danke!

iamthebear
2022-01-06, 14:06:05
ah ok sehr interessant nur 1 Kern also beim Entpacken.WIe Verhält es sich denn bei Winrar.Also wenn man da Entpckt,braucht diese auch so wenig Kerne also nur 1 Kern wie bei 7Zip?

Bei Rar ist das Dateiformat so aufgebaut, dass es sich nur sequentiell mit einem Thread dekomprimieren lässt. Das sind sowohl mit WinRar als auch mit 7zip (das ja auch rar entpacken kann) um die 100MB/s.

Bei lzma2 (das Format von 7zip) kann ich mich daran erinnern gelesen zu haben, dass es genauso ist nur bekomme ich da schon mit einem Kern um die 300MB/s und kann es mangels schnellerer Hardware nicht zuverlässig testen.

Was ich mich erinnern kann gibt es aber auch Formate, die sich mit 7zip Multithreaded entpacken lassen (möglicherweise tar, bin mir aber nicht mehr sicher).

Aber Ram braucht es schon ne gewisse Menge ,weil wohin sollen denn die Daten zum Entpacken zwischen gespeichert werden.
Und ein Browser wie Firafox ,Opera oder Google Chrome brauchen also auch nur 1 Kern?

7zip gibt schon beim Komprimieren an wieviel RAM mit den jeweiligen Einstellungen beim Entpacken notwendig sein wird. Und im Normalfall werden Daten beim Entpacken in eine temporäre Datei geschrieben die dann umbenannt wird.
Was Browser angeht: Javascript nutzt in der Regel nur 1 Thread. Allerdings gibt es bei einem Browser ja meistens mehrere Tabs/Fenster die gleichzeitig offen sind und der Browser macht auch ein paar Dinge parallel wodurch es mehr als 1 Thred ist. Ob du nun aber 4 oder 16 Kerne hast wird in der Praxis egal sein.

Dann habe ich ja einen Idealen Laptop für solche Aufgaben.Nur eines wird die Leistung dann nur noch beeinflussen,nämlich der CPU Takt ,nicht wahr?

CPU-Takt und IPC. IPC (instructions per cycle) ist die durchschnittliche Anzahl an Anweisungen die eine CPU pro Taktzyklus schafft. Im Prinzip wirken sich so gut wie alle Verbesserungen direkt auf die IPC aus.

Grobe Faustregel:
Skylake bis Comet Lake und die E Cores von Alder Lake haben in etwa dieselbe IPC
Rocket Lake, Ice Lake, Tiger Lake haben ca. eine 20% höhere IPC
Alder Lake P Cores haben noch einmal 20% mehr IPC

latiose88
2022-01-06, 14:27:09
OK selbst wenn ich also bei 4 Kerne bleiben sollte bzw ja bei 6 kerne im Laptop, habe ich ne massiv höhere Leistung. Es wird interessant sein wie viel da so gehen wird. Also von 4700hq ausgehend. Ich habe was von ner Halbierung der Zeit gelesen wenn man was berechnet. Es wird mit also ne Freude sein, wenn mein Laptop nicht mehr geht da was zu kaufen. Da ja in dem Bereich Adler Lake und vielleicht sogar der Nachfolger genau da am sparsamsten sein werden, wird es spannend werden. Aber ich habe wohl eher dann wenn es um Sparsamkeit geht viel lieber nen 5800h mit 35 Watt im Visier. Wie es wohl da bei Intel in der Richtung sein wird und ob da dann die Leistung dann besser, ist ne ganz andere Frage. Wird echt spannend werden. So ist das halt wenn man maximal mit 8 Kernen auskommen kann. Ist ja auch viel besser 8 logische threads als 8 threads wo durch ht oder smt entstanden ist was drauf zu machen.

VooDoo7mx
2022-01-06, 16:15:02
Hier jetzt noch der workstation Test.

https://www.igorslab.de/was-taugt-der-intel-core-i5-12400-review-im-workstation-und-produktiveinsatz-wirklich-teil-2/9/

Effizienteste CPU im Test (AutoCAD, Blender). Mit nur 4.0 Ghz MT ist Golden Cove richtig effizient. Das ist eigentlich das, was man bei den Skalierungstests nach unten vom 12900k schon sehen konnte.

Man kann mit undervolting sicher den Stromverbrauch um nochmal 25% reduzieren.

Bei einen CPU wo man eh nicht übertakten kann, wäre es ziemlich blöd wenn man das nicht mitnimmt.

ryan
2022-01-06, 16:32:59
Es gibt erste B660 Listungen von Asus auf Alza, verfügbar sollen die ab 11.1 sein.

https://www.alza.de/guenstige-mainboards-mit-intel-b660-chipset/18892865.htm

Fusion_Power
2022-01-06, 16:56:27
Es gibt erste B660 Listungen von Asus auf Alza, verfügbar sollen die ab 11.1 sein.

https://www.alza.de/guenstige-mainboards-mit-intel-b660-chipset/18892865.htm
Mini-ITX is ja richtig teuer. Auf Geizhals findet man auch kein Sockel 1700 Board in dem Format unter 200€ und das sind nicht mal die Z Chipsätze, huii. Wenn das Mainboard so viel kostet wie eine CPU (oder gar mehr) wirds lächerlich.

Lowkey
2022-01-06, 17:11:14
Ich checke es nicht ganz warum die Mainboardpreise immer weiter steigen, denn dann schaue ich mein B550-I von Gigabyte an, dass man mittlerweile schon für 110-130 Euro finden kann und es packt den 5950x mit OC.

https://www.digitaltrends.com/computing/asrock-bios-contains-enhanced-thermal-velocity-boost-intel-core-i9-12900ks/

Also bekommt der 12900KS ETVBOC ...

latiose88
2022-01-06, 17:36:58
Hm was ist denn ETVBOC und wie wird es ganz ausgeschrieben und dann noch auf Deutsch?

Hm die Intel Plattform ist teilweise eh schon zu teuer.Die CPU Preise scheine wohl auch nach oben zu steigen. Schon bald ist für weniger betuchte eh kaum noch bezahlbar. DDr5 ist eh viel zu teuer. Und noch dazu ist die Plattform noch fehlerbehaftet in so manchen Situationen. Ich frage mich ob man damit Neukunden nicht abschreckt wenn es so weiter geht.Es wird wohl alles zu teuer werden.Dann wird auch noch der Strompreis Teuer. Schon bald lohnt es sich nicht mehr in sehr guter Hardware zu investieren.Weil man dann es nicht mehr da halten kann beim Unterhalt also sprich die Nebenkosten die solche Produkte verursachen.

ryan
2022-01-06, 17:42:16
Mini-ITX is ja richtig teuer. Auf Geizhals findet man auch kein Sockel 1700 Board in dem Format unter 200€ und das sind nicht mal die Z Chipsätze, huii. Wenn das Mainboard so viel kostet wie eine CPU (oder gar mehr) wirds lächerlich.


Mini-ITX ist recht unbedeutend und Wifi ist ein Preistreiber, beim B560 gab es gerade einmal 4 Stück davon und bis auf das Asrock alle über 160€.

Interessanter sind ATX und Micro-ATX, bei denen ist die Auswahl auch viel größer. Die Preise liegen so 20-30€ über den B560 Preisen, wenn man das bei Asus mal so vergleicht. Teurer ja, aber nicht so dramatisch wie befürchtet.

Fusion_Power
2022-01-06, 17:51:50
Mini-ITX ist recht unbedeutend und Wifi ist ein Preistreiber, beim B560 gab es gerade einmal 4 Stück davon und bis auf das Asrock alle über 160€.

Interessanter sind ATX und Micro-ATX, bei denen ist die Auswahl auch viel größer. Die Preise liegen so 20-30€ über den B560 Preisen, wenn man das bei Asus mal so vergleicht. Teurer ja, aber nicht so dramatisch wie befürchtet.
Ich kann aber nicht der Einzige sein, der ein Mini-ITX Gehäuse hat wo auch nur Mini-ITX rein passt. Ich will eigentlich nie wieder ein größeres Board haben.

Benutzername
2022-01-07, 02:36:12
Ich kann aber nicht der Einzige sein, der ein Mini-ITX Gehäuse hat wo auch nur Mini-ITX rein passt. Ich will eigentlich nie wieder ein größeres Board haben.

Kommt halt darauf an, was man bauen will. :wink: Wenn überhaupt ist µATX der Seltenere Formfaktor imho. Wenn hat man doch meistens ATX und Mini-ITX mobos zur Auswahl. Und ab und zu so "freaks" in DTX oder anderes.



Aber die Mobopreise für Alder Lake sind auch mit dem B560 ganz schön gepfeffert und gesalzen. Egal welche Größe. Machen die Hersteller das, weil sie es können? Teure, seltene Komponenten auf den Platinen? Intel will das Geld, daß sie bei den CPUs Listenpreisen nicht nehmen wieder über die Mobochips reinholen? :confused:

aufkrawall
2022-01-07, 02:42:41
Aber die Mobopreise für Alder Lake sind auch mit dem B560 ganz schön gepfeffert und gesalzen.
Vielleicht erstmal abwarten, bis mehr als acht Produkte lieferbar sind?

dildo4u
2022-01-07, 06:46:19
Ebend da wird aktuell kaum was umgesetzt bei Intel, die MB Preise werden sich nicht halten.
Ich frag mich ob Daus nicht wissen das man nicht zwingend DDR5 braucht und Alder Lake deshalb im Regal liegen bleibt.

y33H@
2022-01-07, 08:29:05
Steht doch in jedem Test ...

dildo4u
2022-01-07, 08:35:25
Der Markt wächst ständig und da sind Leute dabei die vieleicht nur oberflächliche Techseiten lesen wie theverge etc.

y33H@
2022-01-07, 10:37:21
While you can buy DDR5 memory right now, some Z690 motherboards will support existing DDR4 modules to ease the transition.
https://www.theverge.com/22763042/intel-core-i9-12900k-review :freak:

[die einzige Erwähnung von DDR4 im ganzen Text]

BlacKi
2022-01-07, 10:41:36
Dann bin ich mal gespannt, wie der 5800X3D in diesem Task performt.
Der könnte dann ja ein Kompressionsmonster sein.95°C is the limit:biggrin:

dildo4u
2022-01-07, 10:46:31
Das Prime Plus war mal die Budget Marke 170€ :lol:
Denke aber die werden das Selbe mit AM5 versuchen.


https://www.computerbase.de/2022-01/h670-b660-und-h610-vs-z690-chipsaetze-und-mainboards-fuer-alder-lake-im-ueberblick/

ryan
2022-01-07, 11:20:14
Das Prime Plus war mal die Budget Marke 170€ :lol:
Denke aber die werden das Selbe mit AM5 versuchen.


https://www.computerbase.de/2022-01/h670-b660-und-h610-vs-z690-chipsaetze-und-mainboards-fuer-alder-lake-im-ueberblick/


Das kostet 144€ bei Alza und damit 20€ mehr als beim B560. Es ist teurer, ja. Aber überdramatisieren muss man das nicht. Bis jetzt ist kaum was gelistet, vielleicht solltet ihr erstmal eine breitere Verfügbarkeit und Auswahl abwarten.

dildo4u
2022-01-07, 11:35:25
Ergibt nur kein Sinn warum die Preiserhöhung Intel hatte vorher LGA genutzt und 11 Gen hatte auch absurde Lastverbräuche.
Aber egal PCler fressen eh alles was ihnen serviert wird da würde ich auch die Preise erhöhen.

ryan
2022-01-07, 12:31:47
Ergibt nur kein Sinn warum die Preiserhöhung Intel hatte vorher LGA genutzt und 11 Gen hatte auch absurde Lastverbräuche.
Aber egal PCler fressen eh alles was ihnen serviert wird da würde ich auch die Preise erhöhen.


Gerade in der jetzigen Zeit kann das viele Gründe haben, es ist ja nicht so als wenn nur die Boards teurer geworden sind. Die Boards Hersteller sind von vielen Zulieferern abhängig, die kaufen nicht nur den Chipsatz von Intel.

Bei DDR5 mangelt es an PMIC-Chips, das alles steigert letztlich den Endkundenpreis. PCIe5 wird sicher auch teurer sein in der Herstellung als PCIe4. Die Gehälter steigen, der Transport kostet mehr usw. Schau dir doch mal an, was sonst noch alles teurer wird. Das zeigt sich dann meist zuerst bei neuen Produkten und weniger bei Altbeständen.

Bei den CPUs+Mainboards sind wir noch gut dran, wenn man sich das Dilemma bei den Grafikkarten ansieht. Das ist noch jammern auf hohem Niveau.

Thunder99
2022-01-07, 14:04:24
Mehr Speed, mehr Layer, mehr Leitungen/Verbindungen/Verdrahtung -> mehr Kosten.

Meine Meinung.

Lowkey
2022-01-07, 14:40:53
Im Mindstar (https://www.mindfactory.de/Highlights/MindStar)gibt es heute günstige CPUs und DDR5 Speicher.

Lowkey
2022-01-07, 14:42:53
Bei den CPUs+Mainboards sind wir noch gut dran, wenn man sich das Dilemma bei den Grafikkarten ansieht. Das ist noch jammern auf hohem Niveau.

Jeder Zulieferer erhöht die Preise, was nicht unbedingt an Corona oder an Lieferengpässen liegen muss. Und dann erhöhen die Hersteller nochmals die Preise, weil sie es können.

Und dann erwarte ich auch permanente Preissteigerungen bei Grafikkarten, was an den aktuellen Preisen nichts ändern wird. Die Händler verdienen dann weniger, die Hersteller mehr. 2000 Euro für eine Grafikkarte sind bald Alltag.

WedgeAntilles
2022-01-07, 14:56:36
Und dann erwarte ich auch permanente Preissteigerungen bei Grafikkarten, was an den aktuellen Preisen nichts ändern wird. Die Händler verdienen dann weniger, die Hersteller mehr. 2000 Euro für eine Grafikkarte sind bald Alltag.

Nur falls Mining das hergibt.
Sonst sehen wir bei GraKas wieder niedrigere Preise.
Fällt Mining weg werden 500 Euro für eine 4070 zwar nicht erreicht werden denke ich, wohl aber ca. 700 Euro.
Immer noch viel, aber weit weg von 1000-1200 Euro.

Falls du einzelne Enthusiastenmodelle meinst - da können 2000 natürlich sein, aber die spielen für die Masse ja keine Rolle.

Lowkey
2022-01-07, 15:38:44
Niedrigere Preise sehen wir immer. Der Markt schwankt. Die Grundtendenz fing vor Corona an: kaum Leistungszuwachs bei Einsteigermodellen und zunehmend höhere Preise. Dann kam wohl Asus auf die Idee einfach mal die Preise für Hardware anzuheben. Und alle folgten. Und dann erst kam mit Corona der Lieferengpass, der Mining Boom, die höheren Fertigungskosten und letztlich die deutlich höhere, weltweite Nachfrage. Immer mehr Menschen haben mehr Geld und Zeit für Gaming.

Ich erwarte von den Herstellern höhere UVPs, so dass die Händler weniger aufschlagen können. Und der Einstiegsmarkt wird dem Gebrauchthandel überlassen.


https://img-9gag-fun.9cache.com/photo/a417Gbv_700bwp.webp

Bald braucht es im HTPC auch Highend. Es ist noch nicht abzusehen wie sich die neue Klassifizierung bei Grafikkarten in Zukunft durchsetzt.

WedgeAntilles
2022-01-07, 16:32:25
Niedrigere Preise sehen wir immer. Der Markt schwankt. Die Grundtendenz fing vor Corona an: kaum Leistungszuwachs bei Einsteigermodellen und zunehmend höhere Preise. Dann kam wohl Asus auf die Idee einfach mal die Preise für Hardware anzuheben. Und alle folgten. Und dann erst kam mit Corona der Lieferengpass, der Mining Boom, die höheren Fertigungskosten und letztlich die deutlich höhere, weltweite Nachfrage. Immer mehr Menschen haben mehr Geld und Zeit für Gaming.

Ich erwarte von den Herstellern höhere UVPs, so dass die Händler weniger aufschlagen können. Und der Einstiegsmarkt wird dem Gebrauchthandel überlassen.


https://img-9gag-fun.9cache.com/photo/a417Gbv_700bwp.webp

Bald braucht es im HTPC auch Highend. Es ist noch nicht abzusehen wie sich die neue Klassifizierung bei Grafikkarten in Zukunft durchsetzt.
Deswegen sage ich ja auch, dass wir die 500 Euro nicht mehr sehen werden.
Aber ohne Mining wird es keine 4070 für 1000 Euro geben.
Die hohen Preise existieren nur, weil zum einen die Miner einen großen Teil der Produktion absaugen und weil zum anderen die "normalen" User häufig mit Mining die Karte refinanzieren.
1300 Euro für ne 3070? Wenn ich 700 Euro durchs Mining reinbekomme kein Problem.

Im Sommer stürzte Ethereum kurzzeitig massiv ab - und schon waren die 3070 für 700-750 Euro zu bekommen.
Danach ging Ethereum aber wieder hoch - und prompt stiegen auch die Preise der GraKas wieder.

Solange man mit GraKas hunderte und tausende von Euro Gewinn machen kann, solange sind auch die Preise auf diesem Niveau.
Zwangsläufig, da die Produktion eben beschränkt ist.
Sowie das Mining aber wegfällt, normalisieren sich auch die Preise.
Zwar nicht auf das Niveau davor (vor 7 Jahren hatte die xx70 ja sogar noch "nur" 330 Euro gekostet...), aber halt bei 700 oder so und nicht bei 1000+.
Immer noch viel natürlich.

Ist Mining weg, ist das Problem weitgehend weg.

ChaosTM
2022-01-07, 17:08:59
Dem muss ich zustimmen. Ein relativ großer Prozentsatz der Karten gingen direkt an die größeren Mining Firmen und sind somit nie im regulären Handel aufgetaucht.
Auf den Rest haben sich dann die Scalper gestürzt oder die Geschäfte haben sich selbst als solche verdingt.

latiose88
2022-01-07, 20:05:51
Ach ist nur ne Frage bis der Wachstum nicht mehr geht.Wenn alle Gebäude voll mit GPU sind und es kein Lager Raum mehr gibt wo man GPUS Mining kann,dann wird es auch da Stagnieren.
Es sei denn es lohnt sich Firmen Geld zu geben,damit man auf der jeweiligen Firma Mining betreiben darf.Weis nicht welche Firma das sich bezahlen lässt.Wäre gewiss interessant ab wann man keinen Platz mehr für Mining Farmen mehr bekommen wird.

iamthebear
2022-01-08, 17:22:52
Liegt nicht an der Wörterbuch- und Archivgröße, sondern an der Beschaffenheit der zu komprimierenden Daten. Die meisten Leute dürften nicht ausgerechnet ständig Binaries o.ä. packen. Von daher fragwürdig, weshalb du ausgerechnet CB komprimiert hast...

Cinebench habe ich deshalb als Beispiel genommen weil das jeder wenn er es mir nicht glaubt selbst nachbenchen kann. Abgesehen davon war es der erste Ordner, den ich gefunden habe, der ca. von der Größe gepasst hat.

Was die Wörterbuchgröße angeht: Doch das habe ich extra ausgetestet.
Als Beispiel dient mein antiker Age of Empires Ordner (der 1er Teil aus 1997). In Summe ist der 230MB und lässt sich auf 165MB komprimieren.

Mit 7zip Ultra habe ich zu Beginn 15% CPU Auslastung (also ca. 2-3 Threads)
Mit 7zip Ultra + Wörterbuchgröße von 64MB auf 32MB runter gestellt sind es dann 30% (also ca. 5 Threads).
Mein Age of Empires 2 Ordner, der ca. 2.5x so groß ist und eine ähnliche Kompressionsrate hat nutzt er auch 2.5x so viele Threads.
Wobei die Auslastung gegen Ende hin sinkt wenn ein Thread früher fertig ist als der Rest.

Eine genaue Erklärung warum das so läuft kann ich nicht liefern aber ich komme auf folgende Faustregel:
Max Threadanzahl = Unkompr. Daten / (2*Wörterbuchgröße)

Wenn man zip Archive erstellt werden alle Dateien parallel abgearbeitet. Gibt es nur 1 Datei wird nur 1 Thread genutzt. Bei vielen kleinen Dateien nutzt er auch 16 Threads.

Also wenn man das auf einen 12900K mit 24 Threads umlegt braucht dieser bei Ultra - 64MB Archive um die 3GB Größe um seine 24 Threads zumindest am Anfang nutzen zu können. Ein 5950X bräuchte um die 4GB Daten damit er seine 32 Threads zumindest am Anfang nutzen kann.

Was dabei am Schluss an Performance raus kommt ist wieder ein eigenes Thema, da 7zip (genauso wie WinRAR etc.) sehr RAM lastig ist, da ständig auf das Wörterbuch zugegriffen werden muss.

Ach ist nur ne Frage bis der Wachstum nicht mehr geht.Wenn alle Gebäude voll mit GPU sind und es kein Lager Raum mehr gibt wo man GPUS Mining kann,dann wird es auch da Stagnieren.

Es sei denn es lohnt sich Firmen Geld zu geben,damit man auf der jeweiligen Firma Mining betreiben darf.Weis nicht welche Firma das sich bezahlen lässt.Wäre gewiss interessant ab wann man keinen Platz mehr für Mining Farmen mehr bekommen wird.

Dann wird einfach eine neue Miningfarm gebaut. Das ist das Geringste Problem. Da wird eher zuerst das nationale Stromnetz ein Problem aber so Miningfarmen stellt man sowieso in Ländern auf wo Energie billig ist.
Betreiber von großen Miningfarmen sind nicht irgendwelche 1 Mann Bunker unter dem Werkzeugschuppen. Das sind Milliardenunternehmen mit Unmengen an Geld von Investoren.

Das, was eine natürliche Grenze setzt ist das Verhältnis aus Kurs und Global Hashrate. Die Menge an täglich ausgeschütteten Coins bleibt immer gleich. Im Fall von Ethereum ist das ca. 13K Ether am Tag, die sich alle Miner teilen müssen. Beim aktuellen Kurs von ca. 3000$/Ether sind das um die 40 Millionen $.
Werden nun mehr und mehr Karten zum Mining eingesetzt so wird irgendwann ein Punkt erreicht, wo der Ertrag pro Karte so gering ist, dass es sich nicht mehr lohnt. Soweit zumindest die Theorie. Das Problem ist nur, dass der Kurs mittlerweile so hoch ist, dass in ebsehbarer Zeit gar nicht mehr so viele Karten produziert werden können, dass es sich nicht mehr lohnt neue Karten zu kaufen. Damals bei 500-1000$/Ether war das noch die Hoffnung, dass der Ganze Spuk in 1 Jahr vorbei ist. Bei 3000$/Ether ist das unrealistisch. Selbst wenn die Erträge mit der Zeit sinken wird es noch 3 Jahre dauern bis es unrentabel wird und bis dahin gibt es schon die nächste GPU Generation am Markt und wenn diese mehr Speicherbandbreite hat beginnt das Spiel wieder von vorne. Abgesehen davon wird es irgendwann auch Defekte geben. Selbst wenn die Karten etwas niedriger getaktet sind und wenig Lastwechsel haben laufen sie immer noch 24/7 und die meisten Karten sind nur für 5 Jahre Gaming ausgelegt.

steve.it
2022-01-09, 13:37:25
Ich bin beim Thema Hardware raus. Sehe ich das richtig, dass Intel bei Alder Lake-S überhaupt kein ECC-Ram mehr unterstützt? :eek:

Bisher konnte man bestimmte CPU-Modelle mit ECC-Ram nutzen, wie z.B. ein Pentium oder einen kleinen i3. Für einen Server ist das wesentlich besser.
Gibt es denn zu den kommenden Xeons schon Infos und wo es da preislich los geht?

iamthebear
2022-01-09, 16:52:51
Ich glaube der letzte nicht Xeon mit ECC Support war der 9100 vor 3 Generationen. Wenn es ein Modell gibt, dann ist das eine Ausnahme. Die apolicy von Intel lautet: ECC gibt es nur im Serverbereich (Xeon).
Wann es die ersten Sapphire Rapids (Alder Lake basierte Xeons) geben wird kann denke ich noch keiner fix sagen aber ich würde einmal mit min 1 Jahr rechnen. Preislich ist da noch nicht viel festgelegt.

Ich denke da bist du mit AMD besser bedient wobei ich bei einem Heimserver ECC jetzt nicht mehr wirklich als K.O. Kriterium ansehen würde. Die Zuverlässigkeit von RAM hat sich in den letzten 10-15 Jahren deutlich verbessert.

w0mbat
2022-01-10, 11:57:07
Der i5-12400F ist 100€ günstiger als ein 5600X und in Kürze wird es B600 Mobos für um die 100€ geben. Eigentlich müsste AMD reagieren, aber sie verkaufen wohl weiterhin alles was sie produzieren.

Echt eine blöde Situation als Verbraucher.

dildo4u
2022-01-10, 12:00:35
Warum ist kein Nachteil mher Intel zu kaufen wenn du später mher brauchst gibt es sinvolle Optionen als Upgrade im Gegensatz zu Gen11.
Wenn mher Leute Intel kaufen verliert AMD Marktanteile und irgendwann kommt der Preis dann runter.

latiose88
2022-01-10, 12:19:20
Ja so sehe ich das auch. Habe noch nen i7 6950x mit sockel 2011-3. Das System wird so lange betrieben bis es defekt ist. Nehme mal an das mainbaord wird vor der cpu defekt gehen. Irgendwas am Controller des mainbaords scheint nicht ganz zu stimmen. Habe nun zwar Windows aktiviert, aber noch immer kleine Ruckler bei Games. Man nennt es Micro ruckeler. Habe ausreichend fps, alte Spiele und dennoch stimmt da was nicht. Manchmal kommen ruckler einfach so. Manchmal reagiert es nicht direkt. Langsames verschieben ins netzlaufwerk trotz das nas schnell genug ist. Habe nur mit dem einen System langsamere Rate als mit anderen PCs. Festplatte auf defekt kontrolliert. Nix ist zu sehen. Festplatte Scheint in Ordnung zu sein.

Sollte das defekt gehen wird nur ein mainbaord und ne CPU benötigt. Quadchannel wird wohl aktuelle Intel und AMD System mitmachen. Wenn nun also das mainbaord hops gehen würde, was würdet ihr mir empfehlen. Geplant ist 1 x Videoumwandeln mit zocken gleichzeitig. Bei 1 Software und nicht zwei waren die Intel System schneller gewesen als mit AMD. Was ist denn der Preis leistungs Sieger? Schwanke zwischen 12600k und 12700k. Die e Kerne 4 Stück und 8 p Kerne könnte ich optimal voll auslasten. Zocken würde ich wohl dann mit den e cores. Also nen downgrade mache ich ja nicht weil sind ja besser als ein 6950x. Darf nicht zu viel Strom fressen.
Also was meint ihr wenn da was defekt gehen würde, was würdet ihr dann nehmen?

Weil ewig hält ja ne PC Hardware eben nicht. Will halt nicht zu viel Geld investieren weil sonst alles so teuer. Wenn ich also zu Intel greife dann eher zum b660 oder was halt so günstig ist. Könnte auch noch niedriges mainbaord nehmen aber dann geht halt kein undervolting mehr.

w0mbat
2022-01-10, 12:35:40
Warum ist kein Nachteil mher Intel zu kaufen wenn du später mher brauchst gibt es sinvolle Optionen als Upgrade im Gegensatz zu Gen11.
Wenn mher Leute Intel kaufen verliert AMD Marktanteile und irgendwann kommt der Preis dann runter.
Ich hab halt nen AM4 Mobo, da passt Zen3(D) drauf ohne ein neues Mobo zu kaufen.

Lowkey
2022-01-10, 12:57:57
Und je nach 300er Mainboard kann man dort auch eine Zen3 CPU verbauen. Still und heimlich gibt es hier und da und je nach Modell dann noch neue Aufrüstwege.

Matrix316
2022-01-10, 15:38:02
Ja so sehe ich das auch. Habe noch nen i7 6950x mit sockel 2011-3. Das System wird so lange betrieben bis es defekt ist. Nehme mal an das mainbaord wird vor der cpu defekt gehen. Irgendwas am Controller des mainbaords scheint nicht ganz zu stimmen. Habe nun zwar Windows aktiviert, aber noch immer kleine Ruckler bei Games. Man nennt es Micro ruckeler. Habe ausreichend fps, alte Spiele und dennoch stimmt da was nicht. Manchmal kommen ruckler einfach so. Manchmal reagiert es nicht direkt. Langsames verschieben ins netzlaufwerk trotz das nas schnell genug ist. Habe nur mit dem einen System langsamere Rate als mit anderen PCs. Festplatte auf defekt kontrolliert. Nix ist zu sehen. Festplatte Scheint in Ordnung zu sein.

Sollte das defekt gehen wird nur ein mainbaord und ne CPU benötigt. Quadchannel wird wohl aktuelle Intel und AMD System mitmachen. Wenn nun also das mainbaord hops gehen würde, was würdet ihr mir empfehlen. Geplant ist 1 x Videoumwandeln mit zocken gleichzeitig. Bei 1 Software und nicht zwei waren die Intel System schneller gewesen als mit AMD. Was ist denn der Preis leistungs Sieger? Schwanke zwischen 12600k und 12700k. Die e Kerne 4 Stück und 8 p Kerne könnte ich optimal voll auslasten. Zocken würde ich wohl dann mit den e cores. Also nen downgrade mache ich ja nicht weil sind ja besser als ein 6950x. Darf nicht zu viel Strom fressen.
Also was meint ihr wenn da was defekt gehen würde, was würdet ihr dann nehmen?

Weil ewig hält ja ne PC Hardware eben nicht. Will halt nicht zu viel Geld investieren weil sonst alles so teuer. Wenn ich also zu Intel greife dann eher zum b660 oder was halt so günstig ist. Könnte auch noch niedriges mainbaord nehmen aber dann geht halt kein undervolting mehr.

Bei Games verbraucht der 12700K sogar weniger als ein 12600K, zumindest laut dem Review hier: https://www.igorslab.de/intel-core-i5-12400-review-effiente-gaming-cpu-fuer-die-breite-masse-teil-1/9/

Das lohnt sich IMO nicht nur mit E-Cores zu spielen. Es sind bei beiden maximal 4 Stück und das könnte für viele Spiele schon zu wenig sein. Beim 12900K schon eher aber man kauft ja eigentlich nicht einen so schnellen Prozessor um ihn nur aus Stromspargründen künstlich auszubremsen. ;)

latiose88
2022-01-10, 16:18:09
Ja mir schon klar, wer nur teilweise neue games zockt, der kann das schon so machen. Ist bei mir nicht sicher, denn auch ein aktuelles games wie the ascent lief wie ich den 6950x auf nur 4 Kerne begrenzt hatte auch super flüssig da drauf. Bis ich den dann wieder mal als erst PC verwende, dann habe ich wieder alle Kerne freigeschaltet. Also man kann prima zocken so ist es nicht. Und schlechter sind die e cores ja eben nicht. Wird wohl interessant werden. Ich hoffe das Mainboard hält noch ne gewisse Zeit durch. Weil bis dahin steht ja schon die nachfolge CPU von Intel in den starlöchern. Zu was ich mich entscheiden werde am Ende. Sparsam, gute Leistung und vorallem auch beim Preis nicht zu hoch. Das wird meine Zielsetzung in Zukunft sein. Nur ab wann das mainbaord den Geist aufgeben wird, das kann noch keiner sagen. Wenn es dieses Jahr sein wird, dann stehe ich vor der Qual der Wahl und nächstes Jahr, nun ist ne gute Frage. Suche also ein gutes gesammt Packet. Was davon wird es mir bieten. Ich zocke nicht nur drauf, sondern benutze auch Anwendung. Videoumwandeln, ist wohl meine anspruchsvollsten Anwendung. Dann kommt schon sowas wie 7zip,winrar, videoschneiden. Hätte somit dann ddr4 4x4 GB 2400 mhz zur Verfügung im Falle eines defekts. Genau darum frage ich ja nach, welche guten Optionen ich denn zur Auswahl hätte. Ich bin mir da nicht ganz sicher, welche die beste ist. Ich weiß ja das videoumwandeln maximal 8 Kerne benutzt. Sofern man also nur 1 Anwendung gleichzeitig verwendet. Und ich weiß das egal welche ob 12700k oder 12900k beide da schneller als AMD CPU sind. Bei 2 anwendung gleichzeitig dieser Sache, ist amd schneller. Ich bin ja schon mit nur 1 dieser Anwendung gleichzeitig zufrieden.

aufkrawall
2022-01-10, 16:22:07
Ich hab halt nen AM4 Mobo, da passt Zen3(D) drauf ohne ein neues Mobo zu kaufen.
Dein B450 dürfte wohl nicht sonderlich teuer gewesen sein, da wird sich der finanzielle Verlust durch den Kauf eines neuen Mittelklasse-Boards sehr in Grenzen halten. Wobei B660 B450 auch haushoch überlegen ist. Und wir reden hier über völlige Kleckerbeträge vs. Grafikkarten.
Es hat sich schon bei RKL gelohnt, den alten Kram einfach zu verramschen. Wobei bei ebay das Wort eigentlich unangebracht ist für die Kohle, die einem Bieter dort freiwillig hinterher werfen. Wer jetzt noch einen Zen 1/+ hat und sich ständig die neusten Games kauft (@dildo), braucht eigentlich einen Vormund. :freak: (Nicht ganz ernst gemeint...)

Edit: Man darf den RAM natürlich auch nicht unterschätzen. Wenn man den alten Gammel übernimmt, der schon Vierkerner aus 2015 ausgebremst hat, (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12829015#post12829015) sollte man da auch mal etwa den B-Die Finder anwerfen.

Hakim
2022-01-10, 16:29:29
CPU OC soll ja bei den B660 nicht gehen, geht zumindest Spielereien an der Spannung?

aufkrawall
2022-01-10, 17:01:02
Gehe ich stark von aus. Eine Übersicht für maximale Allcore-Taktraten der jeweiligen Modelle wär schon nett.

Ex3cut3r
2022-01-10, 18:33:59
Zen 3D Cache mit B450 fühlt sich irgendwie falsch an. PCIe 4.0 fehlt ja auch. :biggrin:

Bin ja auch gespannt ob das überhaupt offiziell supported wird. Oder aber man lässt wieder die 400er Reihe ausfallen.

w0mbat
2022-01-10, 23:09:23
Zen3D läuft offiziell auf B450.

Ex3cut3r
2022-01-10, 23:53:34
Quelle?

Zen 3 lief ja schon nicht mehr auf X370/B350.

Denniss
2022-01-11, 00:58:54
das ist ja nix anderes als Zen3 mit nem bisserl mehr L3-cache, ist ja kein Hexenwerk den auf B450 zu bekommen. Die meisten B450/X470 mit Zen3-support sollten auch schon ein Bios für die Rev B2 bekommen haben.