PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : More cores vs. more cache, what boosts gaming FPS?


WedgeAntilles
2021-08-20, 10:30:05
Hardware Unboxed hat ein (IMO) sehr interessantes Video zu diesem Thema gemacht:

https://www.youtube.com/watch?v=RQ6k-cQ94Rc

Erstaunlich: Ich erinnere mich, dass bei CP immer gesagt wurde, wie wichtig die 8 Kerne seien.
Nach diesem Video stimmt das nicht, der Performanceboost bei den 8-Kerne CPUs stammt fast ausschließlich vom Cache.
Ein 6-Kerner mit identischem Cache ist quasi exakt gleich schnell.

Leider ist Battlefield nicht in dem Test drin, da heißt es ja auch, dass mehr Kerne einiges bringen.

"Mehr Kerne" scheint fürs Gaming also nicht so unglaublich wichtig zu sein. Cache > Cores?
Ein gutes Zeichen für den V-Cache von AMD?
Ein gutes Zeichen für Alderlake, die "nur" 8 große Cores haben?


Edit: Ich gebe hier ausschließlich das weiter, was Hardware Unboxed im Video brachte - ob das Video mechanische Fehler hat, die Testmethode falsch ist oder sonstwas kann ich nicht einschätzen. Da fehlt mir völlig das Fachwissen.
Auf mich als Laien wirkt es stimmig und schlüssig und es ist ja auch kein unbekannter Youtube-Kanal. Daher halte ich die Glaubwürdigkeit für hoch.

rentex
2021-08-20, 10:41:30
https://www.techspot.com/article/2308-cpu-cores-and-cache/

Ebenfalls interessant.

BlacKi
2021-08-20, 10:46:05
deshalb hatte es rocketlake auch so schwer gegen cometlake. das war aber auch schon vorher klar.

mich stört am video, das vermutlich wieder nicht alles im cpu limit lag und die spieleauswahl begrenzt war.

12threads sind halt auch einfach noch genug threads, um nicht zu ruckeln. im schlimmsten fall büßt man performance ein, aber die ist immernoch sehr hoch wenn viel mhz und cache vorhanden.

adl wird schon alleine wegen der 30mb l3 cache schon gut ipc drauflegen.

Badesalz
2021-08-20, 11:26:19
Sind das bei der Softwarebasis denn die richtigen CPUs gewesen um diese These zu begründen?

Das Spielchen konnte man mit v3 oder v4 Xeons machen. Auf einem Board wo man sie bisschen hin und her takten kann (angleichen)

Lehdro
2021-08-20, 14:24:40
Erstaunlich: Ich erinnere mich, dass bei CP immer gesagt wurde, wie wichtig die 8 Kerne seien.
Nach diesem Video stimmt das nicht, der Performanceboost bei den 8-Kerne CPUs stammt fast ausschließlich vom Cache.
Ein 6-Kerner mit identischem Cache ist quasi exakt gleich schnell.

CP2077 bei PCGH (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Cyberpunk-2077-Benchmarks-GPU-CPU-Raytracing-1363331/)

5800X ist fast 20% schneller als 5600X, 5900X legt noch einmal 10% drauf.
Cyberpunk 2077 zieht die Anforderung an den Prozessor um mehrere Stufen nach oben. Reichen in anderen Titeln meist noch Vierkerner mit SMT aus, werden in CD Projekts neuestem Titel sogar Hexacores gnadenlos von 8-, 10- und 12-Kernern abgehängt. Wer mit Raytracing spielen möchte, sieht sich mit noch höheren Leistungskosten konfrontiert - richtig gelesen, Raytracing kostet auch CPU-Leistung -, alles unterhalb eines 10900K generiert mehr oder minder starke Ruckler. Wir können auf Basis der vorliegenden Ergebnisse nur sehr starke CPUs ab einem Core i9-9900K oder Ryzen 9 3900XT empfehlen. Viele Kerne sind Trumpf, die Kernskalierung ist außerordentlich gut in Cyberpunk.
So richtig CPU lastig wird es halt nur mit RT.

Daredevil
2021-08-20, 14:36:57
Ich würde es gar nicht nur mit "Cache" betiteln, allgemein ist schon lange bekannt, das "Speed per Core" an einer bestimmten Menge an Kernen keinen bis wenig Sinn macht.
Das Optimum ist aktuell 6 Kerne, damit deckt man sicherlich 90% der Spiele ab.
Für die restlichen 9% hat man dann 8 Kerne, der letzte Prozent geht an 12/16 Core CPUs.
Diese Rechnung geht aber nur bis zur nächsten Generation auf.
Kommt ein Prozessor mit 20% mehr "Speed per Core", schlägt ein neuer 6 Kerner alle anderen Prozessoren.

Deswegen bin ich schon lange der Meinung, das man für "jetzt" kaufen sollte und nicht für "die Zukunft", denn mit dem Tempo, was AMD gerade hat, geht die "Zukungssichere" Investition nicht auf.
Du hättest dir jeden der teuersten Threadripper in der größten Ausführung holen können, ein 5600x haut alle in die Pfanne für einen winzigen Preis im Vergleich.

Schnoesel
2021-08-20, 15:33:26
Das kommende BF2042 wird sicherlich auch kein Kernverächter. Das war BFV schon nicht und wir verdoppeln eben mal die Anzahl der Spieler.

Am besten ist natürlich alles zusammen: IPC, Takt, Cache, Kerne. CPUs mit wenigen Kernen können zwar avg. noch gut mithalten aber spätestens bei den Framtimes liegen sie gegenbüber CPUs mit mehr Kernen zurück.

Daredevil
2021-08-20, 17:42:22
Am besten ist natürlich alles zusammen: IPC, Takt, Cache, Kerne. CPUs mit wenigen Kernen können zwar avg. noch gut mithalten aber spätestens bei den Framtimes liegen sie gegenbüber CPUs mit mehr Kernen zurück.
Das Gefühl habe und hatte ich auch bislang immer, die Fakten sprechen oft aber eine andere Sprache: BF V
https://abload.de/img/screenshot2021-08-201w1kxr.png

Wenn ein 8 Kerner schon bei den avg FPS nicht seine Stärke zeigt, wieso sollten dann die Min FPS bedeutend besser sein?

Unterschied zwischen 2600X und 2700X bei den avg sind 2%
Unterschied zwischen 2600X und 2700X bei den min sind 9%
Mehr Kerne, mehr Fun!

Unterschied zwischen 7700k und 8700k bei den avg sind 9%
Unterschied zwischen 7700k und 8700k bei den avg sind 15%
Mehr Kerne, mehr Fun!

Am Ende hat der 8700k aber 13% mehr avg und 15% mehr Min als der 2700k, die zwei Kerne verpuffen komplett.

Aber ja, am besten beides. :)

Platos
2021-08-20, 19:10:14
Da hast du jetzt aber alte Schinken ausgegraben mit nem 2700X :freak:

Daredevil
2021-08-20, 19:36:13
Wird mit neueren Prozessoren nicht anders aussehen, vielleicht sogar noch ein wenig mehr "Pro IPC", weil es mit wenig Kernen schon reicht für xyz FPS.

y33H@
2021-08-21, 00:32:58
Bezüglich Caches vs Cores ist der 5775C immer noch krass:

https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html

Badesalz
2021-08-21, 08:02:32
Ich würde es gar nicht nur mit "Cache" betiteln, allgemein ist schon lange bekannt, das "Speed per Core" an einer bestimmten Menge an Kernen keinen bis wenig Sinn macht.
Das Optimum ist aktuell 6 Kerne, damit deckt man sicherlich 90% der Spiele ab.
Für die restlichen 9% hat man dann 8 Kerne, der letzte Prozent geht an 12/16 Core CPUs.Das ist irgendwie nicht das was Lehrdo direkt über dir gequotet hat? Was bringt der Screenshot bei dem Zoo an Architekturen? Da passen nur der 2600 und der 2700 zusammen.

@y33H@
Es ist weiterhin meine Lieblings-CPU =)

@all
Das ist manchmal schon recht spannend mit den Flaschenhälsen. Ich weiß nicht mehr ob es da um Power9 oder Power10 ging, aber diesjahr noch irgendwo dazu gelesen, IBM hat zum Vorgänger da die single thread Leistung pro Takt um 20% verbessert, und die multi thread um 30%. Fand ich irgendwie seltsam :)

Was die Breite angeht hab ich das glaub ich schon mal gepostet hier (?) Lasst es mittlerweile als "alt" gelten ;) aber es hat leider nicht wirklich viel an Aktualität verloren. Beim Lesen bekommt man auch raus, wer das ist der es geschrieben hat...
2021 sind wir maximal 1 Stufe weiter. Und das auch nur bei wenigen speziellen Anwendungen: Den dickeren game engines und 2x-handvoll Anwendungen was "@home" angeht.
https://spectrum.ieee.org/the-trouble-with-multicore

Daredevil
2021-08-21, 08:37:04
Das ist irgendwie nicht das was Lehrdo direkt über dir gequotet hat?


Doch, ich habe ja nicht geschrieben 100 Prozent, sondern 90 Prozent.
Neue Games machen zwar einiges besser, dem Großteil ist das aber egal.

Es wäre falsch, eine 3070 mit einem 5950x zu koppeln, die Kombination aus 3080ti und 5600x würde überwiegend mehr FPS auf den Bildschirm schubsen.
Für einen winzigen Teil der Spiele wäre dann erst der 5800x bemerkbar, für einen verschwindend geringen Teil der 5950x.

Will jemand einen cyberpunk pc bauen und mit rt spielen, braucht er halt nen 5900x+ + 3080+.

Badesalz
2021-08-21, 09:10:12
Kann sich noch wer dran erinnern ;) wie der 3300x in 8t vs. 12t dem 3600x einheizte?
Preislich war das halt kein ausgesprochen attraktives Angebot, aber man musste imho schon genauer die Frametimes betrachten um <= 1440 klarere Vorteile für den 3600x auszuarbeiten.
Oder hab ich das falsch in Erinnerung?

Wie gesagt aber, würde so ein Test am besten mit v3 oder v4 Xeons funktionieren. Imho. Da gab es passende Abstuffungen und wenn man mit dem passenden Board an den Takten nur minimal normierend spielen könnte, hätte man nahezu einen direkten Vergleich für seine Thesen.

dargo
2021-08-21, 09:45:50
Man nehme einen 5600X, 5800X, 5600G und 5700G, schon hat man einen prima Vergleich. ;) Die "G´s" haben halbierten L3. Die Frequenzen kann man spielend im Bios antackern.

Badesalz
2021-08-21, 09:51:13
ODER DAS. Richtig gut :up:

Irgendwie war auch das denen zu kompliziert.

dargo
2021-08-21, 10:02:41
Da braucht man auch kein HU dafür. ;)

sSfJ2xHAWv0

Dass der 5600X trotz 12 Threads noch vor dem 5700G mit 16 Threads landet ist beim aktuellen Multithreading der verfügbaren Games welches noch zu wünschen übrig lässt auch wenig überraschend.

PS: die 50-100Mhz Taktdifferenz im Video sind da schon eher wayne.
PPS: auch reagieren Spiele unterschiedlich auf den Cache. In LoL ist das Ergebnis schon recht strange. 5600X 62% schneller als 5700G.

ianm
2021-08-21, 11:02:02
Es wäre falsch, eine 3070 mit einem 5950x zu koppeln, die Kombination aus 3080ti und 5600x würde überwiegend mehr FPS auf den Bildschirm schubsen.
Für einen winzigen Teil der Spiele wäre dann erst der 5800x bemerkbar, für einen verschwindend geringen Teil der 5950x.

Will jemand einen cyberpunk pc bauen und mit rt spielen, braucht er halt nen 5900x+ + 3080+.
Ich mag dem allgemeinen Tenor gar nicht widersprechen, der Trend geht eindeutig zu mehr Cache, im CPU wie im GPU Bereich. Aus gutem Grund.

Den letzten Satz kann ich aber so nicht unterschreiben. Habe gerade Cyberpunk durch gespielt, mit einer 3070 @ 160W und einem 3600 @ 1,2V / 4300 MHz. Bis auf Raytracing Schatten (aus) lief das mit meist Ultra Einstellungen bei 60+ fps. Das war eher die untere Kante.

Klar, wenn man alles bis zum Anschlag zieht findet man immer ein Bottleneck. Aber ernsthaft, in 1440p macht die CPU heute noch nicht den großen Ausschlag. Der 5600X ist nicht ohne Grund die am meisten empfohlene CPU. Interessant wird Zen3+ und aufwärts mit ordentlich Cache und Intel ab 2023.

edit: Hardware Unboxed hat, wie jeder andere gute Reviewer, schon in den 5600g/5700g Release Videos darauf hingewiesen wie wichtig mehr Cache ist. Das neueste Video oben zeigt nur wie Intel die letzten Jahre das untere Segment durch weniger Cache künstlich aus bremst. Das hast du bei AMD nicht, darum ist der 5600X auch so beliebt.

r3ptil3
2021-08-21, 13:20:21
Bezüglich Caches vs Cores ist der 5775C immer noch krass:

https://www.golem.de/news/core-i7-i9-generationen-im-test-was-intel-aus-14-nm-herausgeholt-hat-2104-155714.html

Seit wann bringt ein 11900k eine dermassen höhere Gamingperformance gegenüber dem 10900k? :confused:

y33H@
2021-08-21, 17:52:30
Schon immer? Hängt stark vom Spiel ab, gibt aber genug Tests mit ähnlichen Resultaten.

Ex3cut3r
2021-08-21, 18:01:26
Die 11er Gen hat doch nochmal einen kräfigen IPC Boost erhalten im Vergleich zur 10er Gen. Von daher doch verständlich.

Ein 11400F ist halt momentan unschlagbar, wenn man hauptsächlich zocken will. AMD weigert sich vehement den 5600X irgendwie auch nur in die nähe von unter 200€ zu bringen. Selbst schuld und gut für Intel. Aber richtig richtig dumm von AMD. Das die so penetrant an ihren Bonzen Preise festhalten, schockiert mich schon ein wenig.

Lehdro
2021-08-21, 18:49:46
Die 11er Gen hat doch nochmal einen kräfigen IPC Boost erhalten im Vergleich zur 10er Gen. Von daher doch verständlich.

Ein 11400F ist halt momentan unschlagbar, wenn man hauptsächlich zocken will. AMD weigert sich vehement den 5600X irgendwie auch nur in die nähe von unter 200€ zu bringen. Selbst schuld und gut für Intel. Aber richtig richtig dumm von AMD. Das die so penetrant an ihren Bonzen Preise festhalten, schockiert mich schon ein wenig.
Solange es verkauft wird, macht AMD alles richtig. Es ist eine wirtschaftende Firma, kein Wunschkonzert.

Ex3cut3r
2021-08-21, 19:17:09
Ich glaube nicht, dass sich der 5600X besser verkauft als der 11400f. Und wenn, dann gibt es mehr AMD Fanboys als gedacht.

260€ für nen 6 Kerner Only ist 2021 einfach, ich weiß ja nicht Madness? Dann nochmal 80€ drauflegen und gleich den 5800X holen.

dargo
2021-08-21, 19:59:19
Ich glaube nicht, dass sich der 5600X besser verkauft als der 11400f.
Bei MF definitiv. :tongue:
https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1200.html/11/18/pid/awin?utm_source=zanox&utm_medium=affiliate&utm_campaign=cpo&awc=12252_1629568775_141fbb62a6541b4c77ca282a5a25a06a
https://www.mindfactory.de/product_info.php/AMD-Ryzen-5-5600X-6x-3-70GHz-So-AM4-BOX_1380726.html

MiamiNice
2021-08-21, 20:05:56
Nein, keinen 5600x für 80 mehr. Einen 11700 für 40-60€ mehr - da kann man verdammt schnelle Rams reinschrauben und das Gerät rennt fast allem weg.

y33H@
2021-08-21, 20:15:15
Der RAM Aufpreis ist das Speed-up nicht wert, oder?

MiamiNice
2021-08-21, 20:41:30
Ich würde sagen, kommt drauf an. Ich stand vor kurzem vor der Entscheidung für den 2. PC und habe mich für den 11700 mit OC Ram entschieden. Die Kiste rennt im open PVP in SOLO (single Core limitiert da hunderte Player) mit ü 20 Fps während mein OC 9900k mit teils unter 10 Fps läuft. Kommt mit Sicherheit nicht alles aus dem Ram - aber Mates mit Ryzen 5000 haben durchaus weniger FPS als ich. Also wohl richtig entschieden. Hab für die ganze Kiste außer der 3060TI irgendwas um 700€ gezahlt - kam vom Lachen kaum in den Schlaf.

maximus_hertus
2021-08-21, 21:40:37
Ich glaube nicht, dass sich der 5600X besser verkauft als der 11400f. Und wenn, dann gibt es mehr AMD Fanboys als gedacht.

260€ für nen 6 Kerner Only ist 2021 einfach, ich weiß ja nicht Madness? Dann nochmal 80€ drauflegen und gleich den 5800X holen.

Das Problem ist, dass AMD schlicht viel zu wenige CPUs herstellen kann. Die NAchfrage ist so gigantisch, dass AMD nur ein "Hochpreis"-Portfolio anbieten kann.

Ein 199 Euro 5600X würde folgendes verursachen:

- Shitstorm von USern wie dir, weil man im Lotto spielen muss, um eine CPU zu bekommen (viel viel viel viel größere NAchfrage als STückzahlen vorhanden).
- Mehr Frust bei denen, die keinen abbekommen haben.
- MAn kauft dann erst recht Intel
- AMD verdient weniger, ohne einen Vorteil zu haben. Man kann nichtmal MArktanteile gewinnen.

Das ist auch der springende Punkt. MAn geht nur dann auf "günstige" Preise, wenn man entweder ein schlechteres Produkt hat oder man MArktanteile gewinnen will. Der Ryzen 5000 ist das bessere Produkt und, der Grund ist jetzt erstmal egal, es gibt viel zu wenige CPUs.

Mindfactory, Amazon und Co. zeigen auch, dass AMD das sehr gut hinbekommt.

Bevor das jetzt falsch rüber kommt, ich würde auch gerne deutlich günstigere Ryzen Preise sehen wollen. Aber es ist, wie es ist.
Klar kann man AMD "anklagen" für zu hohe Preise, aber AMD ist (durch die AKtionäre) gezwungen, dass beste für die Firma raus zu holen.
Ergo, bei dieser NAchfrage => maximaler Preis.

Platos
2021-08-21, 21:50:31
Bei MF definitiv. :tongue:
https://www.mindfactory.de/Hardware/Prozessoren+(CPU)/INTEL+Desktop/Sockel+1200.html/11/18/pid/awin?utm_source=zanox&utm_medium=affiliate&utm_campaign=cpo&awc=12252_1629568775_141fbb62a6541b4c77ca282a5a25a06a
https://www.mindfactory.de/product_info.php/AMD-Ryzen-5-5600X-6x-3-70GHz-So-AM4-BOX_1380726.html

Deutschland ist hald nicht die ganze Welt. Leider hat Steam bei den CPUs keine genauen Modelle:frown:. Aber Steam wäre schon eine bessere Quelle, die immerhin mehr Nutzer abdeckt.

Ich habe hier mal so rein aus Neugierde die Anzahl CPU Kerne in einem Diagramm dargestellt laut Steam Hardware Survey. Vlt. interessierts ja jemanden. Graphisch siehts hald immer besser aus ;) Vom Aug. 2016-Jul. 2021. (Keine Ahnung, woher die 3-Kerner kommen sollen und Juni 2020 habe ich nirgends gefunden).

https://abload.de/img/steamhardwaresurveycprojr8.png

Ex3cut3r
2021-08-21, 23:38:28
Das Problem ist, dass AMD schlicht viel zu wenige CPUs herstellen kann. Die NAchfrage ist so gigantisch, dass AMD nur ein "Hochpreis"-Portfolio anbieten kann.

Ein 199 Euro 5600X würde folgendes verursachen:

- Shitstorm von USern wie dir, weil man im Lotto spielen muss, um eine CPU zu bekommen (viel viel viel viel größere NAchfrage als STückzahlen vorhanden).
- Mehr Frust bei denen, die keinen abbekommen haben.
- MAn kauft dann erst recht Intel
- AMD verdient weniger, ohne einen Vorteil zu haben. Man kann nichtmal MArktanteile gewinnen.


Die Punkte sind all deiner Fantasie entsprungen oder?

Zen 3 ist voll in den Regalen, niemand will noch diese Hochpreisigen Bonzen CPUs haben. Die jenigen die unbedingt einen haben wollen, haben längst einen. Und AMD senkt immer noch nix am Preis, noch abgehobener geht es nicht. Und das vom selbst ernannten Samariter dem Retter des PC Gaming. LOL alles nur Marketing Verarsche. Heuchler sind das, mehr nicht. Aber Intel ist ja die dunkle Seite, die haben wenigstens nen 130-160€ 6 Kerner mit HT im Angebot.

aufkrawall
2021-08-22, 00:26:09
Ein 11400F ist halt momentan unschlagbar, wenn man hauptsächlich zocken will.
War schon mal unschlagbarer, momentan gibts den erst ab 218€ lieferbar. Am Release-Tag konnte man den für 168€ kaufen. CB hatten im Review auf fallende Preise spekuliert. ;D

Badesalz
2021-08-22, 09:11:07
Ein 11400F ist [...]Was hat dieser Müll mit dem Topic zu tun?

Platos
2021-08-22, 11:22:23
Was hat dieser Müll mit dem Topic zu tun?

Was hat deine Ausdrucksweise mit einem vernünftigen Diskussionsstil zu tun?

r3ptil3
2021-08-22, 12:22:39
260€ für nen 6 Kerner Only ist 2021 einfach, ich weiß ja nicht Madness? Dann nochmal 80€ drauflegen und gleich den 5800X holen.

AMD 5600X: 299$
AMD 5800X: 449$
https://www.amd.com/de/direct-buy/5450881700/ch
https://www.amd.com/de/direct-buy/5450881600/ch

Marktpreis (Mindfactory):
5600X: 255 Euro
5800X: 379 Euro
https://www.mindfactory.de/search_result.php?search_query=5600x
https://www.mindfactory.de/search_result.php?search_query=5800x

Wer eine Plattform mehrere Generationen nutzen will, kauft sich jetzt ganz einfach keinen 11400f.

Die AM4-Plattform ist noch für eine weitere CPU-Generation ausgelegt (Ryzen 6000 3D V-Cache). Sockel 1200 ist durch und mit Alder-Lake ist wieder ein neues Mainboard notwendig. Da ändert auch der wirklich sehr gute 11400f nichts dran.

Falls jemand Ryzen 6000 als keine neue Generation anerkennt, mal folgendes bedenken: Bei Intel musste man vor einigen Jahren mehrere Generationen warten, um einen derart hohen IPC-Sprung hinlegen zu können.


Nebenbei: Warst du nicht derjenige der mit aller Kraft die Vorteile von RAM-OC mit den Ryzens allen klar machen wollte?
Ist das jetzt beim 5600X anders oder wie?

Tatsache ist mit Ryzen 5000 ist RAM-OC erst richtig interessant. Ich komme mit einem Mittelklasse-Board schon auf 4133Mhz (1:1).

Daredevil
2021-08-22, 12:36:50
260€ für nen 6 Kerner Only ist 2021 einfach, ich weiß ja nicht Madness? Dann nochmal 80€ drauflegen und gleich den 5800X holen.
Facts pls

80€ "mehr" sind 1/3 des 6 Kerners, der ein Jahr später den 8 Kerner in Spielen platt macht.

Platos
2021-08-22, 12:44:38
Facts pls

80€ "mehr" sind 1/3 des 6 Kerners, der ein Jahr später den 8 Kerner in Spielen platt macht.

Ändert nichts an der Preiserhöhung? Fortschritt bei PC Hardware ist normal. Für mehr Leistung mehr zu Zahlen ist also keine Rechfertigung bei PC Hardware. Aber wird langsam etwas OT hier.

Daredevil
2021-08-22, 12:54:34
Cache :D

https://abload.de/img/screenshot2021-08-221sujew.png
https://abload.de/img/screenshot2021-08-221rvka4.png
https://abload.de/img/screenshot2021-08-2212ak68.png

Badesalz
2021-08-22, 13:50:23
Was hat deine Ausdrucksweise mit einem vernünftigen Diskussionsstil zu tun?Wegen dem Anglizismus? Ich entschuldige mich (man könnte meinen wir sind in Frankreich...)

@Daredevil
Wir haben das im Forum schon an einer anderen Stelle diskutiert gehabt, warum das für ARM/Apple bei L1 so relativ einfach ist und beim x86 leider nicht. Aber ja, ist einer der großen Punkte warum M1 so gut geht.

Die 11er Gen hat doch nochmal einen kräfigen IPC Boost erhalten im Vergleich zur 10er Gen. Von daher doch verständlich.Das hat natürlich mit den fortlaufenden Kastrationen der vorherigen Generationen, die wegen Mitigations erfolgten, überhaupt nichts zu tun...

y33H@
2021-08-22, 14:12:52
RKL hat die auch drin ...

ianm
2021-08-22, 14:37:50
Follow up zur Diskussion:

VkfjICH1VqY

Platos
2021-08-22, 14:52:41
Wegen dem Anglizismus? Ich entschuldige mich (man könnte meinen wir sind in Frankreich...)

Genau, das war es bestimmt;)

iamthebear
2021-08-22, 19:05:04
Was man bei dem Test von HWU beachten sollte: Dieser wurde mit einer 6900 XT gemacht. AMD hat massiv weniger Driver Overhead als Nvida Karten.
Ich habe das einmal mit meinem 9900K und meiner 1070 Ti unter Horizon Zero Dawn getestet unter extrem niedriger Auslösung damit die GPU nicht limitiert.

Im Endeffekt war die CPU Auslastung laut Task Manager bei 95%. Davon sind jedoch nur 60% auf die .exe Datei des Spiels gefallen. Der Rest waren Kernelzeiten (anscheinend vom Nvidia Treiber).
Ich habe dann angefangen der .exe des Spiels weniger Kerne zuzuweisen und habe festgestellt, dass die Kernelzeiten immer in etwa 50% der CPU Auslastung des Spiels ausgemacht hat.
Dies bedeutet bei Nvidia, dass wenn ein Spiel 5 Threads auslastet, dass dann vom Treiber noch einmal fast 3 Threads dazu kommen, womit ein 8 Kerner schon Sinn macht.
Bei AMD hingegen wird vermutlich maximal 1 Thread durch den Treiber blockiert, wodurch ein 6 Kerner ausreicht.

Fazit: Das Video ist was die Frage 6 vs. 8 Kerne angeht nur für AMD GPU repräsentativ.
Alleine die Frage sollte auch auf Nvidia GPUs zutreffen.

Das Problem ist, dass AMD schlicht viel zu wenige CPUs herstellen kann. Die NAchfrage ist so gigantisch, dass AMD nur ein "Hochpreis"-Portfolio anbieten kann.

Ein 199 Euro 5600X würde folgendes verursachen:

- Shitstorm von USern wie dir, weil man im Lotto spielen muss, um eine CPU zu bekommen (viel viel viel viel größere NAchfrage als STückzahlen vorhanden).
- Mehr Frust bei denen, die keinen abbekommen haben.
- MAn kauft dann erst recht Intel
- AMD verdient weniger, ohne einen Vorteil zu haben. Man kann nichtmal MArktanteile gewinnen.

Ich denke es wird dann eher wie bei den GPUs enden:
199€ UVP und im Laden um 259€. Die Differenz stecken sich dann Handel und Distributoren ein.

Das ist auch der springende Punkt. MAn geht nur dann auf "günstige" Preise, wenn man entweder ein schlechteres Produkt hat oder man MArktanteile gewinnen will. Der Ryzen 5000 ist das bessere Produkt und, der Grund ist jetzt erstmal egal, es gibt viel zu wenige CPUs.[/quote]

Deutschland ist hald nicht die ganze Welt. Leider hat Steam bei den CPUs keine genauen Modelle:frown:. Aber Steam wäre schon eine bessere Quelle, die immerhin mehr Nutzer abdeckt.

Ich habe hier mal so rein aus Neugierde die Anzahl CPU Kerne in einem Diagramm dargestellt laut Steam Hardware Survey. Vlt. interessierts ja jemanden. Graphisch siehts hald immer besser aus ;) Vom Aug. 2016-Jul. 2021. (Keine Ahnung, woher die 3-Kerner kommen sollen und Juni 2020 habe ich nirgends gefunden).

https://abload.de/img/steamhardwaresurveycprojr8.png

Das hat weniger mit der Frage Deutschland vs. Rest der Welt zu tun, sondern dass hier nur die CPUs ausgewertet werden, die einzeln im Handel verkauft werden, was nur für Gamingrechner noch üblich ist. Ich würde einmal grob schätzen, dass 90% der Systeme als Komplettsysteme verkauft werden und hier ist AMD so gut wie überhaupt nicht vertreten.

Die Punkte sind all deiner Fantasie entsprungen oder?

Zen 3 ist voll in den Regalen, niemand will noch diese Hochpreisigen Bonzen CPUs haben. Die jenigen die unbedingt einen haben wollen, haben längst einen. Und AMD senkt immer noch nix am Preis, noch abgehobener geht es nicht. Und das vom selbst ernannten Samariter dem Retter des PC Gaming. LOL alles nur Marketing Verarsche. Heuchler sind das, mehr nicht. Aber Intel ist ja die dunkle Seite, die haben wenigstens nen 130-160€ 6 Kerner mit HT im Angebot.

AMD CPUs sind nur deshalb im Regal weil AMD derzeit so gut wie alle TSMC Wafer für CPUs und Konsolen verwendet, da sixh hier mehr Geld verdienen lässt.
Dass es keinen preiswerten 6 Kerner gibt liegt daran, dass das Chiplet Design von AMD auf 8 Kerner ausgelegt ist. Ein 8 Kern Chip hat schon nur 80mm². Es macht hier einfach keinen Sinn noch kleiner zu gehen.
Bei den 8 Kernern wird der Aufpreis dadurch gerechtfertigt, dass AMD auch 10-15% schneller ist zumindest solange bei Intel nicht das Powerlimit ausgehebelt wird.

Ab 12 Kernen aufwärts gibt es sowieso keine Diskussion mehr: Hier ist Intel ja nicht vertreten.

Und das Samariterimage hat AMD von den ganzen Fanboys, die AMD vergöttern nur weil sie der Underdog sind. AMD ist wie Intel ein gewinnorientiertes Unternehmen und deren Geschäftsführung ist seinen Aktionären verpflichtet, nicht den Kunden.

Badesalz
2021-08-22, 20:35:26
Dies bedeutet bei Nvidia, dass wenn ein Spiel 5 Threads auslastet, dass dann vom Treiber noch einmal fast 3 Threads dazu kommen, womit ein 8 Kerner schon Sinn macht.Hmm. Das sind dann aber 16 Threads. Was machen die 8 anderen dann?

aufkrawall
2021-08-22, 20:40:17
HZD verursacht ganz sicher nicht annähernd 100% Last auf 16 Threads mit Nvidia, sofern es nicht gerade Shader kompiliert oder validiert.

iamthebear
2021-08-22, 23:08:10
Hmm. Das sind dann aber 16 Threads. Was machen die 8 anderen dann?

SMT zaubert nicht durch wundersame Weise weitere Kerne hinzu. Es verbessert nur etwas die Performance wenn 2 Threads von einem Kern abgearbeitet werden.
Wenn man 8 Threads hat und 6 Kerne mit SMT, dann bedeutet dies, dass 2 Kerne je 2 Threads ausführen müssen, wodurch die Performance bei diesen Threads auf ca. 70% abfällt (ohne SMT wären es 50%). Im schnitt verliert man also gegenüber einem 8 Kerner schon um die 15-20% Leistung.

HZD verursacht ganz sicher nicht annähernd 100% Last auf 16 Threads mit Nvidia, sofern es nicht gerade Shader kompiliert oder validiert.

Doch zumindest laut Windows Task Manager tut es das. 60% (9-10 Kerne) vom Spiel selbst und 35% (5-6 Kerne) die Kernelzeiten. Es ist hierbei egal ob ich den integrierten Benchmark benutze oder einfach einen beliebigen Spielstand lade.
Ich muss jedoch zugeben, dass der Test etwas praxisfern war, da ich die Auflösung auf das Minimum (glaube 640x480) gestellt habe und noch dazu die Renderauflösung auf 50% gestellt habe. Normalerweise ist das Spiel fast ausschließlich GPU limitiert. Da fällt das nicht auf.

aufkrawall
2021-08-23, 00:17:26
Die Gesamtauslastung, die der Taskmanager anzeigt, ist Schrott:
https://linustechtips.com/topic/1225894-why-you-shouldnt-rely-on-task-manager-for-cpu-utilization/
https://forums.guru3d.com/threads/cpu-usage-discrepancy-80-in-ab-100-in-task-manager.417998/

Edit: Das kann man auch ganz einfach mit dem 7-Zip Benchmark überprüfen. Ist schon arg lächerlich von Microsoft.

Ich habe in HZD Spiel ~80% Gesamtauslastung auf 12T laut AB kurz vor Meridian in 720p 50% RS.

Edit 2: Um das mit dem Baseclock-Problem des Taskmanagers nochmal mit 6T im 7-Zip-Benchmark für die 12T CPU zu verdeutlichen:
Allcore 4,2: ~80% Gesamtauslastung laut Taskmanager
Takt limitiert auf Baseclock von 2,6GHz: 50% Auslastung

Völlig gaga, wie blöd die sind. :freak: ;D

Ex3cut3r
2021-08-23, 09:21:46
Das weiß doch jeder gut betuchte Gamer das der Task Manager schon seit Windows 7 nicht sehr genau ist. Bin mal gespannt wie das in Windows 11 aussieht.

DeadMeat
2021-08-23, 13:42:30
Bin mal gespannt wie das in Windows 11 aussieht.
Exakt genau so wie unter Windows 10, bisher (aktuelle Insider Version) hat sich nichts daran geändert.

Ex3cut3r
2021-08-23, 15:36:15
:(

Naja, für die Final habe ich trotzdem noch Hoffnung. Ist ja momentan nur ne Beta.

aufkrawall
2021-08-23, 15:40:04
Glaube nicht, dass da Hoffnung angebracht ist, wenn sie schon so lange an dieser strunzdummen Berechnungsformel festhalten.

Badesalz
2021-08-23, 17:18:35
SMT zaubert nicht durch wundersame Weise weitere Kerne hinzu. Es verbessert nur etwas die Performance wenn 2 Threads von einem Kern abgearbeitet werden.
Wenn man 8 Threads hat und 6 Kerne mit SMT, dann bedeutet dies, dass 2 Kerne je 2 Threads ausführen müssen, wodurch die Performance bei diesen Threads auf ca. 70% abfällt (ohne SMT wären es 50%). Im schnitt verliert man also gegenüber einem 8 Kerner schon um die 15-20% Leistung.
Mir fehlen bis heute die Docs dazu wie der WinKernel die Threads beachtet und aufteilt.
Was ich mitbekommen habe war eine korrektur in Win10 für AMD und Zen (nicht mehr monolitisch, ergo Threadhopping vermeiden, Cachemodalitäten beachten). Das war recht ok.

Zu SMT selbst erwischte ich noch keine "Papers".

aufkrawall
2021-08-23, 18:46:07
Ich würd es jetzt nicht überkomplex machen. MangoHUD zeigt unter Linux mit Vulkan (ob jetzt RADV oder Nvidia) für die CPU-Gesamtauslastung so ziemlich genau den gleichen Wert an wie Afterburner unter Windows mit amdvlk/Nvidia.
HT ist jetzt auch nicht so kompliziert: Bei 50% Gesamtauslastung hast du halt so ziemlich die Performance wie mit abgeschaltetem HT und über die 50% hinaus skaliert es nur noch mit 15-35%.

Lurtz
2021-08-23, 21:44:15
:(

Naja, für die Final habe ich trotzdem noch Hoffnung. Ist ja momentan nur ne Beta.
Das ist ja bereits ein "finaler Build", der jetzt nur noch fertig gepatcht wird. Am Kernel oder anderen grundlegenden Dingen ändert sich da nichts mehr, das kommt erst mit den neuen Dev-Builds, die bald starten.

iamthebear
2021-08-24, 02:37:26
Die Gesamtauslastung, die der Taskmanager anzeigt, ist Schrott:
https://linustechtips.com/topic/1225894-why-you-shouldnt-rely-on-task-manager-for-cpu-utilization/
https://forums.guru3d.com/threads/cpu-usage-discrepancy-80-in-ab-100-in-task-manager.417998/

Edit: Das kann man auch ganz einfach mit dem 7-Zip Benchmark überprüfen. Ist schon arg lächerlich von Microsoft.

Ich habe in HZD Spiel ~80% Gesamtauslastung auf 12T laut AB kurz vor Meridian in 720p 50% RS.

Edit 2: Um das mit dem Baseclock-Problem des Taskmanagers nochmal mit 6T im 7-Zip-Benchmark für die 12T CPU zu verdeutlichen:
Allcore 4,2: ~80% Gesamtauslastung laut Taskmanager
Takt limitiert auf Baseclock von 2,6GHz: 50% Auslastung

Völlig gaga, wie blöd die sind. :freak: ;D

Mist das wirft jetzt meine Theorie komplett über den Haufen. Habe jetzt noch einmal nachgebencht. An einer Stelle in der Wildnis (dort wo ich auch gefahrlos mit Alt+Tab raus wechseln kann) sind es 55-60% für die exe des Spiels und 80% im Task Manager. Das entspricht exakt der Differenz von 3.6 auf 4.7GHz.

Wer zur Hölle kommt dass im Details Tab eine andere Berechnungsmethode (nämlich die richtige) verwendet wird als im Tab mit der Grafik.
Dann haben die Kernelzeiten aber wahrscheinlich auch nichts mit dem Nvidia Treiber zu tun sondern entsprechen nur rein zufällig ziemlich der Differenz bzw. den 20-30% die man mit AMD Karten mehr Performance hat wenn die CPU komplett am Anschlag ist laut Tests von HWU vor ein paar Monaten).

Wenn es sich nicht um Kernelzeiten handelt, sondern der zusätzliche Overhead von Nvidia der .exe des Spiels zugerechnet wird, dann bedeutet dies vermutlich wiederrum, dass dabei die 6 Threads des Spiels blockiert werden und vermutlich der 7. und 8. Kern bei Nvidia doch nicht mehr bringen als bei AMD.

aufkrawall
2021-08-24, 03:12:00
Das Spiel läuft hier im CPU-Limit mit der 3060 ziemlich genau gleich schnell wie vorher mit der 6800 bzw. dürfte der Unterschied im relativ niedrigen einstelligen Bereich liegen. WD Legion läuft auf AMD locker 15% schneller im CPU-Limit ohne RT, bei weiteren Spielen hab ich das aber nicht feststellen können.

Sonyfreak
2021-08-24, 08:07:20
https://www.techspot.com/article/2308-cpu-cores-and-cache/

Ebenfalls interessant.Die Entdeckung des GPU-Limits oder warum man CPU-Tests nicht in FullHD macht. :uup:

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76533

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=76534

mfg.

Sonyfreak

Daredevil
2021-08-28, 13:12:44
HW Unboxed liefert
Cbyl4q3QFYA


https://abload.de/img/bildschirmfoto2021-08cbkzp.png

Platos
2021-08-28, 13:26:07
Also macht (neben der Kernanzahl) auch der Cache sehr viel aus. Dann kann man sich ja schonmal ausdenken, wo Alderlake im Gaming landen wird;)

Allerdings kam er offensichtlicherweise in manchen Spielen hart ins GPU Limit (z.B Horizon).

Edit: Wobei ab mehr wie 8-Kernern macht heute der Cache mehr aus, wie noch mehr Kerne (ausser Vlt. mit RT). Aso ich bin schonmal auf Alderlake gespannt.

Edit2: Wobei wie sehen die Taktraten aus? Waren die bei allen gleich?

BlacKi
2021-08-28, 14:10:44
was für mich interessant war, das es eine sättigung gab, ab wann für manche spiele der cache ausreichend war. das cache skaling wird nicht nur schwächer, sondern hat schon fast eine harte grenze, zumindest bei 4c8t. erst mit mehr kernen scheint dann wieder der cache performance sprünge zu machen.

Badesalz
2021-08-28, 16:06:41
Hmm. Ok... Für alle auf 3DC die sich deswegen 2021 erleuchtet fühlen:
Seit wann baut Intel Xeons wo je mehr Kerne, desto mehr "smart cache" verbaut wird? Seit... zig Jahren?

Warum denn nur warum denn?

p.s.:
Das hat auch nichts mit "Spiele" zu tun, sondern allgemein mit Software.

BlacKi
2021-08-28, 17:17:55
du übertreibst hier etwas. man konnte das zwar annehmen, aber da amd hier einen anderen weg ging, durfte man das ruhig in frage stellen. aber hinterher den leuten dann zu sagen, ich wusste sowieso alles vorher und wieso ist das neu für euch, das ist bitching auf max lvl^^

Badesalz
2021-08-28, 18:04:24
@blacki
Nichts davon ergibt einen Sinn. Die Story ist so alt wie L3-Cache und Multicore. Ende des Lieds.

Jemanden bitching vorzuwerfen damit man selbst nicht so total verpennt daherkommt, verschleiert das nicht. Sorry ;)

BlacKi
2021-08-28, 19:00:23
es freut mich mit dir das thema nicht weiter erörtern zu müssen.

Nightspider
2021-08-28, 21:30:10
Wenn ich mich richtig erinnere war der Performanceverlust bei Renoir durch den halbierten Cache aber auch nicht so gravierend.
Zumindest nahmen da doch recht viele an das der L3 gar nicht sooo wichtig ist.

Ich bin vor allem mal auf die Benchmarks mit Zen3D gespannt. Damit lassen sich dann sehr aussagekräftige Benchmarks zu Kern-Skalierung durchführen.
Am Ende profitieren die Spiele dann wirklich kaum noch von mehr als 6 bis 8 Kernen, wenn jeder Kern 3 mal so viel L3 Cache zur Verfügung hat.

Die Konsolen haben ja auch sehr wenig L3 Cache. (So viel wie Renoir?)
Unterm Strich wird es sich aber für die NextGen Konsolen lohnen die Kernanzahl wieder zu verdoppeln anstatt den Cache übermäßig aufzublasen, denn der Cache verbraucht ja jetzt schon einen enorm großen Anteil der Diearea.

Für Gaminglaptops wäre es daher schon nice wenn es V-Cache Varianten von den zukünftigen APUs wie Rembrandt geben würde. Die verschenken sonst zu viel Potential.

Da ist es schon fast schade das es wohl erstmal keine 8 Core CPUs mit V-Cache geben wird.

Generell kann man aber auch festhalten das wir erstmal die echten "CurrentGen" Spiele abwarten müssen.
Die aktuellen Konsolen haben ja 16 Threads und 14 davon dürften für die Spiele arbeiten.

Es ist also nur bedingt zielführend mit LastGen Spielen und deren Benchmarks über die Kernskalierung zu reden imo.

Solche Spiele dürften in Zukunft interessant werden für die Kernskalierung:

Axmg1E4HrVE


Edit:

Ich schaue gerade einige Renoir Tests an und mir wird gerade bewusst das viele Test nichts taugen bezüglich der Gamingtauglichkeit der CPU Seite.
Oft wird die IGP ausführlich getestet und wenn die CPU Leistung bei der APU getestet wird, dann fast immer nur mit Synthetischen Benchmarks und Anwendungsbenchmarks aber nicht mit Spielen.

Vielleicht ist es bei Renoir auch einfach nur untergegangen das die CPU Seite beim Gaming schwächelt und vielleicht sogar näher an Zen+ liegt in manchen Spielen.

Denn zum Renoir Release waren erstmal alle begeistert von den sparsamen 8 Kernen im Laptop und haben die SingleCore Gaming Leistung völlig außer Acht gelassen.

Daredevil
2021-08-28, 22:23:28
Hier sieht man ja auch ganz gut ( Extrem Beispiel ), was wenig Cache ausmachen kann anhand der Zen3 APUs.
https://www.computerbase.de/2021-08/amd-ryzen-5600g-5700g-test/2/#diagramm-valorant-1920-1080-bildpunkte

Als Extrembeispiel kann noch einmal Valorant herausgegriffen werden. Der Titel wurde bisher für die extrem gute Leistung bei Zen-3-Prozessoren gelobt, doch heute wird klar, dass dies vor allem am L3-Cache liegt. Die neuen APUs mit gleicher CPU-Architektur, aber nur 16 statt 32 oder gar 64 MByte L3-Cache sind jetzt „nur“ noch so schnell wie Intels Prozessoren, die ähnlich viel L3-Cache haben.



Und obwohl Zen3 schon extrem schnell ist in Valorant, kommen da nochmal 25% drauf. :X
https://pics.computerbase.de/9/8/8/8/8-c745f1f78dba73a2/5-1080.c38a07e3.png

iamthebear
2021-08-29, 03:43:17
https://abload.de/img/bildschirmfoto2021-08cbkzp.png

Die Ergebnisse mit 4 Kernen sind echt interessant. Diese skalieren deutlich schlechter mit dem zusätzlichen Cache.
HWU behauptet, dass dies daran liegt, dass dies daran liegt, dass mehr Cache pro Kern zur Verfügung steht allerdings kann man diese Theorie sehr einfach widerlegen, da selbst der 10105F mit nur 1.5MB L3 Cache/Kern nicht wirklich viel langsamer ist wenn man die um 7% geringere Taktfrequenz berücksichtigt.

Der Unterschied kann hier nur in SMT liegen:
.) Das Spiel hat 6 Threads. Bei einem 6 Kern Prozessor bearbeitet jeder Kern 1 Thread. Ist der L3 Cache kleiner so führt dies zu mehr Cache misses und die CPU muss öfter auf den RAM warten. In dieser Zeit tut sie gar nichts.
.) Bei einer 4 Kern CPU bearbeiten 2 Kerne durch SMT je 2 Threads. Wenn nun ein Thread auf Grund eines Cache misses auf den RAM warten muss so kann während dieser Zeit der andere Thread diesen zur Gänze nutzen. Dadurch ist der Performanceverlust deutlich geringer.

Das Ganze erklärt auch warum Spiele durch die Bank alle so stark von L3 Cache und RAM profitieren während man das bei anderen Anwendungen nur sehr selten beobachten kann.
Die meisten Anwendungen sind entweder gar nicht multicore optimiert (bei 1 Thread reicht der L3 Cache dann jedoch wirklich aus) oder sie sind so stark multicore optimiert, dass alle Kerne 2 Threads bearbeiten können und fangen so den Großteil des Performanceverlustes ab.
Nur Spiele haben diese Eigenheit, dass sie zwar durchgehend 6-8 Threads nutzen, jedoch nicht mehr.

Nightspider
2021-08-29, 04:58:24
Die Ergebnisse mit 4 Kernen sind echt interessant. Diese skalieren deutlich schlechter mit dem zusätzlichen Cache

Würde ich nicht sagen.

Von 4 Kerne auf 6 Kerne (+50%) bringt bei 12 MB Cache gerade mal 3min_fps [88->91] was 3,4% entspricht.

Der gleiche Sprung von 4 auf 6 Kernen unter 16 MB Cache bringt schon 7,4%.



Der Sprung von 12 auf 16 MB Cache bringt unter 4 Kernen alleine auch schon satte 6,8%.
Diese 6,8% von 12 auf 16MB sind genau doppelt so groß wie die Erhöhung der Kernzahl von 4 Kernen um 50% auf 6 Kerne.


Man muss aber auch sagen das selbst die kleinsten zwei Popelprozessoren sehr hohe dreistellige average_fps schaffen und dank SMT und 8 Threads eh schon genügend Threads für derart "alte" Spiele haben.

Selbst in Cyberpunk würden 6 Kerne ganz vorne mitspielen, wenn sie genügend Cache hätten.
Für alle aktuellen und alten Spiele würde wirklich ein moderner 6 Kerner mit viel Cache ausreichen, wie man auch ganz gut beim 5600X sieht.

Mit mehr Kernen lassen sich dann noch ein paar Prozent herausholen aber diese sind atm wirklich noch überschaubar.

Jetzt bedauere ich es doch das wir wohl keinen 5600X mit V-Cache bekommen werden. :D
Aber damit würde sich AMD nur selbst Kundschaft abgraben.
Mit dem 5900X kann AMD schließlich deutlich mehr Gewinn am Kunden machen.

Badesalz
2021-08-29, 10:13:41
Man sollte halt nur die Abhängigkeiten nicht vergessen. Größe, Durchsatz, Latenz + das gleiche beim Hauptspeicher.
Nur die Cachegröße Platformübergreifend zu vergleichen wird dem nur halbwegs gerecht.
Das ist zwar Binse ;) aber wenn ich sehe wie manche hier abgehen...

Man erinnert sich hier aber noch an die Leistungen des 5775C? :tongue:

Geächteter
2021-08-29, 12:05:49
Viel Nutzen für den Endanwender hat die Cache-Orgie ja nicht mehr, außer hohe dreistellige Bildraten für möglichst wenig persistence blur auf High-Hz-Displays zu realisieren, wo allerdings bei grafiklastigen Spielen und entsprechenden Settings wieder die beste Graka streikt. Bei "Simulationen" wie X-Plane, Flight Sim und Train Sim u. Ä., wo man seit zig Jahren dringend mehr fps wegen CPU-Limit bräuchte, um endlich aus der "Schmerzgrenze" rauszukommen, bringt es leider kaum was, weil die "reine" Rechenleistung pro Kern so gut wie stagniert und sich der Haupthread auch nicht oder kaum parallelisieren lässt.

Badesalz
2021-08-29, 17:56:21
Der Cache ist für MT. Idealerweise sind das beim x86-64 bei sonst/bisher unveränderten Breiten und Größen am frontend wie backend, 3 MB pro SMT2-core. Das hat nichts mit Cacheorgien zu tun.

Mal davon ab, daß man sich nicht ständig einreden sollte, CPUs werden mit einem starken Fokus auf Gameengines entwickelt...

iamthebear
2021-08-30, 01:49:24
Würde ich nicht sagen.

Von 4 Kerne auf 6 Kerne (+50%) bringt bei 12 MB Cache gerade mal 3min_fps [88->91] was 3,4% entspricht.

Der gleiche Sprung von 4 auf 6 Kernen unter 16 MB Cache bringt schon 7,4%.

Ich glaube da hast du mich falsch verstanden.
Mir ging es darum, dass der Einfluss von viel vs. wenig Cache bei 6 Kernen deutlich größer ist als bei 4 Kernen. Das liegt eben daran, dass bei 4 Kernen teilweise mit SMT gearbeitet wird wo bei Cache Misses jederzeit ein 2. Thread bereit steht.

Daraus folgt natürlich, dass der Unterschied von 4 vs. 6 Kernen bei großem Cache höher ist.

Man muss aber auch sagen das selbst die kleinsten zwei Popelprozessoren sehr hohe dreistellige average_fps schaffen und dank SMT und 8 Threads eh schon genügend Threads für derart "alte" Spiele haben.

Selbst in Cyberpunk würden 6 Kerne ganz vorne mitspielen, wenn sie genügend Cache hätten.
Für alle aktuellen und alten Spiele würde wirklich ein moderner 6 Kerner mit viel Cache ausreichen, wie man auch ganz gut beim 5600X sieht.

Mit mehr Kernen lassen sich dann noch ein paar Prozent herausholen aber diese sind atm wirklich noch überschaubar.

Das mag sein, dass aktuelle CPUs sowieso schnell genug sind. Allerdings wird eine CPU ja im Schnitt auch länger eingesetzt als eine GPU. Generell sehe ich CPU/Board/RAM als eine Entscheidung und GPU komplett unabhängig davon.
Mag sein, dass heute die CPU schnell genug ist, in 5 Jahren sieht das aber schon wieder anders aus. Deshalb würde ich auch stark davon abraten heute noch einen 6 Kerner zu kaufen wenn das Budget nicht echt knapp ist. Besser gleich einen 5800X oder alternativ 11700/11900 holen.

Jetzt bedauere ich es doch das wir wohl keinen 5600X mit V-Cache bekommen werden. :D
Aber damit würde sich AMD nur selbst Kundschaft abgraben.
Mit dem 5900X kann AMD schließlich deutlich mehr Gewinn am Kunden machen.

Das mit dem Cache hört sich nett an aber man sollte nicht vergessen, dass da massiv Chipfläche dabei drauf geht. Ein 5800X mit 96MB Cache braucht ca. so viel Fläche wie ein 5950X mit 2x32MB Cache. Jetzt die Frage: Wärst du bereit 800 Euro für einen 5800X zu bezahlen nur weil er 10-15% mehr IPC in Spielen hat? Vom 5600X will ich gar nicht reden.

Der Cache ist für MT. Idealerweise sind das beim x86-64 bei sonst/bisher unveränderten Breiten und Größen am frontend wie backend, 3 MB pro SMT2-core. Das hat nichts mit Cacheorgien zu tun.

Mal davon ab, daß man sich nicht ständig einreden sollte, CPUs werden mit einem starken Fokus auf Gameengines entwicklet...

Die 3MB sind ein guter Richtwert für das insgesamt beste Kosten/Nutzen Verhältnis. Allerdings zeigen die Tests, dass auch bei 4MB noch annähernd so großer Nutzen gegeben ist wie zwischen 2MB und 3MB.

Dass Intel natürlich hauptsächlich die Businessanwendungen als Hauptfokus hat sollte klar sein. Gamingrechner sind nur eine relativ kleine Nische, wobei generell der Desktopmarkt selbst sich etwas zu einer Nische entwickelt, da der Notebookanteil immer weiter wächst und Corona hat diesen Trend mit mehr Home Office noch beschleunigt.
Bei AMD sieht das etwas anders aus, da man bei den Gamers besonders stark vertreten ist, da Gaming Systeme oft selbst zusammengebaut werden, wo man keinen OEM überzeugen muss.

Badesalz
2021-08-30, 06:31:06
Die 3MB sind ein guter Richtwert für das insgesamt beste Kosten/Nutzen Verhältnis. Allerdings zeigen die Tests, dass auch bei 4MB noch annähernd so großer Nutzen gegeben ist wie zwischen 2MB und 3MB.Für Intel war Kosten/Nutzen ne gaze Weile 2.5MB ;) Kostet halt Fläche.

Andererseits kosten Kerne das auch und trotzdem wurde/wird bei mehr Kernen mehr Cache spendiert. Dafür wieder an Takten rumgespielt. Man kann sich das ja an v3 und v4 Xeons schön anschauen wie damit immer hin und her balanciert wurde :up: und das dann in der Passmark-Datenbank vergleichen ;)

Nightspider
2021-08-30, 07:15:46
Das mit dem Cache hört sich nett an aber man sollte nicht vergessen, dass da massiv Chipfläche dabei drauf geht. Ein 5800X mit 96MB Cache braucht ca. so viel Fläche wie ein 5950X mit 2x32MB Cache. Jetzt die Frage: Wärst du bereit 800 Euro für einen 5800X zu bezahlen nur weil er 10-15% mehr IPC in Spielen hat? Vom 5600X will ich gar nicht reden.

Das stimmt so nicht ganz.

Ein V-Cache Die benötigt nur etwa 50% der Fläche eines Chiplets.
Und einen teildefekten Chiplet gibts ja schon für 240 Euro incl. IO Die und Gewinnspanne.

So teuer ist eine Lage V-Cache nicht zu produzieren. Die Frage ist vielleicht eher welche Preise TSMC für den Zusammenbau des Stacks verlangt.
Der Preis für den Zusammenbau dürfte aber nicht höher sein als die reinen Fertigungskosten der Chiplets, die selbst noch zweistellig sein sollten bei dem 80mm² Compute Die.

Und die Frage ist natürlich auch welchen Aufpreis AMD dafür verlangt.

Das Gute ist das Intel auch Druck macht und AMD keine Mondpreise verlangen wird.
AMD muss konkurrenzfähig bleiben. Die Straßenpreise von Ryzen5000 sind schon stark gefallen.
Wenn AMD da 100-150 Euro Aufpreis verlangt sollte das schon recht realistisch sein, denke ich.

Wenn wir Pech haben sind die Stückzahlen für Consumer aber erstmal gering und AMD verlang einen höheren Preisaufschlag.
Alles über 250€ halte ich aber für total unrealistisch als Aufschlag.

AMD würde niemals 800 Euro für einen 5800x mit V-Cache verlangen können, das würde keiner kaufen.
Schon alleine deshalb weil ein 5900X in vielen Szenarien schneller wäre.

Exxtreme
2021-08-30, 11:52:07
Dass die Spiele so mit dem Cache skalieren verwundert nicht wirklich. Die Compiler sind sehr darauf optimiert möglichst alles im Cache ablaufen zu lassen. Und zweitens, der RAM ist in den letzten 25 Jahren kaum schneller geworden. Und mehr Cache bedeutet weniger Abhängigkeit vom RAM.

Aber auch beim Cache gilt: Gesetz des abnehmenden Grenzertrages.

Badesalz
2021-08-30, 11:59:10
Wenn man sich jetzt nicht so verbreitet wie Apple mit M1 (was mit x86 eben bisschen schwieriger ist), dann wäre für mich das Thema bei 3.25MB L3/Smart pro SMT2-Kern nicht (mehr) der Rede wert.

robbitop
2021-08-31, 13:52:33
Bei Zen 3 bringt der VCache gute +15% in Spielen ggü den 32 MiB ohne VCache (zumindest war das in AMDs Präsentation zu sehen). IMO sind wir noch nicht in einem Bereich wo mehr sich nicht mehr lohnt.

Wenn man sich Cezanne mit nur 16 MiB L3 anschaut, sieht man in vielen Spielen noch einiges an Speedup bei Vemeer vs Cezanne.


Es mag zwar sein, dass die Hitrate bei vielen Spielen schon bei 80...95% liegt. Aber die Zahl einfach nur als "sehr hoch" zu deklarieren und anzunehmen, dass die letzten paar Prozent nichts bringen, kann schnell ein Trugschluss sein. Ein Miss kostet vergleichsweise hohe Wartezeiten und reißt eben im Mittelwert dann doch die Performance stark herunter.

DozerDave
2021-08-31, 14:37:44
Ja aber irgendwann bringen zusätzliche 16MB L3 Cache keine 15% Mehrleistung mehr.

aufkrawall
2021-08-31, 14:39:19
Ich würd die 15% von AMD für eher untertrieben halten, weil die sicherlich nicht in 720p mit garantiertem vollständigem CPU-Limit getestet haben.

robbitop
2021-08-31, 14:47:32
Ja aber irgendwann bringen zusätzliche 16MB L3 Cache keine 15% Mehrleistung mehr.
Die 15% beim VCache bedurften +64 MiB. Aber ja: da der Cache bei jeder Verdopplung die Missrate in etwa mit Quadaratwurzel(2) reduziert, wird klar, dass es sich um eine asymptotische Potenzfunktion handelt. Entsprechend gilt das Gesetz des sinkenden Grenzertrags. Ich denke das war aber bereits jedem klar.

Aber noch bringt es halt eine ganze Menge. Man muss halt im Gegenzug eine Menge Cache verbauen. Mal sehen was mit zukünftigen Packagingtechnologien möglich sein wird. Ggf. wird man auch mal eDRAM stacken (deutlich höhere Dichte als SRAM).

Und natürlich hängt die Hitrate auch immer mit der Größe des Instructionsets des Spiels zusammen. Die wächst ja auch mit - entsprechend muss auch der Cache (und die Qualität der Vorhersage) wachsen - um damit Schritt zu halten. Das kommt ein Stück weit dazu. Man wird also wahrscheinlich damit nie "fertig" sein. Aber es kann schon sein, dass ab einem bestimmten Bereich für eine Zeit lang andere Prioritäten gesetzt werden.

Badesalz
2021-09-01, 07:50:01
Eigentlich gehörte es ja hierhin ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12778429&postcount=2067

Hatten wir das schon? :confused:
https://www.hardwareluxx.de/index.php/news/hardware/prozessoren/56956-erste-produktnamen-der-epyc-cpus-mit-3d-v-cache-tauchen-auf.html

Eigentlich wäre mein... Theorem :usweet: also garnicht so schlecht. Bei dem bisherigen x86 front/back, 3.25 MB pro Kern und dann das doppelte davon an L4/X3D für nicht massiv MT CPUs (bis 32 Threads).
Da man L3 im Gegensatz zu L4 nun nicht so einfach vergrößern kann, versucht AMD das halt mit nur mehr L4 aufzufangen.

robbitop
2021-09-01, 08:19:40
Krass - 8x stacks für Epyc und damit 256 MiB pro CCD. Das haut sicherlich rein. Aber von L4 lese ich da nichts. So wie der VCache angebunden ist sollte das L3 sein.
Damit ein L4 noch sinnvoll wäre, bräuchte AMD entweder eine andere (viel schnellere fabric) oder es müsste auch in's CCX wandern. Sobald man auf den IF muss, ist die Latenz so hoch, dass es nicht mehr lohnt.

Badesalz
2021-09-01, 08:42:00
Aber von L4 lese ich da nichts. So wie der VCache angebunden ist sollte das L3 sein.Du meinst es gibt jetzt L3a und L3b? :wink: Ok sie mögen es nicht L4 nennen, aber mir selbst war so ein Klamauk schon immer egal. Es ist eine Cache-Stufe, die hinter dem L3 liegt oder hab ich das bisher falsch gedeutet?

BlacKi
2021-09-01, 09:48:39
Ich würd die 15% von AMD für eher untertrieben halten, weil die sicherlich nicht in 720p mit garantiertem vollständigem CPU-Limit getestet haben.und wenn du die 400fps games wie CS, valorant und Rainbow six rausnimmst, dann werden nichtmal 15% effektiv nutzbar sein. schön fürs benchmarken.

Badesalz
2021-09-01, 09:58:29
@BlacKi
Ist das schon wieder so eine Einschätzung die auf deiner Unerfahrenheit basiert oder nur dem highlevel-bias? Oder wie kommst du drauf?

Der_Korken
2021-09-01, 10:15:27
Krass - 8x stacks für Epyc und damit 256 MiB pro CCD. Das haut sicherlich rein. Aber von L4 lese ich da nichts.

Ich lese auch von 8 stacks nichts, außer dass AMD das theoretisch machbar mit ihrer Technologie bezeichnet hat. Wie die Epyc-Modelle mit dem X hinten aussehen, ist noch nicht bekannt.

Du meinst es gibt jetzt L3a und L3b? :wink: Ok sie mögen es nicht L4 nennen, aber mir selbst war so ein Klamauk schon immer egal. Es ist eine Cache-Stufe, die hinter dem L3 liegt oder hab ich das bisher falsch gedeutet?

Ich habe es so verstanden, dass der vorhandene L3 damit erweitert wird. AMD spricht ja von quasi gleicher Latenz wie vorher, was natürlich nicht stimmen kann, wenn der Stack hinter dem normalen L3 steht. Dann würden die Caches nacheinander durchsucht und das würde nochmal geschätzt 7-8ns extra kosten (so viel wie L3 minus L2 momentan). Die Stacks enthalten afaik auch kaum Logik, sondern fast nur SRAM-Zellen, d.h. die Verwaltungslogik muss bereits auf dem Base-Die vorhanden sein.

Die wirklich offene Frage ist hier imho wie der 96MB große Cache organisiert ist. Der 32MB L3 ist 16-fach assoziativ, d.h. ein Cache-Set besteht aus 16*64B = 1 KB und man hat somit 2^15 (~32000) Sets. Jetzt könnte man denken, dass AMD einfach die Anzahl der Sets erhöht, um günstig zusätzliche Kapazität zu bekommen. Dann hätte man aber 1,5*2^16 Sets und soweit ich weiß muss die Anzahl der Sets immer eine Zweierpotenz sein, weil die Speicheradressen sonst nicht glatt auf die Sets aufgeteilt werden können. Ergo müssten die Sets größer werden und somit die Assoziativität auf 48 steigen. Das wirft aber wiederum die Frage auf wie das zur angeblich verdreifachten Bandbreite des Caches passt (es gibt zwar dreimal so viele Zellen, aber jeder Zugriff verursacht auch dreimal so viele Tag-Vergleiche) und ob die Assoziativität mit jedem weiteren Stack weiter steigen würde - muss sie der Logik nach ja. Das wäre bei 4 Stacks aber eine Assoziativität von 144, bei 8 eine von 272 ...

Iscaran
2021-09-01, 11:03:58
Habe jetzt nicht alles gelesen - aber eine Frage die sich mir stellt:

Früher gab es ja fast keinen Cache und alles war im RAM. Jedoch war hier die Latenz halt hoch.

Bei Berechnungen welche sehr unabhängig voneinander und sehr "langwierig" sind dürfte die Latenz also kaum ins Gewicht fallen.

Bei Anwendungen, wie z.B. Games, bei welchen jedoch viele Berechnungen direkt voneinander Abhängig sind, spielt Cache daher auch so eine Große Rolle.
Gleichzeitig aber spielt hier die Paralellität rein, habe ich viele voneinander abhängende Berechnungen kann man diese schlecht parallelisieren (oder nicht?).
War das nicht einer der Gründe für das "Single-Thread" Limit - oder den sogenannten "Worker-Thread" und eben auch der Grund für die ganze Entwicklung von multi-core processing DX12, Vulkan, ....

Mehr lokaler Cache verkürzt damit die Wegzeiten wenn Core/Threadwechsel stattfinden (?).

Ist also viel direkter CPU Cache eine Folge dieser Entwicklung zum Multi-Threading oder ist es noch eine "Altlast" aus den Alten Single-Thread Funktionalitäten und wird in Zukunft mit besseren multi-thread softwares abnehmen?

Der_Korken
2021-09-01, 11:27:25
Schneller Cache wird immer notwendig sein, auch für das, was du als langwierige Berechnungen bezeichnest. Alle aktuellen Architekturen haben (mindestens) 4 ALUs, die theoretisch pro Takt eine Rechenoperation abschließen könnten und jede Rechenoperation braucht zwei Operanden als Input und muss das Ergebnis irgendwo hinschreiben. Der schnellste Cache (L1) hat eine Latenz von 4 Takten, d.h. in der Zeit, wo ein Operand aus dem Cache geladen werden muss, könnten vom Durchsatz her 16 Rechenoperationen ausgeführt werden. Die arbeiten natürlich hauptsächlich auf den Registern, aber nur um mal zu zeigen wie "langsam" ein Cache bereits ist im Vergleich zu den Recheneinheiten. Jetzt kann man natürlich sagen, dass man einfach nur genug parallele Operationen braucht und die Cache-Latenz damit versteckt werden kann. Das klappt aber auch nur bedingt, denn das Out-of-Order-Window ist nunmal begrenzt (d.h. du kannst nicht unendlich weit in den Code reingucken udn entsprechend viele Berechnungen vorziehen) und sobald du Branches im Code hast, kann die CPU nur spekulieren, wo der Code überhaupt weitergeht. Biegt sie falsch ab, muss sie u.U. viel geleistete Arbeit wieder verwerfen.

Ich glaube der Unterschied zwischen Spielen, die so stark auf bessere Latenzen reagieren und rechenintensiven Anwendungen ist das working set, also die Größe der Datenmenge, auf die regelmäßig zugegriffen wird. Letzere werden teilweise auf gängige Cache-Größe optimiert, d.h. man fasst immer nur so viele Daten gleichzeitig an, dass sie in den L1, L2 oder L3 passen, um die CPU maximal auszunutzen. Bei Spiele-Code scheint das entweder nicht zu gehen oder es lohnt den Optimierungsaufwand nicht. Der Wechsel zu DX12 und Vulkan hat mit Cache imho wenig zu tun, sondern damit, dass DX11 zu viel Overhead auf der CPU-Seite erzeugt hat - was auch dazu führen konnte, dass es einen komplett überlasteten Main-Thread gab, der die Leistung des gesamten Systems limitiert hat (die ST-Leistung ist sehr viel schwieriger zu steigern als einfach mehr Kerne zu verbauen, deswegen).

Ich glaube nicht, dass die Cache-Menge wieder abnehmen wird. Historisch sind CPU und RAM immer weiter auseinander divergiert und je leistungsfähiger die CPUs werden, desto mehr werden sie vom RAM ausgebremst, wenn man nicht durch mehr Cache gegensteuert. Da sich momentan endlich mal wieder richtig was tut auf der Kern-Ebene, sehen wir eben auch die Vergrößerungen des Caches.

Exxtreme
2021-09-01, 11:30:28
Habe jetzt nicht alles gelesen - aber eine Frage die sich mir stellt:

Früher gab es ja fast keinen Cache und alles war im RAM. Jedoch war hier die Latenz halt hoch.


Jein. Früher war das so, dass der RAM schlicht schnell genug war. Das war bis ca. 1993 - 1995 so. Danach fing man an Caches auf das MoBo zu löten weil der RAM mit der Geschwindigkeit der CPUs nicht mehr mithalten konnte und deshalb zum Flaschenhals wurde.

Witzig ist, dass zum Beispiel Java diese Annahme, dass der RAM schnell genug ist immer noch fest verankert hat. Was dafür sorgt, dass Java-Programme nicht gut mit CPU-Caches harmonieren. Nicht dass Java-Programme langsam sind aber man könnte hier zum Teil noch viel mehr rausholen. Und deshalb gibt es da das Projekt namens Valhalla. :)


Bei Berechnungen welche sehr unabhängig voneinander und sehr "langwierig" sind dürfte die Latenz also kaum ins Gewicht fallen.


Kann man pauschal so nicht sagen. Berechnungen generieren oft sehr kurzlebige Daten. Und das profitiert sehr wohl vom Cache.


Ist also viel direkter CPU Cache eine Folge dieser Entwicklung zum Multi-Threading oder ist es noch eine "Altlast" aus den Alten Single-Thread Funktionalitäten und wird in Zukunft mit besseren multi-thread softwares abnehmen?

Direkter CPU-Cache resultiert daraus, dass die Fertigung besser geworden ist und man damit auch Latenzen extrem gut drücken kann. Früher gab es Caches auf dem MoBo. Aber damit könnte man keine Latenzen im ns-Bereich fahren weil die Leitungen vom Cache zur CPU zu lang wären.

BlacKi
2021-09-01, 11:41:29
@BlacKi
und wie war dein morgen bisher so? meiner war soweit gut. ich wünsche dir noch einen schönen tag ;)

robbitop
2021-09-01, 11:58:07
Du meinst es gibt jetzt L3a und L3b? :wink: Ok sie mögen es nicht L4 nennen, aber mir selbst war so ein Klamauk schon immer egal. Es ist eine Cache-Stufe, die hinter dem L3 liegt oder hab ich das bisher falsch gedeutet?
Der Cache ist nicht gestuft sondern nur erweitert. Der L3 ist von vorn herein auf diese Größe ausgelegt gewesen und sogar die Kontrolllogik dafür ist auf dem Kern. VCache ist ein monolithischer normaler L3 mit 96 MiB. Mit gleicher Latenz. Man könnte sagen, dass wenn der L3 mit "nur" 32 MiB von vorn herein ausgelegt gewesen wäre, hätte man dessen Latenz etwas einkürzen können.

robbitop
2021-09-01, 12:00:17
und wenn du die 400fps games wie CS, valorant und Rainbow six rausnimmst, dann werden nichtmal 15% effektiv nutzbar sein. schön fürs benchmarken.
Naja das waren ja bloß ~5 Titel die AMD gezeigt hat. Wir alle wissen vom DRAM Tuning und dessen Ergebnissen, dass nicht alle Spiele darauf stark ansprechen (bereits hohe Hitrate) - es aber eine ganze Menge Spiele tun. Siehe i7-5775C Artikel von Anandtech.
Der Vorteil ist je nach Spiel sehr sehr variabel.

Der_Korken
2021-09-01, 12:03:27
Man könnte sagen, dass wenn der L3 mit "nur" 32 MiB von vorn herein ausgelegt gewesen wäre, hätte man dessen Latenz etwas einkürzen können.

Da wäre ich mir nicht so sicher. Vor kurzem kam raus, dass Zen 3 einen Ringbus verwendet, der natürlich im Mittel deutlich langsamer als ein voll vernetzter Cache ist wie bei Zen 2. Intel liegt mit ihrem Ringbus ja schon lange irgendwo um die 40-45 Takte bei halbem L3/Core. Die höhere L3-Latenz klingt imho selbst mit "nur" 32MB plausibel. Der Coup am 3D-Cache ist ja gerade, dass die längsten Wege im Cache sich nicht verlängern im Gegensatz zu einem planaren Cache, der in der Fläche wächst.

robbitop
2021-09-01, 12:05:34
Jein. Früher war das so, dass der RAM schlicht schnell genug war. Das war bis ca. 1993 - 1995 so. Danach fing man an Caches auf das MoBo zu löten weil der RAM mit der Geschwindigkeit der CPUs nicht mehr mithalten konnte und deshalb zum Flaschenhals wurde.
Cache war damals extrem! Man kann sich auf philscomputerlab (sehr guter retro hardware channel) dazu einiges anschauen.
Selbst bei CPUs mit vielen hundert MHz (z.B. K6-3/K6-3+/Pentium 2/3) wenn man sämtliche Cachestufen deaktiviert fällt die Leistung wirklich in's Extreme. So weit, dass man auf 486 und 386 level runterkommt (wegen Spielekompatibilität).

Der Einsatz von L1 und L2 Cache und deren Steigerung war für einen wirklich großen Teil der Leistungssteigerung in den 90er Jahren verantwortlich...

Da wäre ich mir nicht so sicher. Vor kurzem kam raus, dass Zen 3 einen Ringbus verwendet, der natürlich im Mittel deutlich langsamer als ein voll vernetzter Cache ist wie bei Zen 2. Intel liegt mit ihrem Ringbus ja schon lange irgendwo um die 40-45 Takte bei halbem L3/Core. Die höhere L3-Latenz klingt imho selbst mit "nur" 32MB plausibel. Der Coup am 3D-Cache ist ja gerade, dass die längsten Wege im Cache sich nicht verlängern im Gegensatz zu einem planaren Cache, der in der Fläche wächst.

Der Anteil der Latenz am L3 Cache ist Fabric aber auch durch seine Größe selbst - zumindest wenn man mit der Assoziativität und dem Energiebedarf nicht hoch will

Badesalz
2021-09-01, 12:28:19
So allgemein...

@blacki
Bleib einfach bei deinem Leisten. Dann stört das auch keinen.

@Exxtreme
Das mit den Latenzen, wegen Leitungen und Längen... Das ist nur die halbe Wahrheit.
Draußen gabs auch den Cache-Controller noch ;) Und die Chips (!) waren aufgelötet oder gar als Slot-Modul vorhanden (Coast). Ordinäre Lötstellen oder gar Steckkontakte kann man ebenfalls nicht so aggressiv fahren.
Da Steckplatz vorhanden war (leer ab Werk) hab ich ein uraltes Siemens PG mit so einem 256KB Coast mal nachgerüstet. Beim Packen der Projekte war das Teil gefühlt 1/4 schneller. Sowas war damals Leistungstuning pur :tongue:

Der Hauptspeicher war noch nichtmal erst ab dem ersten Pentium (1993) nicht mehr schnell genug. Wenn man sich umschaut kriegt man schnell mit, daß schon i486 Boards DIL-Sockel hatten, zum Nachrüsten von L2. Das hat man nicht als Joke gemacht ;)

@robbitop
Ok. Warum hat das Teil dann so einen blödsinnigen Extranamen? CPUs mit L3 und L3ex(tended) hätte doch gereicht =)

Nightspider
2021-09-01, 13:11:34
Ok. Warum hat das Teil dann so einen blödsinnigen Extranamen?

Was ist das für eine blödsinnige Frage? xD

Schon mal was von Marketing gehört? ^^

Außerdem kostet das Feature extra. Irgendwie muss man dem Kunden die Mehrkosten ja rechtfertigen und erklären.

Iscaran
2021-09-01, 13:50:51
@Korken und @Exxtreme:

Vielen Dank für die Erläuterungen! Die Micro-Ops hab ich tatsächlich dabei total aus dem Blick verloren. Insofern ist klar, daß die CPUs einfach den "Cache" brauchen um ihre eigentlich verfügbaren Ops durchführen zu können weil sie eben soviel schneller arbeiten als allein die Latenz zum RAM ist.

Der Gedanke mit der "Größe" der Batches in Relation zum Cachespeicher ist auch sehr interessant. Vor allem weil ich mir sehr gut vorstellen kann, daß gerade Game-Entwickler hier 0.0 darauf optimieren würden.

@Robbitop: Einen Link zu den Ergebnissen der alten Messungen mit deaktiviertem Cache wäre spitze! Könnte man so etwas nicht heute auch wieder machen?
Die Vergleiche bei HWunboxed gehen ja in die Richtung - nur gibt es halt nur eingeschränkt viele CPU-Modell-Kombinationen anhand derer man da was messen kann. Und selbst diese Unterscheiden sich oft schon in sovielen Dingen, daß es da super schwer ist wirklich was zu schliessen.

Ein simples Benchmarktool mit "deactivate L3" und "Activate L3" wäre mal aufschlussreich.

r3ptil3
2022-04-04, 12:06:33
Auf Steam ist nun zum ersten Mal der grösste Anteil der User mit einem 6-Kerner unterwegs.

Wird wohl einen Wendepunkt einläuten, was in Zukunft 4-Kern-CPUs angeht. 6 und 8 Kerner werden wohl in den nächsten Jahren einen ordentlichen Schub erfahren was die Kernauslastung über 4 Kerne betrifft.
Alles darüber wird wohl lediglich Ausreisser vermindern können.

https://www.techpowerup.com/img/Z9dWLVCnNhfamdg6.jpg

Exxtreme
2022-04-04, 13:40:54
Cache war damals extrem! Man kann sich auf philscomputerlab (sehr guter retro hardware channel) dazu einiges anschauen.
Selbst bei CPUs mit vielen hundert MHz (z.B. K6-3/K6-3+/Pentium 2/3) wenn man sämtliche Cachestufen deaktiviert fällt die Leistung wirklich in's Extreme. So weit, dass man auf 486 und 386 level runterkommt (wegen Spielekompatibilität).


Richtig. Ich meine eher CPUs wie 386 oder 486. Da war ein externer Cache zwar nett, hatte aber nicht die Bedeutung wie der Cache heutzutage.


Auf Steam ist nun zum ersten Mal der grösste Anteil der User mit einem 6-Kerner unterwegs.

Wird wohl einen Wendepunkt einläuten, was in Zukunft 4-Kern-CPUs angeht. 6 und 8 Kerner werden wohl in den nächsten Jahren einen ordentlichen Schub erfahren was die Kernauslastung über 4 Kerne betrifft.
Alles darüber wird wohl lediglich Ausreisser vermindern können.

https://www.techpowerup.com/img/Z9dWLVCnNhfamdg6.jpg

Mhhh, so einfach ist das auch nicht, siehe Amdahl's Law. Es wird immer schwieriger mehr Kerne auszulasten je mehr man auslasten will. Es lässt sich bei weitem nicht alles sinnvoll parallelisieren. Und je mehr man parallelisiert desto öfter muss man synchronisieren, was wiederum Rechenleistung kostet. Und es ist so, dass Code, der Dinge parallelisieren kann, auch zum Teil deutlich komplexer ist. Ergo, Wunder sind da nicht zu erwarten mit mehr Kernen.

Da werden größere Caches und/oder sowas wie Vulkan-API wohl beträchtlich mehr bringen als 4 Kerne extra.

Dovregubben
2022-04-04, 14:18:37
Richtig. Ich meine eher CPUs wie 386 oder 486. Da war ein externer Cache zwar nett, hatte aber nicht die Bedeutung wie der Cache heutzutage.
486er hatte schon eingebauten Cache. 386 hatte mit externen Cache schon einen netten Speedup.
Bei 486er lag zwischen Cache- und Speichergröße ein Faktor von 1000. Das würde ungefähr einem 5800x mit 32GB RAM entsprechen. Es hat sich nicht viel am Verhältnis geändert.

Duran05
2022-04-04, 17:23:00
Für mich keine Frage, Cache ist meistens besser.
Allerdings gibt es da Grenzen, an denen viel nicht mehr deutlich zulegt. Die Latte dürfte aber durchaus hoch liegen und wird sicherlich aus Kostengründen nie erreicht.

2-3 % reden wir meistens schon von einer Taktstufe bzw ein Modell höher, das widerum heisst ja der Stromverbrauch kann besser sein.

Die meisten Nutzer die keine Videobearbeitung betreiben werden auch eher selten über 24, 32 Cores hinaus gehen. Da hab ich doch lieber 5% mehr Leistung auf jedem Kern.
Denke auch nicht, das die Cachelimits schnell erreicht sind, wenn wir heute schon bei 32, 64MB stehen und da der kommende AMD zeigen wird das mehr auch noch wirkungsvoll bleibt.
Gerade da wo es genutzt wird (Packprogramme, mal abwarten ?) wäre mehr wahrscheinlich auch noch leistungsbringend.

=Floi=
2022-04-04, 23:19:38
Es wird immer schwieriger mehr Kerne auszulasten

Davon sind wir consumer ja noch immer weit davon entfernt. Die 8 kerne kann man heute problemlos im großteil aktueller games auslasten und durch die steigenden drawcalls wird es auch problemlos bis 32/64core noch einwandfrei skalieren.

Im servermarkt ist der 32 kern AMD auch zum "standard" geworden. Hier lässt man immer mehr auf einem server laufen und nimmt die performance mit.


---

Hat jemand beispiele für 3 cores? das waren glaube ich die haswell modelle?!
Und wo gab es 5 cores? Kann das vom freischalten früherer cpus kommen?

Savay
2022-04-04, 23:46:14
Triplecore:
Phenom (II) X3; XBox 360

Pentacore:
Irgendein Tegra?!

Thunder99
2022-04-24, 11:56:25
Eindeutig in den meisten Fällen Cache, um auf das Thema hier nochmal zurück zu kommen.
Mit dem release und den Tests vom Ryzen 7 5800X3D ist alles gesagt :)

Duran05
2022-04-24, 12:04:10
Hat sich ja jetzt bestätigt. Es ist Cache.
Allerdings nicht in jeder Anwendung. Daher bleibt Takt weiterhin wichtig. Viele unnütze Cores bringen auch nichts wenn das Gesamtpaket nicht passt.
Ich weiß noch nicht was ich mit vielen Effizienzcores anfangen soll, die liegen brach!

Ich denke bis 192 MB Cache sehen wir da noch Steigerungspotential trotz schnellerem RAM.
Wir dürfen gespannt sein ob die nächsten CPU Serien das regelmäßiger umsetzen... die Fertigung kommt so langsam in Gang.

HisN
2022-04-24, 12:44:27
Ich weiß noch nicht was ich mit vielen Effizienzcores anfangen soll, die liegen brach!

Du konzentrierst Dich auf Games, die viele Kerne nutzen können.
Ist irgendwo Troy in den Benchmarks aufgetaucht?

https://abload.de/img/troy_2020_08_14_13_117zkam.jpg (https://abload.de/image.php?img=troy_2020_08_14_13_117zkam.jpg)

Iscaran
2022-04-24, 13:20:18
Könnte man nicht um die einzelnen Faktoren besser einzuordnen "Indexe" erstellen in der Art:
FPS/GHz (bzw. FPS/MB-cache @x GHz (x muss für den Vergleich konstant sein).

Das ganze mit unterschiedllichen CPUs (unterschiedlich Cache) und eben unterschiedlichen Kern-Anzahlen und Taktungen.

das ganze natürlich bei identischer GPU.

Duran05
2022-04-24, 14:07:38
Du konzentrierst Dich auf Games, die viele Kerne nutzen können.
Ist irgendwo Troy in den Benchmarks aufgetaucht?

https://abload.de/img/troy_2020_08_14_13_117zkam.jpg

Falsche Einstellung.
Es geht nicht darum das beste rauszusuchen sondern das zu Nutzen was man braucht.
Diesen Mikrotransaktion-Strategiekram fasse ich nicht an. Ich mag auch behaupten das dort die Leistung regelrecht unwichtig ist weil du in erster Linie Zuschauer bist und steuerst, da reichen schon 45-55fps. ;)

Deinem Diagramm entnehme ich 4,1 GHz Takt, du könntest also mit 5 GHz locker 20% der Kerne einsparen weil wenig leistungsbringend und ausgelastet sind die wohl auch nicht.

HisN
2022-04-24, 15:13:53
Spar doch mal 20% der Kerne, bei einem Game das bis 48 Threads skaliert^^
Ich hab extra einen 4K-Screenshot genommen, damit die "720p ist unrealistisch"-Fraktion kotzt^^

Also ich habe einen Prozessor nach den Anforderungen meiner Software gekauft, und motze nicht dass meine Kerne in der Regel Däumchen drehen^^ Warum sollte ich diese Einstellung überdenken?

Duran05
2022-04-24, 15:45:20
Wenn du in 4k schon 88fps hast, dann weißt du, das es weniger bräuchte für ein gutes Spielgefühl.
Uns ging es hier um die technische Seite, du siehst dort selbst in deinem Diagramm das nicht alles auf Anschlag steht. Das bedeutet gut 15-20% der Leistung ist nicht genutzt, durch den niedrigeren Takt verlierst du auch etwas.
Mit 5 GHz-12 Kern (Beispiel) habe ich im Schnitt bessere Leistungen in verschiedene Anwendungen, denn manche profitieren kaum vom Corecount.
Wenn ich mir die TDP dieses Prozessors ansehe, dann bist du auch nicht effizienter (geworden). ;)

Ich spiel auch Strategie, doch was bringt mir so ein Prozessor in Titeln wie AoE 2 HD, AoE 4 oder andere Titel wie Fussballmanager (1-2 Cores). Sogar Leistungsverluste.
Ein 16 Kern 3D-Cache könnte vermutlich schon mehr Leistung einbringen ohne 1420 Euro zu kosten.

HisN
2022-04-24, 15:50:20
Moment ... die Diskussion hier geht doch darum dem letzen FPS hinterherzurennen, und Du kommst jetzt mit "aber XXX FPS reichen doch auch" und Effizienz und TDP?
Ich zeige ein Game das mit 48 Threads in den FPS skaliert, weil Du sagst "aber meine Kerne langweilen sich" :-)

iamthebear
2022-04-24, 16:10:16
Die Frage ist nun:
a) Ist Troy seiner Zeit so weit voraus, dass es so sehr optimiert ist, dass es bereits auf 48 Threads optimiert ist während alle AAA unfähig sind.
b) Oder haben die Entwickler von Troy Mist gebaut, dass es überhaupt so viel CPU Leistung braucht.

Ohne das Spiel bzw. die Engine jetzt genau zu kemnen aber von der Grafik nach zu urteilen würde ich eher letzteres vermuten. Ich würde hier sogar so weit gehen den Entwicklern hier Absicht zu unterstellen, denn nur mit viel CPU Last ist man das Aushängischild für AMDs Marketing und bekommt so seine Aufmerksamket. Ashes of the Singularity ist da auch so ein Beispiel. Hätte das keine Benchmarkdatenbank und würde ständig neue CPUs leaken würde das keine Sau kennen.

HisN
2022-04-24, 16:15:41
Die Total-War-Serie krankt seit einer Dekade an ihrer Engine, die irgendwann Single-Core limitiert läuft. Troy ist da ein Durchbruch wenn man so möchte.
Und es ist "Zusatz-Schnulli". Einzig und allein das Ultra-Grass frisst die Leistung.
Kann man mitnehmen, muss man natürlich nicht.

Lehdro
2022-04-24, 16:20:06
b) Oder haben die Entwickler von Troy Mist gebaut, dass es überhaupt so viel CPU Leistung braucht.
:cool:

Das Spiel macht mit den Kernen etwas was man gelinde gesagt als dekadent bezeichnen kann: Extreme Geasdetails werden komplett von der CPU übernommen. Schalte das auf "Ultra" und plötzlich kommt auch ein 4C/8T Prozessor zurecht. Extreme Grasdetails sind ein sichtbares Upgrade der Grafik, allerdings ist der Kosten/Nutzen Faktor ein wenig, naja, "extrem" :wink:
Wobei die Option, vorhandene CPU Power einfach zu nutzen, gar nicht mal so verkehrt ist im Zeitalter von erschwinglichen 12 und 16 Kernern. Das Spiel ist aber mittlerweile bald 2 Jahre alt und als Experiment hat Creative Assembly diese Gras-Implementierung nie wiederholt.

Zudem wurde bei Troy sogar DX12 weggespart, obwohl es die "Vorgänger" und "Nachfolger" mit derselben Engine (!) haben. Es verhält sich daher komplett anders bei maxed out Details als die anderen Total War Titel.

HisN
2022-04-24, 16:48:16
Tja, so ist halt immer irgendwo ein Haar in der Suppe.
Man wird es nie allen "recht" machen können.
Macht man 720p-Benches sagen alle "Realitätsfern"
Sucht man sich Software die nur mit 2-4 Kernen Skaliert, ist es klar dass es mit 8 Kernen keine Verbesserung bringt.
Sucht man sich Software die mit 48 Threads skaliert ist es CPU-Power die Umsonst verbrannt wird.

Da wird ein Test der eine grundsätzliche Frage beantworten soll natürlich schwer^^

Duran05
2022-04-24, 16:49:25
Moment ... die Diskussion hier geht doch darum dem letzen FPS hinterherzurennen, und Du kommst jetzt mit "aber XXX FPS reichen doch auch" und Effizienz und TDP?

Das letzte FPS hast du vorallem in diesem Titel dann, in den anderen widerum nicht. Dafür nimmst du auch einen hohen Verbrauch in Kauf denn ein Effizienzwunder wird das bei der Auslastung nicht mehr sein.

Als ich davon sprach was ich mit Effizienzkernen anfangen soll kamst du mit diesem Titel... zocke ich zeitgleich Anno 1800, AoE & Co wäre es wieder der falsche Prozessor.
Leistung hebt sich auf:
Anwendung 1: +35%
Anwendung 2: -20 %
Allgemeine Anwendungen: -15% weil Takt fehlt

Das ist kein guter Allrounder für 1420 Euro. Bleiben wir beim Thementitel, mit Cache könnte man auch dort etwas rausholen wo keine Coreoptimierung vorhanden ist.
Jahresende sollen schon die CPUs mit 8+16 Bestückung kommen, dann wird das für mich interessant weil die sicher kaum langsamer sein werden im Paket.