Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7000 (Zen 4) Review-Thread
Seiten :
1
2
3
4
5
6
[
7]
8
9
10
11
12
13
14
dargo
2023-03-02, 10:11:42
Die 4090 ist auch keine Wundertüte 7900X3D ist dort manchmal nur auf Level mit 7700X/5800x3D die die Hälfte kosten.
Niemand der nicht auf den Kopf gefallen ist kauft sich einen 7900X3D oder 7950X3D wenn er hauptsächlich zockt. Dafür gibt es bald den 7800X3D. Immer dieses alles sofort haben müssen + Äpfel/Orangen Vergleiche. :rolleyes: Und wer noch mehr sparen will der holt sich den 7800X3D nächstes Jahr. Bis dahin haben wir hoffentlich wieder einen Konkurrenten aus dem Hause Intel der zu fallenden Preisen führt. Konkurrenz ist schon was Feines. ;)
Cubitus
2023-03-02, 10:26:22
Niemand der nicht auf den Kopf gefallen ist kauft sich einen 7900X3D oder 7950X3D wenn er hauptsächlich zockt. Dafür gibt es bald den 7800X3D. Immer dieses alles sofort haben müssen + Äpfel/Orangen Vergleiche. :rolleyes: Und wer noch mehr sparen will der holt sich den 7800X3D nächstes Jahr. Bis dahin haben wir hoffentlich wieder einen Konkurrenten aus dem Hause Intel der zu fallenden Preisen führt. Konkurrenz ist schon was Feines. ;)
Den 7950X3D lasse ich mir ja noch gefallen.
Wobei, wenn ich viel Geld ausgeben will, würde ich mir diesen kaufen und dann die Miami Methode wählen. CCD1 deaktivieren, so viele Cores brauchts beim Spielen eh nicht. Und dann CCD0 mit höheren Taktraten laufen lassen als der 7800X3D bekommen wird.
Beim 7900X3D ist dieser Kniff nur so meh.. da ein 7800X3D doch noch zwei Kerne mehr hat..
Also ich weiß wirklich nicht was sich AMD bei diesen 7900er Modell gedacht hatte.. :freak:
Linmoum
2023-03-02, 10:32:13
CCD0 kannst du auch so mit höherem Takt laufen lassen, ohne CCD1 zu deaktivieren. Es gibt mit nur CCD0 halt auch Spiele mit (deutlich) schlechterer Performance (s. TPU oder PCGH).
Es ist im Prinzip das, was ich schon länger sage. Wer selbst zuweisen will (was nun wirklich kein Aufwand ist und wer seine GPU mit OC/UV betreibt, sollte sich darüber auch nicht beschweren...), der bekommt mit einem 7950X3D das bestmögliche, was es gibt. Bei einem 7800X3D performen die Spiele, die mit nur CCD0 bei dem 7950X3D schlechter laufen, halt auch schlechter, weil du das zweite fehlende CCD logischerweise nicht herbeizaubern kannst.
Der_Korken
2023-03-02, 10:40:02
Im Nachhinein ist der Stunt mit den unterschiedlichen CCDs schon fraglich. Der 7800X3D braucht keine Anpassung und der 7900X3D ist als 6+6 ein eigentlich überflüssiges Modell (8+4 wäre dagegen wieder interessant). Bleibt nur der 7950X3D für den man jetzt AGESA, Chipsatztreiber und OS-Scheduler umschreiben muss und mit Zen 5 ist das alles wahrscheinlich wieder obsolet. Ich glaube niemand hätte ein Problem gehabt, wenn AMD den 7950X3D weggelassen oder mit zwei Cache-CCDs gebracht hätte, auch wenn das jetzige Design in der Theorie schneller ist.
Exxtreme
2023-03-02, 10:43:24
Bleibt nur der 7950X3D für den man jetzt AGESA, Chipsatztreiber und OS-Scheduler umschreiben muss und mit Zen 5 ist das alles wahrscheinlich wieder obsolet.
Ich glaube, man wird damit leben müssen, dass die CPUs schnelle und langsame Kerne haben werden für eine längere Zeit. Das bietet insgesamt schlicht viel zu viele Vorteile. Grad was den Stromverbrauch angeht kann man beträchtlich besser skalieren.
Der_Korken
2023-03-02, 10:49:38
Ich glaube, man wird damit leben müssen, dass die CPUs schnelle und langsame Kerne haben werden für eine längere Zeit. Das bietet insgesamt schlicht viel zu viele Vorteile. Grad was den Stromverbrauch angeht kann man beträchtlich besser skalieren.
Genau das ist aber bei AMDs Konstruktion nicht der Fall. Es gibt schnelle und schnelle Kerne und man weiß nie so genau, welche wann schneller sind. Für eine Mischung aus z.B. Zen 5 und Zen 5C würde man eh wieder das meiste umschmeißen müssen, von dem was man jetzt aufbaut.
Exxtreme
2023-03-02, 10:57:59
Genau das ist aber bei AMDs Konstruktion nicht der Fall. Es gibt schnelle und schnelle Kerne und man weiß nie so genau, welche wann schneller sind. Für eine Mischung aus z.B. Zen 5 und Zen 5C würde man eh wieder das meiste umschmeißen müssen, von dem was man jetzt aufbaut.
Derzeit sind sowohl AMDs wie auch Intels Konstruktionen nicht sehr optimal. Bei AMD sind die Unterschiede zwischen den Kernen nicht so groß während Intels E-Kerne keine richtigen E-Kerne sind.
Beide Unternehmen üben aber noch. Intel will eher Multithreading-Benchmarks gewinnen während AMD eher auf Spiele-Benchmarks zielt etc. Das dürfte aber mit den nächsten Iterationen der CPUs immer besser werden.
Der_Korken
2023-03-02, 11:13:58
Intel hat es imho leichter, weil der P-Core immer schneller ist als der E-Core. Alles was ansatzweise Leistung zieht, kann also immer an die P-Cores geschickt werden, sodass man im schlimmsten Fall etwas Strom verschwendet hat, aber nie Leistung. Bei AMD geht es teilweise drunter und drüber, je nachdem welches CCD man priorisiert oder abschaltet: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/15.html
Das kann zwar alles noch besser werden in Zukunft, aber wenn man sich anguckt wie oft die Rangfolge der einzelnen Configs rotiert, merkt man sofort wie schwierig es ist, das richtig hinzukriegen. Deswegen hinterfrage ich ja den Aufwand, nur um solche Nischenprodukte wie den 7950X3D zu supporten. Für big vs little muss der Scheduler ganz andere Entscheidungen treffen, d.h. die Erfahrungen die man bei cache vs freqency sammelt, nützen beim anderen Problem nicht viel.
dildo4u
2023-03-02, 12:13:57
7800x3D Simulation unter Gameing Last.
https://abload.de/img/power-gamesc5dtf.png
https://abload.de/img/relative-performance-rziwk.png
https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/20.html
XW2rubC5oCY
dargo
2023-03-02, 12:24:19
Also wie bei Zen3 X3D... grob die Hälfte schlägt vs. non X3D durch.
Savay
2023-03-02, 15:55:13
Intel hat es imho leichter, weil der P-Core immer schneller ist als der E-Core.
Dafür ist AMDs Delta halt auch viel kleiner was das angeht!
Was soll denn überhaupt diese Fixierung auf CCD0/1 disabled?
Stock ist was zählt.
Und die Zahlen dazu und ebenso wie der Phoronix Test unter Linux zeigt ist diese Optimierung Manie bis aufs letzte my weiterhin vollkommen Banane...ganz im Ernst...das ist ein Sturm im Wasserglas.
Ich sehe weiterhin das Problem im Großen und Ganzen nicht. :freak:
Der ist OOTB offensichtlich auch ohne den ganzen Kladderadatsch mit dem Treiber und Gaming Bar vollkommen brauchbar.
Und mit Prefer Cache etc. hat man selbst genug Möglichkeiten einzugreifen.
Mal wieder ein absolutes Non-Issue grade auch angesichts der sehr eng gesteckten Zielgruppe.
Niemand der nicht auf den Kopf gefallen ist kauft sich einen 7900X3D oder 7950X3D wenn er *ausschließlich* zockt.
:wink:
Für jemanden der viel zockt aber auch noch oft MT lastige Anwendungen fährt kann der durchaus interessant sein.
Gilt aber genauso für nen i9-13900KPDSU irgendwas...den bräuchte streng genommen auch keiner nur zum Gaming.
Mordekai2009
2023-03-02, 16:03:04
CCD1 Disabled ist simulieren eines AMD Ryzen 7 7800X3D wo CCD0 nur 3DV-Cache drauf ist. War sehr interessant zu lesen bei TechPowerUp.
Tesseract
2023-03-02, 16:48:37
Dafür ist AMDs Delta halt auch viel kleiner was das angeht!
jein. bei intel gibt es eine ziemlich eindeutige hierarchie: P-core > E-core > SMT wobei alle threads den selben cache nutzen. für dual-chiplet mit vcache ist das deutlich weniger trivial, besonders wenn die aktiven threads mehr als 8 sind und die pseudo-7800X3D-variante mit prefer cache an die grenzen kommt.
Savay
2023-03-02, 18:16:51
Ich sage doch gar nicht, dass es bei dem Aufbau weniger trivial ist ihn relativ gesehen ähnlich zu optimieren, sondern nur dass es einfach nicht so starke Auswirkungen hat wenn es doch mal auf dem falschen CDD landet, weshalb es absolut gesehen einfach gar nicht wirklich schlimm ist.
Sieht man doch am Phoronix Test.
Unter Linux hat das Ding ja so nun garkeinen SW Support bisher.
Zumal selbst eine stumpfe Strategie wie "Prefer Cache" bisher eigentlich so gut wie überall schneller ist...außer da wo es halt mal wirklich komplett Wurscht ist wie bei CS:GO, wenn man es nicht grade rein akademisch betrachten will.
Selbst unter Anwendungen ist das Cache CCD oftmals einfach vernachlässigbar langsamer...
dargo
2023-03-02, 18:27:23
:wink:
Für jemanden der viel zockt aber auch noch oft MT lastige Anwendungen fährt kann der durchaus interessant sein.
Gilt aber genauso für nen i9-13900KPDSU irgendwas...den bräuchte streng genommen auch keiner nur zum Gaming.
Ach komm... das ist doch wieder Haarspalterei. Niemand der nichts produktives macht braucht mehr als einen 7800X3D wenn es um AM5 geht. Oder wen soll das privat jucken wenn er auf Ergebnis X paar Sekunden bis Minuten länger wartet? Und wer Geld damit verdient der holt sich eh einen 64-128 Threader. Wie immer reine, persönliche Abwägung wer was braucht.
Tesseract
2023-03-02, 18:37:16
sondern nur dass es einfach nicht so starke Auswirkungen hat wenn es doch mal auf dem falschen CDD landet
genau das ist eben doch der fall weil der worst case bei AMD viel schlimmer ist als bei intel. ist natürlich die minderheit der fälle aber es ist ein ungutes problem für das es scheinbar keine wirklich gute allgemeinlösung gibt und das ganze wird noch absurder wenn man bedenkt, dass die absolut am schlechtesten zu schedulnde CPU, der 7900X3D, neben dem 7800X3D liegt den man wohl als einfachste bezeichnen kann.
Ex3cut3r
2023-03-02, 18:38:40
Ach komm... das ist doch wieder Haarspalterei. Niemand der nichts produktives macht braucht mehr als einen 7800X3D wenn es um AM5 geht. Oder wen soll das privat jucken wenn er auf Ergebnis X paar Sekunden bis Minuten länger wartet? Und wer Geld damit verdient der holt sich eh einen 64-128 Threader. Wie immer reine, persönliche Abwägung wer was braucht.
Also, bei der Shader Komplierung vor Spielstart machen selbst ein 13900k oder ein 7950X3D Sinn, weil bei diesem Szenario witzigerweise alle Kerne und Threads auf 100% benutzt werden, und umso mehr man davon hat, umso weniger muss man warten. Macht daher schon Sinn. Selbst fürs "Gaming"
Savay
2023-03-02, 18:47:15
genau das ist eben doch der fall weil der worst case bei AMD viel schlimmer ist als bei intel.
Aber nur relativ...nicht absolut.
Du kannst doch das Delta in dieser Betrachtung nicht einfach ignorieren...
Der Worst Case ist bei AMD ja eben nicht schlimmer...genau im Gegenteil
Ach komm... das ist doch wieder Haarspalterei. (...)Oder wen soll das privat jucken wenn er auf Ergebnis X paar Sekunden bis Minuten länger wartet?
Nach der Logik braucht aktuell keiner auf nem normalen Desktop mehr als 6 Kerne + SMT.. :freak:
Ich musste hier grade ~700 RAWs in TIFFs wandeln...und das hat MIT GPU Unterstützung schon nur 3,6sek pro Bild gebraucht...und das mal 700.
Das ist schon echt nicht so geil wenn die Kiste während dessen sonst quasi unbenutzbar ist weil die komplette CPU gesättigt ist.
Tesseract
2023-03-02, 18:57:27
Aber nur relativ...nicht absolut.
Du kannst doch das Delta in dieser Betrachtung nicht einfach ignorieren...
Der Worst Case ist bei AMD ja eben nicht schlimmer...genau im Gegenteil
was genau meinst du mit "relativ" und "absolut"? bei HUB wo der scheduler in factorio verkackt ist der simulierte 7800X3D 74% schneller als der stock 7950X3D. sowas kann bei intel schlicht nicht passieren wenn man stur P > E > SMT schedult.
Savay
2023-03-02, 19:01:32
Mit relativ meine ich dass man in 99% der Anwendungsfälle einen absolut vernachlässigbaren Nachteil dadurch hätte indem man stumpf "Cache First" als Fallback setzt!
Dann kann man da halt absolut evtl. nochmal ein paar % rausholen wenn man nicht Cache First macht....so what?!
Spielt im Großen und Ganzen einfach eine untergeordnete Rolle.
Zumal du auch Manuell eingreifen kannst.
Und wieso kann das denn bei Intel bitte nicht passieren das der Scheduler Mist baut?
Es ist doch schon passiert!
Wollen wir jetzt echt die anno Tobak Beispiele rauskramen wo das Scheduling bei Intel nicht auf anhieb geklappt hat?
dargo
2023-03-02, 19:03:58
Nach der Logik braucht aktuell keiner auf nem normalen Desktop mehr als 6 Kerne + SMT.. :freak:
Überraschung... du hast Recht. ;)
Jetzt mal ernsthaft... bei den ganzen Nerds hier im Forum gehts doch nicht selten nur um Neugier oder Lust auf was Neues. Mit "brauchen" hat das rein gar nichts mehr zu tun. Und ich nehme mich da überhaupt nicht raus. Nach einer gewissen Zeit habe ich auch Lust auf was Neues obwohl ich es gar nicht brauche. Letztens erst einen 5800X3D geholt obwohl ich einen sehr schnellen 5800X hatte. Habe ich den 5800X3D gebraucht? Definitiv nicht! Trotzdem geholt einfach so aus Spaß. Wollte AM4 voll ausschöpfen da ich für mich persönlich noch keinen Sinn in AM5 sehe. Das wird sich erst mit Zen6(X3D) wahrscheinlich ändern wenn der dann +80-100% auf einen 5800X3D drauflegt. Der Wechsel auf den 5800X3D hat mich übrigens effektiv 129€ gekostet, von daher wayne... Kleingeld.
Nüchtern betrachtet ist das doch alles albern... da geilt man sich an künstlich erstellten CPU-Limits @720p und Konsorten auf und stellt dann in der Praxis fest, dass es in der eigenen Spielauflösung praktisch nichts bringt. ;D Kurz rum... der 5800X3D ist schon viel zu schnell für eine RX 6800XT, wird Navi31 locker überleben und mit hoher Wahrscheinlichkeit auch noch für Navi41 schnell genug sein. Insbesondere da ich spätestens bei Navi41 bei 4k angekommen bin.
Edit:
Gerade bei GH etwas gestöbert. Für 129€ Aufpreis bekomme ich bei AM5 nicht mal ein gescheites Brett. ;D ;D ;D Ein gescheites Brett muss für mich mindestens ALC1220 haben und PCIe 5.0 sollte es auch haben wenn ich schon die Plattform wechsle die dann wieder einige Jahre halten soll.
Tesseract
2023-03-02, 19:15:20
Und wieso kann das denn bei Intel bitte nicht passieren das der Scheduler Mist baut?
weil die problematik eine fundamental andere ist. P-cores sind in jedem fall schneller als E-cores und teilen sich einen cache. wenn der scheduler mal einen gewissen reifegrad hat ist es fast nicht möglich noch grob was falsch zu machen. das fehlerpotenzial bleibt beim 79x0X3D immer größer als bei intel weil es architekturbedingt ist, zum einen weil die chiplets getrennte caches mit IF dazwischen haben und zum anderen weil je nach code das eine oder das andere chiplet schneller sein kann.
Savay
2023-03-02, 19:24:15
weil die problematik eine fundamental andere ist.
P-cores sind in jedem fall schneller als E-cores und teilen sich einen cache.
Sehe ich ehrlich gesagt weiterhin nicht wenn man nicht aus irgendeinem Grund ständig ein 100% Optimum erwartet.
Und E Core Cluster und die P-Cores sind voneinander defacto genauso weit weg wie die CCDs und teilen sich auch keinen Cache...wo ist an dem Punkt bis auf IPC und Takt der Unterschied?
Bis auf die Tatsache dass das "Freq CCD" beim Ryzen gelegentlich ein bisschen schneller sein kann als das "Cache CCD", aber nicht muss, sehe ich noch keinen der sich mit einer entsprechenden Strategie (bspw. Cache First) abfangen ließe.
wenn der scheduler mal einen gewissen reifegrad hat ist es fast nicht möglich noch grob was falsch zu machen.
Den gewissen Reifegrad sieht man Grundsätzlich im ersten Release?
Wo man selbst da Totalausfälle schon suchen muss?
das fehlerpotenzial bleibt beim 79x0X3D immer größer
Wo wäre das große Fehlerpotenzial bei Cache First verglichen mit nem Stock 79x0X?
Und das der Scheduler jetzt endlich mal Spiele die es erkennt im Zweifel auf ein fixes CCD pinnt ist ein Fortschritt...kein Rückschritt.
Das manche Spiele die Dual CCD CPUs nicht mögen ist ja nun nichts neues.
Tesseract
2023-03-02, 20:04:30
Und E Core Cluster und die P-Cores sind voneinander defacto genauso weit weg die die CCDs und teilen sich auch keinen Cache...wo ist an dem Punkt bis auf IPC und Takt der Unterschied?
doch, tun sie. P cores haben einen eigenen L2, E cores teilen sich zu viert einen L2, aber alle cores haben den gemeinesamen L3, deswegen verlieren die P-cores auch L3 cache wenn E-cores fehlen. mit einem IF ist das nicht vergleichbar.
Bis auf die Tatsache dass das "Freq CCD" beim Ryzen gelegentlich schneller sein kann als das "Cache CCD"
genau darum geht es aber. hätte ein chiplet sowohl mehr cache als auch gleiche oder höher taktraten sähe die sache gleich anders aus. wird mit zen 5 vielleicht auch so kommen.
Wo wäre das große Fehlerpotenzial bei Cache First verglichen mit nem Stock 79x0X?
die beiden oben genannten probleme. cache first löst diese probleme nicht sondern macht nur das zweite statistisch unwahrscheinlicher weil der cache meistens mehr bringt als der takt.
Savay
2023-03-02, 20:14:17
doch, tun sie. P
Ach das ist doch Haarspalterei.
Dafür sind sie einfach viel viel Langsamer zuzüglich zum Latenznachteil...der nun mal einfach on top noch da ist.
https://images.anandtech.com/doci/17047/12900K%20Bounce.png
Also wo genau ist der fundamentale Unterschied?
Defakto hast du Cluster...von denen du nur einen für Threads nutzen möchtest von denen der MT wirklich abhängt...zumindest bei Latenzkritischen Spielen
Und du willst auch nicht ständig zwischen den Clustern hin und her schieben.
genau darum geht es aber. hätte ein chiplet sowohl mehr cache als auch gleiche oder höher taktraten sähe die sache gleich anders aus. wird mit zen 5 vielleicht auch so kommen.
Hätte Hätte Fahrradkette.
Du kannst Cache First doch erzwingen und einfach behaupten Cache=defakto "P-Core"...non-Cache=defakto "E-Core'"
Gibt doch auch Leute die ihre E-Cores abstellen....und da verlieren die irgendwie wesentlich mehr "CPU" durch.
Wo ist das Problem und was passiert denn unter Linux? Da sieht es ja schon sehr stark nach Cache First aus.
Wäre die CPU eine bessere gewesen nur weil AMD den CCD1 auf 5,4GHz begrenzt hätte?
cache first löst diese probleme nicht sondern macht nur das zweite statistisch unwahrscheinlicher weil der cache meistens mehr bringt als der takt.
Ich habe nie behauptet das es das 100% löst, sondern nur das der Unterschied gering genug ist, dass es wurscht ist.
Der Rest ist davon abgesehen ein Multi CCD Problem...kein X3D spezifisches das eine 79x0X3D spezifische Optimierung braucht...
Und warum ist das jetzt plötzlich beim X3D so ein absolut unglaubliches Drama?!
Wieso sollte sich grade das nicht mit einer einfachen Strategie wie bspw. CCD0 > CCD0 SMT > CCD1 und einem ausgereifteren Scheduler ausreichend lösen lassen?
Oder ganz zur Not mit nem manuellen Eingriff?
Wie mach es denn Intel?
Die wollen doch auch nicht alle möglichen Gaming Threads auf den E-Cores haben und ignorieren die da meines Wissens meistens.
Tesseract
2023-03-02, 21:32:31
Also wo genau ist der fundamentale Unterschied?
der fundamentale unterschied ist, dass sich die cache slices bei intel nur um wenige prozent unterscheiden wärend bei zen 4 der latenzunterschied zwischen lokal und IF fast faktor fünf beträgt. ADL kann man nicht direkt mit zen 4 vergleichen da die ganze architektur anders ist aber auch da ist es am papier faktor ~2 mehr für IF.
Defakto hast du Cluster...von denen du nur einen für Threads nutzen möchtest von denen der MT wirklich abhängt...zumindest bei Latenzkritischen Spielen
Und du willst auch nicht ständig zwischen den Clustern hin und her schieben.
da kann man nichts "hin und her schieben", logisch ist es ein großer cache mit relativ homogener latenz.
Du kannst Cache First doch erzwingen und einfach behaupten Cache=defakto "P-Core"...non-Cache=defakto "E-Core'"
das ist durch den getrennten cache aber nicht das gleiche und aus reiner coreperformancesicht auch nur wenn wenn der code mit cache besser skaliert.
Wo ist das Problem und was passiert denn unter Linux?
was passiert in welchem szenario?
Ich habe nie behauptet das es das 100% löst, sondern nur das der Unterschied gering genug ist, dass es wurscht ist.
und diese behauptung ist momentan nicht haltbar und auf lange sicht bestenfalls fragwürdig.
Wieso sollte sich grade das nicht mit einer einfachen Strategie wie bspw. CCD0 > CCD0 SMT > CCD1 und einem ausgereifteren Scheduler ausreichend lösen lassen?
das würde im bereich ab 9 threads enorm viel leistung liegen lassen. solange spiele nicht so viele threads nutzen wäre das eine recht konsistente lösung aber für einen 7950X3D bezahlt man keine 8-core sondern 16-core preise und dementsprechend sollte er wohl auch skalieren.
Oder ganz zur Not mit nem manuellen Eingriff?
das ziel sollte sein genau das zu vermeiden.
Wie mach es denn Intel?
Die wollen doch auch nicht alle möglichen Gaming Threads auf den E-Cores haben und ignorieren die da meines Wissens meistens.
sobald die P-cores voll sind kommen die sicher auf die E-cores, was anderes würde keinen sinn machen. dafür gibt es ja den thread director.
Flusher
2023-03-02, 21:38:34
Gerade den Test des 7900X3D von GamersNexus gesehen. Scheint doch ziemlich durchwachsen zu sein und die Entscheidung den Cache nur auf einen CCD zu setzen führt dazu, dass das Ding in Games wie ein 6-Kerner agiert. Da wird ein 7800X3D das Teil wohl in Spiele-Benchmarks versägen.
Schade - ich hab den 7900X3D wirklich im Blick gehabt um meinen altehrwürdigen 3900X in Rente zu schicken.
Jetzt steh ich vor dem Dilemma ob und wie ich updaten soll - jetzt noch auf einen 5800X3D wechseln und auf Ryzen 8x warten? Der kostet nur die Hälfte, ich brauch nicht auf ein sündhaft teures AM5 Brett zu wechseln und bietet in Games selten weniger Performance als der 7900X3D.
Tatsächlich benutz ich die Kiste zu 80% für Games und sonst für Bild und Video-Bearbeitung. Aber mit einem 5800X3D würde der Cinebench kleiner werden :freak:
Savay
2023-03-02, 21:55:51
da kann man nichts "hin und her schieben", logisch ist es ein großer cache mit relativ homogener latenz.
Threads beliebig zwischen den Clustern schieben...dann muss doch aus dem L1 & L2 kopiert werden oder etwa nicht? Oder ist der LLC Inklusiv?
Und zwischen den Clustern ist es ja deshalb eben trotzdem nicht komplett homogen...sondern eben nur relativ.
Dafür ist es in nem CCX bei AMD relativ gesehen "homogener".
das ist durch den getrennten cache aber nicht das gleiche und aus reiner coreperformancesicht auch nur wenn wenn der code mit cache besser skaliert.
Das wiederspricht sich aber irgendwie mit dem wie es Intel offensichtlich in der Regel handhabt und deiner folgenden Aussage:
sobald die P-cores voll sind kommen die sicher auf die E-cores, was anderes würde keinen sinn machen. dafür gibt es ja den thread director.
Wo ist da dann der Unterschied zu CCD0 > CCD0 SMT > CCD1?
was passiert in welchem szenario?
im Szenario ohne Scheduler der nennenswert anders sortiert als bei anderen Multi CCD CPUs.
und diese behauptung ist momentan nicht haltbar und auf lange sicht bestenfalls fragwürdig.
Nicht haltbar wegen diesem abstrusen Factorio?!
Was ist dann mit den ganzen Beispielen zum ADL Launch?
Wenn du jetzt nur lange genug suchst, wirst du sicher auch heute nochmal Hickups im Intel Scheduler finden.
Zudem wären alle Multi CCD CPUs seit eh und je komplett "fragwürdig"...und das zu behaupten ist mMn bislang nicht wirklich haltbar.
das würde im bereich ab 9 threads enorm viel leistung liegen lassen.
Enorm viel?
Dann hätte Intel ein massives Problem...die haben ja dann generell nur 8 "Enorm schnelle" Threads.
Da gibt es ja nichtmal die Option 16 davon zu nutzen.
Und ich denke der IF ist so grauenvoll, dass man das normalerweise gar nicht will, weil er ja soviel Langsamer ist!?
Cyberpunk spawnt bspw. 16 Threads auf nem 5950X...übrigens genauso wie auf nem 5800X und ist dadurch dann vielleicht 7-8% schneller.
(Mit RT und höherer Last dann sogar eher weniger.)
Was aber auch tw. am Cache liegen könnte...dessen Gewinn ab nem gewissen Punkt ja eh einer Sättigung unterliegt.
das ziel sollte sein genau das zu vermeiden.
Das Ziel sind also zwingend 100% auch wenn 95% im ersten Step reichen... :conf2:
FarCry
2023-03-02, 22:33:27
Tatsächlich benutz ich die Kiste zu 80% für Games und sonst für Bild und Video-Bearbeitung. Aber mit einem 5800X3D würde der Cinebench kleiner werden :freak:
Was genau spricht dann gegen 7950X3D ?
Tesseract
2023-03-02, 22:36:33
Wo ist da dann der Unterschied zu CCD0 > CCD0 SMT > CCD1?
wenn zwei threads die selben oder ähnliche resourcen verwenden aber beide auf dem selben core am CCD0 landen laufen beide mit jeweils ~50% performance. der thread director analysiert die tatsächliche auslastung des cores und das OS sollte in diesem fall den zweiten thread auf einen E-core schedulen was dann wohl so ~60%(?) schneller wäre als SMT zu priorisieren.
Ohne funktionierenden Scheduler der nennenswert anders sortiert als bei anderen Multi CCD CPUs.
konkreses beispiel oder genauere erkläung bitte, ich kann mit dieser aussage nix anfangen.
Nicht haltbar wegen diesem abstrusen Factorio?!
factorio ist bei weitem nicht das einzige beispiel, nur das extremste weil es am meisten vom vcache profitiert. bei HUB hatte der simulierte z.B. 7800X3D 18% bessere min-fps als der stock 7950X3D in SotTR.
Was ist dann mit den ganzen Beispielen zum ADL Launch?
launch ist uninteressant. mir geht es darum wie konsistent das ganze auf lange sicht ist und das nicht nur bei AAA sondern auch obskuren titeln und das auch noch nachdem die nächste generation raus ist usw.
Wenn du jetzt nur lange genug suchst, wirst du sicher auch heute nochmal Hickups im Intel Scheduler finden.
ich bitte darum. würde mich sehr intereressieren.
Enorm viel?
Dann hätte Intel ein massives Problem...die haben ja dann generell nur 8 "Enorm schnelle" Threads.
ja, enorm viel. im bereich ~16 auslastende threads ist E/CCD1 > SMT ~50-100% schneller als als SMT > E/CCD1. in den allermeisten fällen macht es absolut keinen sinn einen zweiten virtuellen thread auf einen core zu schedulen wenn irgendwo noch ein anderer core komplett idle ist.
Cyberpunk spawnt bspw. 16 Threads auf nem 5950X genau wie auf nem 5800X und ist dadurch dann vielleicht 7-8% schneller.
Was auch am Cache liegen könnte...und ab nem gewissen Punkt einer Sättigung unterliegt.
liegt daran dass nicht alle threads durchgehend die cores auslasten bzw. was anderes limitiert.
Das Ziel sind also 100% auch wenn 90% im ersten Step reichen... :conf2:
ich weiß nicht was du mir damit sagen willst. händische lösungen sind schlecht weil diese nicht alles abdecken und wahrscheinlich in zukunft irgendwann vernachlässigt werden. generelle und langfristige lösungen sind immer besser als einzelhackjobs.
Savay
2023-03-02, 23:01:45
wenn zwei threads die selben oder ähnliche resourcen verwenden aber beide auf dem selben core am CCD0 landen laufen beide mit jeweils ~50% performance.
Nen E-Core hat aber selbst eher 50% der Performance eines P Cores.
Wo ist da denn jetzt der fundamentale Unterschied?
konkreses beispiel oder genauere erkläung bitte, ich kann mit dieser aussage nix anfangen.
Ich meine den kompletten Phoronix Test.
https://www.phoronix.com/review/amd-ryzen9-7950x3d-linux
factorio ist bei weitem nicht das einzige beispiel, nur das extremste weil es am meisten vom vcache profitiert. bei HUB hatte der simulierte z.B. 7800X3D 18% bessere min-fps als der stock 7950X3D in SotTR.
Und woher weißt du das es bei Factorio nur am VCache liegt?
Wie sähe es eigentlich mit "Prefer Cache" aus?
Greift das "neue" Scheduling überhaupt oder wird da aus irgend einem Grund das alte benutzt?
Ist das mit den min FPS auf ner nV GPU?
Sicher das der Treiber da nicht auch irgendwas für den Ryzen eher unschönes macht? :wink:
Das nV auf Ryzen im reinen CPU Limit relativ gesehen nicht so ganz so pralle fluppt wissen wir ja.
launch ist uninteressant.
Wenn der Launch uninteressant ist, warum diskutieren wir dann?! :freak:
mir geht es darum wie konsistent das ganze auf lange sicht ist und das nicht nur bei AAA sondern auch obskuren titeln und das auch noch nachdem die nächste generation raus ist usw.
Nicht konsistenter oder inkonsistenter als jede andere Multi-CCD CPU zuvor und das ist echt nichts worauf man spezifisch auf den 7950X3D optimieren müsste...und darum geht's hier aktuell eigentlich.
ich bitte darum. würde mich sehr intereressieren.
https://www.techpowerup.com/review/rtx-4090-53-games-core-i9-13900k-e-cores-enabled-vs-disabled/2.html
Wie man sieht ist das auch noch nicht 100% Perfekt...und es hängt klar am Alter der Spiele...
Das von dir genannte SoTR ist ja nun auch nicht mehr allzu taufrisch und hat die Dual CCD CPUs eh noch nie besonders gemocht...war den Entwicklern bisher aber offensichtlich egal.
Zumal es angesichts der Base FPS relativ wurscht ist...und da es entwickelt wurde als es derartig Heterogene CPU noch gar nicht wirklich in nennenswerter Zahl gab auf dem Desktop.
in den allermeisten fällen macht es absolut keinen sinn einen zweiten virtuellen thread auf einen core zu schedulen wenn irgendwo noch ein anderer core komplett idle ist.
Außer das umkopieren kostet viel mehr...genau das war doch dein Argument mit dem IF.
liegt daran dass nicht alle threads durchgehend die cores auslasten bzw. was anderes limitiert.
Und wie oft kommt das nicht vor? :rolleyes:
Also zwischen 9 und 16 Threads die komplett die Cores auslasten wo und keinesfalls mehr als 16 Threads erzeugt werden könn(t)en?
Sorry aber abseits vom 7z Benchmark habe ich das noch nie gesehen...und ich nutze relativ viele Anwendungen die mehr als 16T nutzen können.
Wenn sie 16 auslasten...dann auch meist alle 32 zumindest partiell, wenn nicht gar vollständig.
Und wenn 16 ausreichen und nicht mehr erzeugt werden (können)...dann sind die idR auch nie komplett ausgelastet.
whändische lösungen sind schlecht weil diese nicht alles abdecken und wahrscheinlich in zukunft irgendwann vernachlässigt werden.
Es muss doch gar nicht alles abdecken...
Und es liegt doch im Zweifel an dir selbst ob du es vernachlässigst.
ich weiß nicht was du mir damit sagen willst.
Und ich weiß ehrlich gesagt nicht was du mit mir dem ganzen sagen willst.
Lt. deinen Aussagen ist jede Multi CCD CPU seit Jahren quasi unbrauchbar! :freak:
Oranje7
2023-03-02, 23:07:08
Lass Tesseract doch Tesseract sein....
troll undso
Sardaukar.nsn
2023-03-03, 07:06:07
Jetzt steh ich vor dem Dilemma ob und wie ich updaten soll - jetzt noch auf einen 5800X3D wechseln und auf Ryzen 8x warten? Der kostet nur die Hälfte, ich brauch nicht auf ein sündhaft teures AM5 Brett zu wechseln und bietet in Games selten weniger Performance als der 7900X3D.
Tatsächlich benutz ich die Kiste zu 80% für Games und sonst für Bild und Video-Bearbeitung. Aber mit einem 5800X3D würde der Cinebench kleiner werden :freak:
Der 5800x3D ist im Abverkauf noch mal günstiger geworden, 314€ inkl. Versand. https://www.idealo.de/preisvergleich/OffersOfProduct/202115887_-ryzen-7-5800x3d-amd.html
Bei 80% Gaming würde ich mir den holen, 3900x verkaufen und dann ganz entspannt in die Zukunft blicken.
aufkrawall
2023-03-03, 08:02:59
Wenn ich mir die Skalierung bei HU mit DDR5 anschaue (Widerspricht aber bisher so ziemlich allen anderen Tests? Waren die so ein großer Müll? Möglich wäre es ja...), hätte ich lieber einen 7600 als einen 5800X3D. Mit dem 5800X3D wären die 1% low in Fortnite oder Hogwarts wahrscheinlich fast gar nicht besser als mit dem 11400F, und der war schon vor zwei Jahren spottbillig + billiges Board. Alles nicht sehr sexy im Billig-Bereich, im Grunde bleibt da nur die Keule Zen4D, 13600K+ oder auf Zen 5 warten...
Wie ist jetzt eigentlich die Situation bei AM5 mit Bootzeiten, Bugs etc.? Der DDR5 OC RPL läuft bei Bro mit 0 Bugs, bootet instant und hat <10W Idle...
user77
2023-03-03, 08:06:18
Jetzt steh ich vor dem Dilemma ob und wie ich updaten soll - jetzt noch auf einen 5800X3D wechseln und auf Ryzen 8x warten? Der kostet nur die Hälfte, ich brauch nicht auf ein sündhaft teures AM5 Brett zu wechseln und bietet in Games selten weniger Performance als der 7900X3D.
Tatsächlich benutz ich die Kiste zu 80% für Games und sonst für Bild und Video-Bearbeitung. Aber mit einem 5800X3D würde der Cinebench kleiner werden :freak:
Ich denke mal du spielst in 3440*1440 mit der 3090?
Und das ist in 2560*1440 und ner 4090, also bei Dir würde alles noch mehr zusammenrücken...
https://abload.de/img/screenshot2023-03-030sdiub.png
dargo
2023-03-03, 08:08:01
@aufkrawall
Ich frage mich jedes Mal was du dir da für Kopf über eine schnelle CPU mit deiner lahmen RTX 3060 machst? Dafür reicht schon locker ein billiger R5 5600 aus. :freak: Von den schnelleren Boliden wirst du eh nichts merken.
dildo4u
2023-03-03, 08:09:50
Hogwarts scheint ein spezieller Fall zu sein Fortnite rennt ok bis zu 50% Last aber über 200fps mit 5800X3D.
https://youtu.be/a-1PJCTqT6A?t=382
DX12 scheint als API allgemein Probleme zu machen die XBox fällt mit RT zurück obwohl die GPU größer ist.
Das ist nicht nur der Overhead von Nvidias Treiber.
https://youtu.be/IINkzUerDHU?t=228
Twodee
2023-03-03, 08:14:07
@aufkrawall
Ich frage mich jedes Mal was du dir da für Kopf über eine schnelle CPU mit deiner lahmen RTX 3060 machst? Dafür reicht schon locker ein billiger R5 5600 aus. :freak: Von den schnelleren Boliden wirst du eh nichts merken.
Er kompiliert doch den ganzen Tag Shader :freak:
dargo
2023-03-03, 08:14:52
Er kompiliert doch den ganzen Tag Shader :freak:
Achso... völlig vergessen, na dann. ;D Unter 13900KS und 7950X3D nichts zu gebrauchen! 111elf
aufkrawall
2023-03-03, 08:21:22
Ich frage mich jede Mal was du dir da für Kopf über eine schnelle CPU mit deiner lahmen RTX 3060 machst? Dafür reicht schon locker ein billiger R5 5600 aus. :freak: Von den schnelleren Boliden wirst du eh nichts merken.
Geht um die 1% low. Je weiter das CPU-Limit weg ist, desto weniger eklig sind Streaming-Einbrüche etc. Das trifft auf Fortnite (weshalb dildos Video auch mal wieder unqualifiziert ist, da rennt der Spieler nur in einer Region rum...) zu, Hogwarts oder auch Witcher 3 Remaster (RT aus). 5600 ist btw. nicht schneller als ein 11400F, wenn beide mit bestem RAM (hab ich) laufen und man die rBAR-Problemfälle bei Intel berücksichtigt. Die Leistung/€ gabs bei Intel also schon lange vor AMD.
Aber ja, "brauchen" sieht anders aus. Aber man sollte wissen, was die Optionen sind. Und Zen 3D ist ne "Luftpumpe". Würd mir Bro wahrscheinlich für 2-300€ inkls. X570S-Board verkaufen, aber wär trotzdem Geldverschwendung...
Er kompiliert doch den ganzen Tag Shader :freak:
Witzig. Als Zen neu war, war MT-Perfomance für die Fanboys der heiße Scheiß. Wie seltsam. *gähn*
dildo4u
2023-03-03, 08:32:38
Die stotter Probleme mit UE4/5 lassen sich nicht mit mehr CPU Power Lösen das ist keine neue Erkenntnis, ich kann Fortnite jetzt auf PS5 testen und es läuft 1A trotz Zen 2.
dargo
2023-03-03, 08:35:45
Geht um die 1% low. Je weiter das CPU-Limit weg ist, desto weniger eklig sind Streaming-Einbrüche etc. Das trifft auf Fortnite (weshalb dildos Video auch mal wieder unqualifiziert ist, da rennt der Spieler nur in einer Region rum...) zu, Hogwarts oder auch Witcher 3 Remaster (RT aus). 5600 ist btw. nicht schneller als ein 11400F, wenn beide mit bestem RAM (hab ich) laufen und man die rBAR-Problemfälle bei Intel berücksichtigt. Die Leistung/€ gabs bei Intel also schon lange vor AMD.
So war das auch nicht gemeint von mir. Von einem 11400F + RTX 3060 macht überhaupt keine Neuanschaffung bei CPU Sinn. :tongue:
aufkrawall
2023-03-03, 08:37:37
Die stotter Probleme mit UE4/5 lassen sich nicht mit mehr CPU Power Lösen das ist keine neue Erkenntnis, ich kann Fortnite jetzt auf PS5 testen und es läuft 1A trotz Zen 2.
Sorry, aber hast du Zugriff auf Zen 3D und 13700K-Systeme und weißt, wie mit denen Fortnite läuft? Wenn nicht, warum erzählst du mir dann einen? Und warum sollte mich die PS5 interessieren? Die läuft im low details-Modus mit 120fps. Was du wieder in einer Zeile für eine Menge an Quatsch unterbringst...
dildo4u
2023-03-03, 08:41:16
Hast recht zocke ich nicht da die PC Umsetzung Müll ist es sei den es hat sich Grundlegend was mit den letzten Updates geändert.
Da aber immer neuen Skins kommen sollten das Shader Caching immer noch Probleme machen.
aufkrawall
2023-03-03, 08:43:12
Da hast du nicht unrecht. Die Performance-Probleme wurden mitunter stark gelindert, aber gefixt sind sie auch nicht. Schneller PC/CPU kann keine Wunder vollbringen, aber hilft.
dargo
2023-03-03, 08:43:39
Ich finde das immer wieder amüsant wenn Banannensoftware am PC als Maßstab genommen wird. ;D Immer mehr Brechstange drauf hauen. :ulol3:
dildo4u
2023-03-03, 08:48:14
Es ist schon wichtig wie UE5 läuft da es immer weniger AAA Engine Alternativen gibt( neue Tomb Raider / Witcher Teile nutzen UE) früher war zumindest die PC Umsetzung von Epic selber ok.
Bis das gelöst ist würde ich nicht auf die Idee kommen tonne Kohle in PC Hardware zu versenken aber Jeder wie er will.
dargo
2023-03-03, 08:51:46
Es ist schon wichtig wie UE5 läuft da es immer weniger AAA Engine Alternativen gibt...
Halte ich für Quatsch. Ich zocke nur AAA und wenn ich das so überblicke ist kaum UE4 dabei. Wird bei UE5 nicht viel anders sein... eher Ausnahme als die Regel.
neue Tomb Raider / Witcher Teile nutzen UE
Na und?
GoW, HZD, Uncharted, The Last of Us Part 1... alles top Spiele aus dem Hause Sony und kein einziges nutzt die UE4. Nur Days Gone kam damit. Nächstes Farcry kommt endlich mit Snowdrop. (y)
dildo4u
2023-03-03, 08:54:29
Hast du nicht die neueren Tomb Raider und Wichter Games gezockt die sind jetzt UE5.
aufkrawall
2023-03-03, 08:55:48
Hast du nicht die neueren Tomb Raider und Wichter Games gezockt die sind jetzt UE5.
Und Mass Effect, Stalker...
Völlig weltfremde Meinung. Außerdem könnte er sonst auch Strange Brigade zum Maßstab machen und sich eine 2C-CPU kaufen...
dargo
2023-03-03, 08:57:40
Hast du nicht die neueren Tomb Raider und Wichter Games gezockt die sind jetzt UE5.
Wenn das scheiße läuft dann kaufe ich das nicht, so einfach kann es manchmal sein. ;) Oder alternativ schaue ich es mir unter Linux an. ;)
Cubitus
2023-03-03, 09:22:49
Unter Linux ;D
Da musst froh sein wenn überhaupt iwelche Games laufen
Hab einen Kollegen der schwört auf sein Linux Mint.
Blöderweise läuft halt kaum ein neues Spiel damit, und Treiber sind auch immer ein Thema. Ich denke nicht das da überhaupt z.B ein 7950er anständig läuft.
Ich frag mich sowieso warum hat AMD nicht einfach seinem 7950er keine zwei VCaches spendiert, dann gebe es weniger Probleme mit dem Scheduling
Exxtreme
2023-03-03, 09:26:21
Ich frag mich sowieso warum hat AMD nicht einfach seinem 7950er keine zwei VCaches spendiert, dann gebe es weniger Probleme mit dem Scheduling
Womöglich bringt das nicht so viel und kostet viel mehr. Und um Intel zu schlagen reicht auch die jetzige Lösung.
dargo
2023-03-03, 09:26:21
Jetzt kommt Cubitus mit seinem Halbwissen bezüglich Linux wieder an. ;D
Ich frag mich sowieso warum hat AMD nicht einfach seinem 7950er keine zwei VCaches spendiert, dann gebe es weniger Probleme mit dem Scheduling
Weil man nicht sofort sein ganzes Pulver verschießt. Für Intel reicht das erstmal und falls nötigt werden bei Zen5 beide CCDs Vcache bekommen.
raffa
2023-03-03, 09:32:39
Womöglich bringt das nicht so viel und kostet viel mehr. Und um Intel zu schlagen reicht auch die jetzige Lösung.
Die Idee dahinter ist (neben den Kosten), dass ohne vcache der Takt höher sein kann
Exxtreme
2023-03-03, 09:35:40
Die Idee dahinter ist (neben den Kosten), dass ohne vcache der Takt höher sein kann
Ich glaube, den höheren Takt nimmt man einfach so mit. ;) War aber womöglich nicht ein explizites Ziel das so zu machen. Die jetzige Lösung verkompliziert einige Dinge nämlich sehr arg.
Cubitus
2023-03-03, 09:39:55
Womöglich bringt das nicht so viel und kostet viel mehr. Und um Intel zu schlagen reicht auch die jetzige Lösung.
Wahrscheinlich ein Kostenfaktor ja, aber es würde etwas bringen, da die Kompatibilität besser wäre. AMD könnte trotzdem seine Treiber aktualisieren, um das Scheduling zwischen den CCDs zu verbessern. Aber die ganze Sache mit der Whitelist wäre dann erst einmal vom Tisch.
Jetzt kommt Cubitus mit seinem Halbwissen wieder an.
Eher meine Beobachtung, Linux an sich ist ein Flickenteppich, eine richtige Bastelei. Das einzige Linux, was einigermaßen für einen Wechsel sprechen würde, wäre Linux Mint, da es für dieses System einigermaßen Anwendungen und Treiber von Drittherstellern gibt, die man so aus dem Windowsumfeld kennt.
Und mit der Installation kommt auch ein nicht ganz so geübter Anwender klar.
Nichtsdestotrotz, wenn man zu 95 Prozent spielt, dann ist man mit einem Windows System sicherlich weniger eingeschränkt.
Und auch da läuft bei weitem nicht immer alles rund. Bis dann mal vernünftige Updates für Linux Versionen von Spielen kommen, wenn überhaupt, dauert es ewig. Neueste Hardware und vollen Support kannst du bei Linux sowieso vergessen.
Die Idee dahinter ist (neben den Kosten), dass ohne vcache der Takt höher sein kann
Der Hohe Takt reißt es auch raus, sieht man mal wie toll die CPU performend wenn CCD0 deaktiviert ist...
Eine "Gaming" CPU soll doch einfach zu handeln zu sein. Wenn ich spielen will, dann ohne größeren Aufwand.
Die jetzige Lösung verkompliziert einige Dinge nämlich sehr arg.
Sehe ich genauso
aufkrawall
2023-03-03, 09:45:48
Dass er überhaupt Linux anführt, ist bei UE D3D12-Titeln eh völlig witzlos. Das läuft mit VKD3D-Proton gegenüber nativem D3D12 maximal gleich gut, nix magic Stutter Fix. Komplett schwachsinnige Diskussion, aber Hauptsache Tetris hat auf der 350€ CPU gute Frame Times...
Flusher
2023-03-03, 09:50:52
Was genau spricht dann gegen 7950X3D ?
Der Preis ;D
Der 5800x3D ist im Abverkauf noch mal günstiger geworden, 314€ inkl. Versand. https://www.idealo.de/preisvergleich/OffersOfProduct/202115887_-ryzen-7-5800x3d-amd.html
Bei 80% Gaming würde ich mir den holen, 3900x verkaufen und dann ganz entspannt in die Zukunft blicken.
Ist eben die Überlegung - der 7950X3D kostet doppelte soviel und da ist noch nicht mal der Wechsel des Bretts und Speichers mit eingerechnet. Aber er ist nicht doppelt so schnell in Spielen.
Ich denke mal du spielst in 3440*1440 mit der 3090?
Und das ist in 2560*1440 und ner 4090, also bei Dir würde alles noch mehr zusammenrücken...
https://abload.de/img/screenshot2023-03-030sdiub.png
Ja wenn man sich die 1%-FPS anschaut dann liegt die Differenz zwischen beiden CPUs bei rund 22 %. Von daher ist die Preis-Leistung beim 7950X3D katastrophal.
Ich denke ich werde mal erst beim 5800X3D zuschlagen und dann auf den Zen 5 warten in der Hoffnung, dass auch die Platformpreise sich etwas normalisiert haben.
Mal ehrlich: Was da für Preise verlangt werden für irgendwelche billig Bretter ist doch einfach nur gestört. Wenn man jetzt im Preisvergleich nach dem günstigsten AM5 Board sucht kommt aus dem staunen kaum heraus. Da fängt es bei 175 € erst an.
00-Schneider
2023-03-03, 10:26:19
Ist eben die Überlegung - der 7950X3D kostet doppelte soviel und da ist noch nicht mal der Wechsel des Bretts und Speichers mit eingerechnet. Aber er ist nicht doppelt so schnell in Spielen.
Ja wenn man sich die 1%-FPS anschaut dann liegt die Differenz zwischen beiden CPUs bei rund 22 %. Von daher ist die Preis-Leistung beim 7950X3D katastrophal.
Ich gebe dir recht. Du musst aber auch bedenken, das der 5800X3D schon älter ist und der 7950X3D gerade erst raus kam. Und für das Topmodell bezahlt man immer einen extra "Premiumaufschlag". Das ist bei den meisten PC-Komponenten(siehe 4090) der Fall und gilt generell auch für andere Hardware, z.b. TVs.
UE5 wurde primär so entwickelt, wie es jetzt perfekt läuft in der Version 5.1 für die PS5. Die UE4 wurde unter anderen Voraussetzungen entwickelt und enthielt IIRC recht viel NV-eignenen Featurecode. Das ist bei UE5 gänzlich anders. Die bedeiden Projekte sind mMn überhaupt nicht vergleichbar. UE5 ist ja dennoch schwer zu handhaben, aber für die Entwickler lohnt es sich trotzdem, weil sie für die PS5 das optimale Ergebnis erhalten.
AMD scheint übrigens RDNA3 genau auf diese Bedürfnisse hin optimiert zu haben, Fortnite mit UE5.1 läuft ja auf RDNA3 sehr sehr gut mit Lumen und Nanite (höchste Einstellungen), wie HWU testete. Leider hab ich hierzu noch keinen Vergleich mit Fortnite auf nem X3D mit 5.1 gesehen, aber ich wette, dass grade bei der UE5 der Cache richtig durchstarten wird (und schneller RAM i.Ü. noch wichtiger wird), weil hier grade mit DS auf dem PC wahnwitzige Datenmengen verschoben werden müssen, anders als auf den Konsolen, die direkt aus der SSD komprimiert in die GPU streamen können.
dargo
2023-03-03, 11:42:32
@HOT
Du vermischt hier wieder Äpfel mit Orangen. Das Thema ist nicht ob UEX auf NV/AMD besser läuft oder nicht bezüglich Framerate. Es geht um die Frameausgabe. Und diese ist auch bei RDNA3 + UE5.1 noch nicht ganz überzeugend, zumindest in Fortnite. Wobei ich da auch nur Gameplayvideos beurteilen kann, spiele das Zeug nicht selbst.
8Kw0GBdt1yU
Ein komplettes Fail ist es aber auch nicht, das wäre wieder übertrieben zu behaupten.
Matrix316
2023-03-03, 13:06:15
Die Idee dahinter ist (neben den Kosten), dass ohne vcache der Takt höher sein kann
Wobei ich mich da frage, woher Windows weiß, welche Software durch höheren Takt mehr profitiert als durch mehr Cache? Und warum hat man dann den 7950 und 7900er sowieso als 3D rausgebracht? Da hätte man auch gleich den 7800er nur nehmen können, wenn ein 7950 am Ende eh nur einer ist in Games... :uponder: Und wird Software, die alle 16 Kerne dann nutzt nicht auch eingeschränkt durch den niedrigeren Takt der 3D Kerne?
Exxtreme
2023-03-03, 13:11:42
Wobei ich mich da frage, woher Windows weiß, welche Software durch höheren Takt mehr profitiert als durch mehr Cache?
Windows weiss das nicht. Man muss das irgendwo hinterlegen. Und zweitens, selbst wenn Windows mit der Zuweisung der Kerne falsch liegt, langsam wird die Software trotzdem nicht laufen.
Dr. Lloyd
2023-03-03, 13:34:40
Und warum hat man dann den 7950 und 7900er sowieso als 3D rausgebracht? Da hätte man auch gleich den 7800er nur nehmen können, wenn ein 7950 am Ende eh nur einer ist in Games...
Eine mögliche Theorie ist, dass AMD die normalen Zen4-Chiplets nicht abverkauft bekommt, aber jetzt bei den Ryzen 9 mit X3D weiterhin verwenden kann. Das würde auch erklären, weshalb der 7800X3D über einen Monat später kommt.
Technisch kann man auch argumentieren, dass man hier das Beste aus beiden Bereichen bekommt. Ich glaube jedoch eher an die Theorie. :-)
aufkrawall
2023-03-03, 13:37:15
Windows weiss das nicht.
Teilweise schon, das XBox-Overlay erkennt einige populäre Spiele. Die dürften dann ootb das Cache-CCD priorisieren lassen.
Lehdro
2023-03-03, 14:09:00
Ich finde das immer wieder amüsant wenn Banannensoftware am PC als Maßstab genommen wird. ;D Immer mehr Brechstange drauf hauen. :ulol3:
Um das mal hier einzuwerfen: Das wurde im PC Bereich schon immer so gemacht. Jedes Spiel was durch einen X3D massiv profitiert ist im Grunde "Bananensoftware" - schon alleine der Fakt dass das Bottleneck von einer einzigen spezifischen CPU bzw. einem Teilaspekt davon, Cache, gelöst werden kann, spricht doch Bände. Nur reift halt nicht die Software beim Kunden, sondern die Hardware der Kunden reift bis die Software dann besser läuft.
Das kann natürlich auch derzeit programmiertechnisch unlösbare Gründe haben, die sich halt nur durch "mehr Hardware/Brechstange" (=Kerne, IPC, Takt, Cache, RAM...) lösen lassen. Aber andererseits kann es auch nur das pragmatische Ergebnis aus Geld/Zeitnot und Deadline sein. Das ist aber weder etwas neues, noch etwas per se Schlechtes. Es herrscht ja kein Zwang dazu, kann jeder Spielen was er mag.
Zudem finde ich es wieder einmal witzig, das Scheduling auf einmal wieder das große Problem ist, Newsflash: Auch das war schon immer so. Ein 5950X war meist schneller wenn man das Spiel auf 8C/16T eines CCDs einsperrte, teilweise sogar nur 8C/8T. Das war beim 3950X so, nur dass es da noch feinfühliger war, da 4C/4T, 4C/8T und 8C/16T bis hin zu 16C/32T als brauchbare Konfigurationen existierten. Das Problem existiert seit Zen 1, die Lösungen bleiben identisch:
1. Auf Windows vertrauen dass es da keinen Mist macht (man könnte auch Beten, wäre ähnlich wirksam)
2. Auf AMDs Treiber hoffen (CPPC, PPM...oder Whitelists hui)
3. Einfach selber schedulen (simpel per Taskmanager oder jetzt per Xbox GameBar, CFX...Process Lasso)
@HOT
Du vermischt hier wieder Äpfel mit Orangen. Das Thema ist nicht ob UEX auf NV/AMD besser läuft oder nicht bezüglich Framerate. Es geht um die Frameausgabe. Und diese ist auch bei RDNA3 + UE5.1 noch nicht ganz überzeugend, zumindest in Fortnite. Wobei ich da auch nur Gameplayvideos beurteilen kann, spiele das Zeug nicht selbst.
https://youtu.be/8Kw0GBdt1yU
Ein komplettes Fail ist es aber auch nicht, das wäre wieder übertrieben zu behaupten.
Der DX12-Renderer läuft ja an sich noch ziemlich langsam. Aber mal sehen, was daraus so wird.
Matrix316
2023-03-03, 16:02:15
Eine mögliche Theorie ist, dass AMD die normalen Zen4-Chiplets nicht abverkauft bekommt, aber jetzt bei den Ryzen 9 mit X3D weiterhin verwenden kann. Das würde auch erklären, weshalb der 7800X3D über einen Monat später kommt.
Technisch kann man auch argumentieren, dass man hier das Beste aus beiden Bereichen bekommt. Ich glaube jedoch eher an die Theorie. :-)
Ein Grund, warum die normalen nicht so gut sich verkaufen ist ja wohl gerade, weil jeder wusste, dass es bald die 3D Versionen gibt, oder?
Und was heißt beste aus beiden Bereichen? Software die 16 Kerne nutzt und nicht so vom 3D Cache abhängig ist, dürfte auf dem normalen 7950 besser laufen - es sei denn wegen thermischen Günden taktet der dann auch nicht höher als der 3D wenn alle Kerne belastet werden... :uponder:
Hat jetzt eigentlich der 7900X3D nur 6 Kerne mit Cache? Oder 83D + 4 normale?
The_Invisible
2023-03-03, 16:13:09
Hat jetzt eigentlich der 7900X3D nur 6 Kerne mit Cache? Oder 83D + 2 normale?
6+6, also irgendwie noch absurder...
Verstehe nicht warum AMD nicht einfach beide CCDs mit dem Cache bestückt hat, das fliegt einem irgendwann ja um die Ohren, spätestens wenns neue CPUs gibt und die alten nicht mehr interessant sind...
Dr. Lloyd
2023-03-03, 16:22:05
Ein Grund, warum die normalen nicht so gut sich verkaufen ist ja wohl gerade, weil jeder wusste, dass es bald die 3D Versionen gibt, oder?
Sehe ich weniger darin begründet, sondern vielmehr in den hohen AM5-Plattformkosten und dass Intel mit Raptor Lake etwas mehr Leistung fürs Geld bietet.
Und was heißt beste aus beiden Bereichen? Software die 16 Kerne nutzt und nicht so vom 3D Cache abhängig ist, dürfte auf dem normalen 7950 besser laufen - es sei denn wegen thermischen Günden taktet der dann auch nicht höher als der 3D wenn alle Kerne belastet werden...
Die paar Hundert MHz fallen bei einer 16-Kern-Anwendung kaum ins Gewicht. Und bei Volllast taktet jede moderne CPU deutlich niedriger. Die "up to 5.7GHz" sind hauptsächlich wichtig fürs Marketing.
Hat jetzt eigentlich der 7900X3D nur 6 Kerne mit Cache? Oder 83D + 2 normale?
6 mit 3DVC + 6 normale Kerne.
dargo
2023-03-03, 16:58:31
Um das mal hier einzuwerfen: Das wurde im PC Bereich schon immer so gemacht. Jedes Spiel was durch einen X3D massiv profitiert ist im Grunde "Bananensoftware" - schon alleine der Fakt dass das Bottleneck von einer einzigen spezifischen CPU bzw. einem Teilaspekt davon, Cache, gelöst werden kann, spricht doch Bände.
Naja... das ist aber schon sehr weit hergeholt. ;) Jede CPU hat mehrere Cachestufen mit unterschiedlichen Größen und Speed, auch ohne X3D. ;) Der X3D hat nur mehr davon wodurch weniger auf den im Vergleich lahmen Arbeitsspeicher zugegriffen werden muss. Das ist nichts weiter als eine kleine Umschiffung von Flaschenhälsen innerhalb der Steinzeit-PCs. Hätte der PC einen gemeinsamen Speicher für CPU und GPU bräuchte es sowas erst gar nicht.
Ryzen 9 7900X3D Test von PCGH!
https://www.pcgameshardware.de/Ryzen-9-7900X3D-CPU-279469/Tests/Gaming-Benchmark-Review-1414602/
Linmoum
2023-03-03, 18:42:32
Kein Wunder, dass da keine offiziellen Testsamples seitens AMD rausgingen. Das Ding ist einfach nur völlig überflüssig mit der 6+6 Config.
basix
2023-03-03, 18:54:16
Kein Wunder, dass da keine offiziellen Testsamples seitens AMD rausgingen. Das Ding ist einfach nur völlig überflüssig mit der 6+6 Config.
Ist immer noch die 2. Schnellste Gaming CPU von AMD und wird seitens Intel nur vom 13900K+ getoppt. Habe aufgrund 6+6 schlimmeres erwartet. So schlecht ist das nicht. In einigen Spielen sieht man sicher, dass 6C limitieren, OK. In vielen ist das aber nur geringfügig der Fall.
Der 7950X3D ist in Spielen schneller als die versammelte Konkurrenz. Der 7900X3D schafft es nicht ganz. Nachvollziehbar, dass AMD hier aus Marketingründen nur das schnellste Modell für Reviews bereitstellt. Der 3D V-Cache soll "unschlagbar" dastehen ;)
Schlussendlich ist es eine Frage des Preises. Wenn man hohe Spieleleistung und mehr MT Performance als mit 8C benötigt, aber nicht das Geld für einen 7950X3D aufbringen will/kann, ist es immer noch eine gute CPU.
Dr. Lloyd
2023-03-03, 19:01:50
Kein Wunder, dass da keine offiziellen Testsamples seitens AMD rausgingen. Das Ding ist einfach nur völlig überflüssig mit der 6+6 Config.
Sehe ich auch so. Dass AMD ihre Zen-4-Chiplets mit nur maximal 8-Kernen fertigt, fällt ihnen immer wieder auf die Füße. Damit sind die teildeaktivierten 6- und 12-Kerner nicht konkurrenzfähig - weder zu Intel noch zum eigenen Portfolio.
Ich hätte es so gerne gesehen, wenn AMD mit Zen-4 auf 10-Kern-Chiplets gegangen wäre. Damit hätte man herausragende 8-, 10-, 16- und 20-Kern-CPUs fertigen können. Das würde auch besser zu AMDs enorm hohen Preisvorstellungen passen.
Linmoum
2023-03-03, 19:11:23
Ist immer noch die 2. Schnellste Gaming CPU von AMD und wird seitens Intel nur vom 13900K+ getoppt. Habe aufgrund 6+6 schlimmeres erwartet. So schlecht ist das nicht. In einigen Spielen sieht man sicher, dass 6C limitieren, OK. In vielen ist das aber nur geringfügig der Fall.
Der 7950X3D ist in Spielen schneller als die versammelte Konkurrenz. Der 7900X3D schafft es nicht ganz. Nachvollziehbar, dass AMD hier aus Marketingründen nur das schnellste Modell für Reviews bereitstellt. Der 3D V-Cache soll "unschlagbar" dastehen ;)
Schlussendlich ist es eine Frage des Preises. Wenn man hohe Spieleleistung und mehr MT Performance als mit 8C benötigt, aber nicht das Geld für einen 7950X3D aufbringen will/kann, ist es immer noch eine gute CPU.Ausgehend vom P1 ist der 7950X3D in der Spitze 23% (!) schneller als der 7900X3D. In 6 von 11 Spielen sind es mindestens +12%. Ich finde das schon heftig für einen solchen mittelgroßen Parcours.
Es ist naheliegend, dass es weiterhin bei einer 6+6 Config geblieben ist. Ich habe aber insgeheim trotzdem gehofft, dass AMD vielleicht doch auf 8+4 geht. Genau aus diesem Grund.
Crazy_Chris
2023-03-03, 19:12:02
Verwendet der 7900X3D ein eigenes Die oder die des 7950 mit deaktivierte Kerne?
Exxtreme
2023-03-03, 19:51:07
Ryzen 9 7900X3D Test von PCGH!
https://www.pcgameshardware.de/Ryzen-9-7900X3D-CPU-279469/Tests/Gaming-Benchmark-Review-1414602/
Hält echt ganz gut mit bei den 1%-Minimum FPS. Und ist auch sehr sparsam was Stromverbrauch angeht. Ich bin nicht enttäuscht bei meinen Präferenzen. Nur der Preis passt überhaupt nicht. Da sind 200 EUR zu viel drauf.
Sardaukar.nsn
2023-03-03, 20:23:43
Das Hauptproblem sehe ich darin das man einen 5800x3D + Board + 3600er DDR4 zusammen für etwa 500€ neu kaufen kann.
Bleibt noch viel Budget für Grafikkarte und Monitor.
Selbst wenn jetzt jemand 2-3000€ für einen neuen Gaming-PC ausgeben möchte, fällt es mir schwer die AM5 Plattform mit all ihren Nebenkosten zu empfehlen. Aktuell sehe ich da echt keinen guten Kompromiss.
RoNsOn Xs
2023-03-03, 21:09:11
Das Hauptproblem sehe ich darin das man einen 5800x3D + Board + 3600er DDR4 zusammen für etwa 500€ neu kaufen kann.
Bleibt noch viel Budget für Grafikkarte und Monitor.
Selbst wenn jetzt jemand 2-3000€ für einen neuen Gaming-PC ausgeben möchte, fällt es mir schwer die AM5 Plattform mit all ihren Nebenkosten zu empfehlen. Aktuell sehe ich da echt keinen guten Kompromiss.
In einem Jahr nochmal drüber schauen. Ansonsten besteht doch kaum Notwendigkeit. Noch nie haben CPUs zuvor solange "gehalten". Verfolge das Thema dennoch mit Interesse. :smile:
Matrix316
2023-03-03, 21:12:30
Das Hauptproblem sehe ich darin das man einen 5800x3D + Board + 3600er DDR4 zusammen für etwa 500€ neu kaufen kann.
Bleibt noch viel Budget für Grafikkarte und Monitor.
Selbst wenn jetzt jemand 2-3000€ für einen neuen Gaming-PC ausgeben möchte, fällt es mir schwer die AM5 Plattform mit all ihren Nebenkosten zu empfehlen. Aktuell sehe ich da echt keinen guten Kompromiss.
Also wenn ich neu kaufen würde, würde ich sogar AM5 kaufen. Da gäbe es sogar zwei Gründe: DDR5 und wahrscheinlich mehr neue CPUs als für Intel Sockel 1700 oder AM4.
user77
2023-03-03, 21:16:17
Das Hauptproblem sehe ich darin das man einen 5800x3D + Board + 3600er DDR4 zusammen für etwa 500€ neu kaufen kann.
Genau meine Meinung.
Im PGHW Index ist der 7900x3d zwar 15% schneller, aber halt im CPU Limit.
Im Real Life (2560p oder 4k) wahrscheinlich nicht wirklich zu Unterscheiden.
Ein Ganzes AM4 5800x3d Bundle für weniger als der 7900x3d... lieber die 400€ mehr in die Grafikkarte investieren :freak:
Linmoum
2023-03-03, 21:25:20
Wo soll er denn sonst schneller sein wenn nicht im CPU-Limit? Genau um das geht's ja und das muss man in einem MSFS, Anno, RT-Spielen oder MMOs auch gar nicht erzwingen, das springt einem mit nacktem Arsch ins Gesicht. Und da gibt's noch mehr von. Auch in UHD.
Wer den 7950X3D nicht will, der wartet halt noch vier Wochen auf den 7800X3D. Leute mit einer 500€ GPU sind davon ab sowieso nicht die Zielgruppe für solche CPUs.
user77
2023-03-03, 21:30:09
Wo soll er denn sonst schneller sein wenn nicht im CPU-Limit? Genau um das geht's ja und das muss man in einem MSFS, Anno, RT-Spielen oder ...
schon klar. Trotzdem ist der 7900x3d in MSFS, Anno1800, F1, ... nur 15-18% schneller als der 5800x3d :)
ChaosTM
2023-03-03, 21:35:50
Jop, deshalb hab ich auch keinerlei Bedürfnis den alten 3D gegen den Neuen zu tauschen.
Die ~15% beim FS2020 tun nicht weh und ich bin immer noch vor allem was Intel derzeit zu bieten hat.
Und dank der FG der 4090er ist die Minimum Framerate auch kein Thema mehr.
add.: wer neu kauft, greift natürlich zu AM5 und wartet auf den 7800er
dildo4u
2023-03-04, 09:38:12
MF hat jetzt Bundles damit bekommt man die B650 Boards auf 150€ leider nur bis 1.4 also zu Ende bevor der 8 Core kommt.
Wer was Älteres hat dem sollte aber auch ein 7600/7700 reichen.
Recht interessante Diskussion sie sind der Meinung das Intel und AMD Ansatz zur Kernzuweisung schon jetzt ausreichend funktioniert.
tFm4VKI1AYw
Flusher
2023-03-05, 12:08:43
Ich gebe dir recht. Du musst aber auch bedenken, das der 5800X3D schon älter ist und der 7950X3D gerade erst raus kam. Und für das Topmodell bezahlt man immer einen extra "Premiumaufschlag". Das ist bei den meisten PC-Komponenten(siehe 4090) der Fall und gilt generell auch für andere Hardware, z.b. TVs.
Ich hab jetzt trotz allem beim 5800X3D abgedrückt und warte auf Zen 5 nächstes Jahr. Bis dahin haben sich hoffentlich die Plattform-Preise auch normalisiert.
Der 5800X3D sollte im Vergleich zu meinem 3900X laut 3DC-Performance Index in Games immer noch rund 38% schneller in Games sein und bei der Anwendungsperformance mehr oder weniger gleichauf, trotz 4 Kernen / 8 Threads weniger.
r3ptil3
2023-03-05, 12:19:58
IDLE Verbrauch eines X670E ITX Boards (ASUS X670E-I):
https://i.ibb.co/GtZ69MZ/image.png (https://www.hardwareluxx.de/index.php/artikel/hardware/mainboards/60479-asus-rog-strix-x670e-i-gaming-wifi-im-test.html?start=6)
Demnach dürfte wohl das ASUS B650E-I nochmals ein Stück weniger verbrauchen.
Wäre meine erste Wahl (neben dem MSI B650I) für eine Kombi mit einem 7800X3D.
Casillas
2023-03-06, 09:24:56
Das Hauptproblem sehe ich darin das man einen 5800x3D + Board + 3600er DDR4 zusammen für etwa 500€ neu kaufen kann.
Bleibt noch viel Budget für Grafikkarte und Monitor.
Selbst wenn jetzt jemand 2-3000€ für einen neuen Gaming-PC ausgeben möchte, fällt es mir schwer die AM5 Plattform mit all ihren Nebenkosten zu empfehlen. Aktuell sehe ich da echt keinen guten Kompromiss.
Das kann man meiner Meinung nach nicht pauschalisieren. Hab für nen Kumpel ende letzten Jahres nen neues AM4 System mit 5800X3D gekauft und aufgebaut.
Er ist von einem 6600k gekommen und er bestätigt auch, dass er nicht aufrüsten wird, so dass aus dem Grund auch auf wegen dem P/L Verhältnis das einfach die beste Option war.
Wenn Aufrüsten eine Option ist und es nicht immer gleich die schnellste CPU ist, hätte es auch ein 7600k mit gutem Ram getan und man kann dann in 2 3 Jahren einfach nur die CPU wechseln.
Lehdro
2023-03-06, 14:21:34
CFX hat jetzt auch ein paar Benchmarks zum 7950X3D rausgehauen: (https://www.capframex.com/tests/Ryzen%20V-Cache%20gegen%20brachiale%20DDR5%20Speicherleistung)
Intel i9-13900K, P-Cores 5,6GHz, E-Cores deaktiviert, Ringbus 4,9GHz & G.Skill Trident Z5 RGB DDR5-7600 optimierte Timings
gegen
AMD Ryzen 9 7950X3D, 100MHz Offset, CCD0 -20 Curve Optimizer & G.Skill Trident Z5 RGB DDR5-6000 optimierte Timings
Leider ist ihm das Z790 Board irgendwann verreckt, so dass einige Benchmarks fehlen. Aber immerhin ist das nun auch mal ein Review für die "keine opt. Subtimings und nur DDR5 7200!!!111elf"-Fraktion.
aufkrawall
2023-03-06, 14:30:59
Aber immerhin ist das nun auch mal ein Review für die "keine opt. Subtimings und nur DDR5 7200!!!111elf"-Fraktion.
Ich halte den Testaufbau trotzdem für unbefriedigend. CyberPunk, Spiderman MM und Far Cry 6 liefen in meinen Tests nachweisbar langsamer ohne E-Cores. Entweder testet man @default (also E-Cores an), oder man macht sich die Extra-Mühe mit Sondertests E-Cores on vs. off. Aber generell komplett aus ist mit RPL und Win 11 22H2 imho das Unsinnigste, was man machen kann.
Lehdro
2023-03-06, 15:18:08
Er hat mit dem Spinnenmann irgendwie Probleme. (https://twitter.com/CapFrameX/status/1629767956644126720?cxt=HHwWgICzocvUjJ4tAAAA)
Cyberpunk ist bei AMD auch irgendwie komisch und bei Far Cry bin ich raus, keine Ahnung. Kannst ihn ja mal auf Twitter anhauen, warum er das so getestet hat. Gehe davon aus dass er es als schneller befunden hat.
aufkrawall
2023-03-06, 15:33:49
Ich schrieb ja von MM, zur Situation des Remasters mit aktuellen Patches kann ich nichts sagen. Das letzte Mal lief Miles Morales jedenfalls problemlos mit und ohne E-Cores (Bios-Switch), ohne E-Cores ging aber der fps-Counter weiter runter (nicht viel, aber schon nicht nichts).
Far Cry hat er doch gar nicht getestet?
Und bei Spiderman gibts im Artikel die Bench-Szene als Video zum Remastered zu sehen, aber die Benchmark-Werte sind für Miles Morales angegeben.
Die CyberPunk-Szene ist auch schlechter gewählt als der in-game Benchmark. Der produziert mehr Streaming-Last, was näher an der Last während des Fahrens ist als das langsame Abgehen von Bereichen.
Lehdro
2023-03-06, 15:38:44
Ich schrieb ja von MM, zur Situation des Remasters mit aktuellen Patches kann ich nichts sagen. Das letzte Mal lief Miles Morales jedenfalls problemlos mit und ohne E-Cores (Bios-Switch), ohne E-Cores ging aber der fps-Counter weiter runter (nicht viel, aber schon nicht nichts).
Sollte das technisch nicht nahezu identisch sein? PCGH meinte damals ja.
Far Cry hat er doch gar nicht getestet?
Weswegen ich mich wunderte warum du es erwähnst.
Die CyberPunk-Szene ist auch schlechter gewählt als der in-game Benchmark. Der produziert mehr Streaming-Last, was näher an der Last während des Fahrens ist als das langsame Abgehen von Bereichen.
Ging mir eher um das SMT "Problem" bei AMD.
aufkrawall
2023-03-06, 15:43:11
Sollte das technisch nicht nahezu identisch sein? PCGH meinte damals ja.
Nein. MM hat zusätzlich noch RT-Schatten. Außerdem erzeugte das Remastered viel mehr Last auf allen logischen Kernen mit dem 5800X3D vs. MM, lief aber trotzdem mit HT off schneller.
Weswegen ich mich wunderte warum du es erwähnst.
Weil es einer der Titel war, die ich selber mit E-Cores on vs. off gestetet hatte. Sollte dem Zusammenhang auch zu entnehmen sein.
DSD512
2023-03-06, 20:11:27
CFX hat jetzt auch ein paar Benchmarks zum 7950X3D rausgehauen: (https://www.capframex.com/tests/Ryzen%20V-Cache%20gegen%20brachiale%20DDR5%20Speicherleistung)
Intel i9-13900K, P-Cores 5,6GHz, E-Cores deaktiviert, Ringbus 4,9GHz & G.Skill Trident Z5 RGB DDR5-7600 optimierte Timings
gegen
AMD Ryzen 9 7950X3D, 100MHz Offset, CCD0 -20 Curve Optimizer & G.Skill Trident Z5 RGB DDR5-6000 optimierte Timings
Leider ist ihm das Z790 Board irgendwann verreckt, so dass einige Benchmarks fehlen. Aber immerhin ist das nun auch mal ein Review für die "keine opt. Subtimings und nur DDR5 7200!!!111elf"-Fraktion.
7200 mit CL32\44\44\44 ist immer noch schneller wie 7600 mit CL36.
Sollte mittlerweile bekannt sein.
Hätte er sich sparen können und nur mit 7200 & tight timings testen sollen.
Auf jeden Fall ist DDR5-OC nicht ohne. Bei DDR4-OC ist mir sowas nie passiert.
Beim RAM-OC auf meinem Z690 Dark Kingpin ist nach 1 Stunde ein RAM-SLot verreckt.
Goil.
Was interessant ist, dass das Edge Z790I wohl Probleme mit über 7200 hat. Da wird auch auf anderer Seite (https://kingfaris.co.uk/blog/13900k-ram-oc-impact/)berichtet.
Initially I had planned on testing DDR5 too. However once I received my MSI Z790I Edge WiFi and began overclocking my GSkill Trident Z5 7600MHz C36 kit,
I discovered that the second RAM slot on my motherboard was faulty as it could only stabilise 7466MT/s and even XMP with this QVL'd kit was unstable.
Whilst this was an extremely disappointing result for Hynix A-Die as I wanted to test at least 8000MT/s,
I began testing at 7466C30 only to find that there was a serious bug with the scheduling when E-Cores are enabled on
Windows 11 leading to 50%+ performance loss in synthetic and game benchmarks.
Davon abgesehen sind A-Die in der Hitzeentwicklung ziemlich heftig. 7600\36\48\48 ... da sind locker 48 Grad bei MemTest Pro im offenen Case mit Wakü\Lüfter drin.
Daher bevorzuge ich mittlerweile M-Die mit niedrigen Timings und weil sie sich nicht so aufheizen.
Um 7200 zu überflügeln, brächte man schon 600 Mhz mehr. Also 7800 mit CL36\44\44.
Geht nur mit APEX, VDD 1,6 Volt & selektierter CPU. Niemals 24/7 save. Unrealistisch.
Davon abgesehen schlägt sich der 13900K im o.a. Test immer noch ganz OK.
Hui, SMT geht bei Cyberpunk auf AMDs immer noch nicht? Hat das nen besonderen Grund und ist das beim Witcher genauso?
PCGH hat den 7800X3D und 7600X3D(!) simuliert:
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/
ZeroStrat
2023-03-07, 10:43:40
Ich halte den Testaufbau trotzdem für unbefriedigend. CyberPunk, Spiderman MM und Far Cry 6 liefen in meinen Tests nachweisbar langsamer ohne E-Cores. Entweder testet man @default (also E-Cores an), oder man macht sich die Extra-Mühe mit Sondertests E-Cores on vs. off. Aber generell komplett aus ist mit RPL und Win 11 22H2 imho das Unsinnigste, was man machen kann.
Ich hatte noch einige Pläne, leider fiel dann das Z790 Board aus. Ich wollte auf jeden Fall noch mit E-Cores on testen und ebenso ein Efficiency Profil mit UV.
Ich bin gerade dabei, die Settings auf dem Z690 Tachyon zum laufen zu kriegen. Einfach nur Copy&Paste geht natürlich nicht... Wäre auch zu schön gewesen.
Rolsch
2023-03-07, 10:51:39
PCGH hat den 7800X3D und 7600X3D(!) simuliert:
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/
Freilich ist der 7950X3D eine gute Wahl, allein schon weil der ganze OS-Kram auf dem anderen Chiplet laufen kann und so das Spiel den schönen 3D-Cache alleine hat.
Sardaukar.nsn
2023-03-07, 10:56:38
PCGH hat den 7800X3D und 7600X3D(!) simuliert:
https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/
Ebenso Techpowerup: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
Ebenso Techpowerup: https://www.techpowerup.com/review/ryzen-7800x3d-performance-preview/18.html
Aber nur den 7800X3D.
Estella
2023-03-07, 19:36:09
So mal ein paar Cinebench R23 Werte und ein Ersteindruck von meinem System:
Processor: AMD Ryzen 9 7950X3D
CPU Cooler: Arctic Liquid Freezer II 420
Motherboard: MSI MEG X670E ACE AMD X670E
RAM: 2x Kingston FURY DIMM 32 GB DDR5-6000 (64GB)
GPU: GeForce RTX 3080 Ti VENTUS 3X 12G OC
Harddrive: Kingston KC3000 2TB
RAM: 30-38-38 (Siehe Anhang)
CPU Stock:
Multi: 34045
Single: 1913
CPU PBO; CO -20; 100 MHz extra Boost Clock:
Multi: 35889
Single: 1853
CPU PBO, CO -20, KEIN extra Boost:
Multi: 36143
Single: 2024
Edit: AVX-512 disabled.
Screenshots nur vom Stock + letztem Lauf ohne extra Boost.
Wirklich ausgetestet habe ich aber die Grenzen noch nicht. Alles lief sofort mit den Settings jeweils.
Generelles Gefühl zum System:
Boot = langsam, aber auch nicht schlimmer als mein Xeon (128 GB RAM) vorher. Viel RAM = bissl Geduld mitbringen ;)
Ansonsten fixes Dingen. Verteilung auf unterschiedliche CCD funktioniert soweit gut bzw. ich habe nichts Negatives bemerkt.
Gespielt wird in 4K, daher bitte nicht groß nach Benchmarks fragen, meine sagen eh nur wenig aus.
Ryzen Master habe ich aber leider nicht zum laufen gebracht. Es scheint noch Probleme zu geben mit frischen Win11 Installationen. Scheint nur zu gehen, wenn es ein Upgrade von Win10 war...
Grüße Estella
ChaosTM
2023-03-07, 19:42:53
Aber nur den 7800X3D.
Sicher der interessanteste. Einen 7600X3D würde ich persönlich nimma nehmen, obwohl der sicher auch noch gut abgeht.
Also ich seh das mittlerweile so: In Zukunft werden Spiele sicher mehr Threads benötigen, um mehr FPS zu erzeugen, erst recht, wenn RT im großen Stil ins Spiel kommt. Das Problem ist, dass die Konsolen unglaublich viel effizienter mit Daten in den Spielen umgehen. Der PC muss das ausgleichen mit RAM und CPU-Power und am besten noch viel Cache. DirectStorage kann etwas Druck vom Kessel nehmen, aber das kann zusätzlichen VRAM und GPU-Power fressen, was man evtl. nicht hat. DS ist überhaupt nicht vergleichbar mit dem, was die Konsolen tun, da die das komplette Streaming in Hardware machen und der PC das nicht kann. Das ist also ne Sache des Balancings, wie sinnvoll das alles nutzbar ist. Der PC muss die Nachteile beim Streaming ggü. der Konsole mit nackter Hardware zuschmeißen, das ist auch das Problem bei RT oftmals, bei Spiderman beispielsweise. Daher denke ich auch, dass es ein Mißverständnis ist, wenn man Spiderman usw. für nicht gut optimiert hält. Ich denke, das geht schlichtweg kaum besser auf dem PC, da der einfach Limits hat und man auch schwächere Hardware und vor allem (zu) kleine Speicherpools (wie die unvermeidliche GTX1060) berücksichtigen muss. Sicherlich könnte man solche Spiele auch so bauen, dass die 32MB SystemRAM brauchen und 16GB VRAM und Directstorage nutzen, dann laufen die weit über 100FPS, aber das packt dann kein PC mehr, der Mainstreamkomponenten beinhaltet. Das ist also immer ein Kompromiss.
Ich denke, dass man mit den wirklich anspruchsvollen Spielen der Konsolen 6C komplett vergessen kann (genau wie 16GB RAM) so wie 2 und 4C-Prozessoren irgendwann einfach nicht mehr reichen und dieser Zeitpunkt ist mMn nicht so weit entfernt - und der kommt relativ plötzlich.
Aber man sieht jetzt schon, insbesondere bei Spielen mit Heavy RT-Workloads wie Cyberpunk, dass der 16C Vcache durchaus einen Vorteil ggü. dem 8C hat und der 8C deutlich öfter die kürzeren ziehen wird. Ich würd wirklich den 16C empfehlen, auch für Spielen, wenn man ne 4080/4090 oder 7900XTX betreibt. Die Grenzen des Sinnvollen werden sich mMn verschieben. Der 5800X3D war perfekt für seinen Lebenzyklus, der 7800X3D wird das mMn nicht sein, dafür hat der zuwenig Threads.
Disclaimer: Ich rede hier von optimalen Niveaus. Sicher wird auch der 7800X3D ne hervorragende Spiele-CPU, darum gehts mir nicht. Ich halte nur den 7950X3D für die beste Spiele-CPU, wenn man mittel- bis langfristig denkt und freue mich auf den 8950X3D, denn der wird mein sein, wenn er kommt. Und ich gehe jede Wette darauf ein, dass Windows12 einen Scheduler mitbringen wird, der sowohl asymmetrische Cores als auch asymetrische Cache-Bestückungen und vielleicht sogar gepaart mit Spezialhardware (wie AI-Accelerators auf Pheonix) verarbeiten kann.
Exxtreme
2023-03-07, 21:54:56
Aber nur den 7800X3D.
Wobei der 7600X3D derzeit eine hypothetische CPU ist, die nirgendwo angekündigt wurde. Sprich, ein real gewordenes Gedankenexperiment. :)
Dr. Lloyd
2023-03-08, 15:44:27
Freilich ist der 7950X3D eine gute Wahl, allein schon weil der ganze OS-Kram auf dem anderen Chiplet laufen kann und so das Spiel den schönen 3D-Cache alleine hat.
Die X3D-CPUs mit 2 CCDs funktionieren leider nicht wie gewöhnlich. Du hast in Spielen nur ein CCD mit maximal 8 Kernen aktiv. Die Kerne des zweiten CCDs werden beim Spielen komplett geparkt. Die helfen dir angeblich nicht einmal beim OBS-Streaming. Das läuft alles auf dem ersten CCD.
Um das zweite CCD während des Spielens zu aktivieren, muss eine enorm hohe Hintergrundlast vorhanden sein, wie z.B. ein Video im Hintergrund rendern.
Lehdro
2023-03-08, 15:56:58
Die X3D-CPUs mit 2 CCDs funktionieren leider nicht wie gewöhnlich. Du hast in Spielen nur ein CCD mit maximal 8 Kernen aktiv. Die Kerne des zweiten CCDs werden beim Spielen komplett geparkt. Die helfen dir angeblich nicht einmal beim OBS-Streaming. Das läuft alles auf dem ersten CCD.
Bullshit.
Es gibt sehr wohl Spiele die CCD0 + 1 simultan benutzen beim X3D.
Kannst du hier nachlesen, überall wo der 7950X3D mehr als 5% schneller als der 7950X3D CCD0 only ist, werden definitiv mehr Kerne genutzt. (https://www.pcgameshardware.de/Ryzen-7-7800X3D-CPU-279471/Specials/7600X3D-vs-5800X3D-Benchmark-Simulation-1414806/)
Und du kannst ebenso dein OBS per Hand auf CCD1 legen und mit CCD0 entspannt zocken - ganz wie du willst. Das habe ich damals schon mit Threadripper gemacht, da brauchts auch keinen Gamemode, wenn man das selber zuweisen kann (Process lasso, CFX oder Taskmanager).
Dr. Lloyd
2023-03-08, 16:01:48
Wo steht das in dem elend langen Text?
Lehdro
2023-03-08, 16:04:29
Wo steht das in dem elend langen Text?
Schau auf die Benchmarks.
Dr. Lloyd
2023-03-08, 16:06:26
Schau auf die Benchmarks.
Steht also nicht im Text. Aber Bullshit brüllen. Wie primitiv...
Lehdro
2023-03-08, 16:15:54
Steht also nicht im Text. Aber Bullshit brüllen. Wie primitiv...
Primitiv? Ernsthaft? Du bringst eine Aussage ohne Beweis. Ich bringe eine Quelle, aber der Herr ist sich zu fein dass dort nachzulesen. Schau dir einfach mal den TW:WH3 Benchmark an, oder MS:FS oder Cyberpunk. Das zweite CCD arbeitet dort definitiv mit. Und dann liest du den Text auch noch einmal aufmerksam:
Entgegen der Erwartung, dass es keine gute Wahl von AMD war, nur eines der CCDs mit 3D-V-Cache auszustatten, zeigen unsere Werte auf, dass etwa in Total War Warhammer 3 oder im Microsoft Flight Simulator sehr wohl die übrigen Kerne mit regulärer L3-Cache-Ausstattung ihr Übriges tun und zur Performance beitragen.
Was kommt jetzt von dir?
Dr. Lloyd
2023-03-08, 16:38:03
Wenn man das Windows Power Setting auf Balanced setzt, das Spiel auf AMDs Whitelist steht und man die Xbox Game Bar als Scheduler nutzt, dann kann es sich so verhalten, wie von AMD vorgesehen. Wie es bei diesen beiden Spielen beabsichtigt ist, weiß ich nicht.
Im Test von Hardware Unboxed mit 12 Spieletiteln, hatte ein simulierter 7800X3D, ein 7950X3D bei dem der zweite CCD deaktiviert wurde, jedenfalls im Endergebnis keinen Nachteil zu dem mit zwei CCDs, sondern war diesem sogar leicht überlegen:
https://m.youtube.com/watch?v=DKt7fmQaGfQ
Savay
2023-03-08, 16:58:07
Das deine Aussage nicht stimmen kann sieht man spätestens an CP2077.
Du musst halt schon Fälle suchen in denen mehr als 8 Kerne wirklich angesprochen/genutzt werden können...
Also nur bei spielen wo der normale 7950X Messbar schneller als bspw. ein 7700x ist...was bei Games halt kaum bis nie vorkommt.
Der Scheduler macht da offensichtlich schon etwas anderes als einfach nur per Affinity Maske das ganze festzupinnen...insofern ist das schonmal wirklich arg irreführend was du sagst.
Das was wahrscheinlich passiert ist das CCD0 einfach oft priorisiert wird, was dazu führt das sich die anderen Kerne deshalb eben schlafen legen.
Das heißt aber nicht dass sie wirklich "komplett geparkt" sind und nicht zur Verfügung stehen.
https://tpucdn.com/review/ryzen-7800x3d-performance-preview/images/cyberpunk-2077-rt-1280-720.png
Dr. Lloyd
2023-03-08, 17:10:40
Das heißt aber nicht dass sie wirklich "komplett geparkt" sind und nicht zur Verfügung stehen.
Dass die komplett geparkten Kerne nie zur Verfügung stehen, habe ich auch nicht behauptet. Siehe meinen zweiten Absatz zur Ausnahme bei enormer Hintergrundlast, welcher beim Zitieren von Lehdro ignoriert wurde.
Und mein ursprüngliches Posting war eine Antwort auf die Annahme, der zweite CCD könne in dieser Zeit "OS-Kram" erledigen. Und das tut er beim Spielen eben nicht, wenn dieser geparkt ist.
aufkrawall
2023-03-08, 17:24:58
Aber Spielelast ist ja keine Hintergrundlast.
Complicated
2023-03-08, 17:30:07
Die X3D-CPUs mit 2 CCDs funktionieren leider nicht wie gewöhnlich. Du hast in Spielen nur ein CCD mit maximal 8 Kernen aktiv. Die Kerne des zweiten CCDs werden beim Spielen komplett geparkt. Die helfen dir angeblich nicht einmal beim OBS-Streaming. Das läuft alles auf dem ersten CCD.
Um das zweite CCD während des Spielens zu aktivieren, muss eine enorm hohe Hintergrundlast vorhanden sein, wie z.B. ein Video im Hintergrund rendern.Die gesamte Aussage stimmt im ersten Absatz nicht und der letzte relativierende Absatz ist eben auch nicht korrekt. Insgesamt ist nichts davon wahr, in jeglicher Konstellation die man sich da verknüpft.
Und mein ursprüngliches Posting war eine Antwort auf die Annahme, der zweite CCD könne in dieser Zeit "OS-Kram" erledigen. Und das tut er beim Spielen eben nicht, wenn dieser geparkt ist.
Doch das tut er, wie jede andere CPU auch OS Kram erledigt beim Spielen - denn geparkt ist eben nichts, wie du das formulierst. Der CCD wird nicht abgeschaltet und alle Kerne folgen ihren C-States in vollem Umfang.
Dr. Lloyd
2023-03-08, 17:40:55
Aber Spielelast ist ja keine Hintergrundlast.
Gut, dann Entschuldigung für die missverständliche Formulierung.
Zweiter Versuch: Wenn das Spiel mehr als 8 Kerne nutzt und dies von AMD auf deren Whitelist so vermerkt ist sowie die Xbox Game Bar genutzt wird, dann wird beim 7950X3D auch der zweite CCD für das Spiel verwendet. So jetzt richtig formuliert?
Dr. Lloyd
2023-03-08, 17:46:06
Doch das tut er, wie jede andere CPU auch OS Kram erledigt beim Spielen - denn geparkt ist eben nichts, wie du das formulierst.
Nein, den OS-Kram macht der erste CCD, wenn der zweite geparkt ist. Siehe dieses Aufklärungsvideo von Gordon Mah Ung von PC World:
https://m.youtube.com/watch?v=bHr26DlTO2E
Savay
2023-03-08, 17:50:01
Bei L1T klingt das schon wieder etwas anders:
https://youtu.be/omTigqfWNu0?t=721
;)
Ich würde mittlerweile echt vermuten da wird auf Scheduler Ebene für die Tasks mit "CPU Sets" gearbeitet...was ja so wie ich das Verstehe eh eine native Funktion des Windows Scheduler seit ADL ist.
https://bitsum.com/processlasso-docs/#cpusets
https://learn.microsoft.com/en-us/windows/win32/procthread/cpu-sets
AMD hat das bisher nur nicht so in der Form genutzt würde ich vermuten...auch wenn es auch bei allen anderen Multi CCX/CCD CPUs generell Vorteile bringen könnte bzw. sollte.
EDIT:
83022
Dr. Lloyd
2023-03-08, 18:06:06
Das ergänzende L1T-Video kenne ich. Da habe ich aber keine Widersprüche zu Gordons Aufklärungsvideo herausgehört. Die Richtigstellung am Anfang bezieht sich auf eine unglückliche Formulierung von Gordon aus einem seiner Livestreams, welche das Thema ursprünglich ins Rollen brachte.
Savay
2023-03-08, 18:08:07
Doch...ab der Stelle die ich verlinkt habe sagt er doch, dass (andere) Prozesse auch auf CCD1 landen können.
Außerdem siehst du auch im Video von Gordon an der Stelle wo der RoTR anhat plus 4T Cinebench und den Browserbenchmark on Top wie Prozesse auf CCD1 verdrängt/geschoben werden...
83022
Complicated
2023-03-08, 18:12:26
Nein, den OS-Kram macht der erste CCD, wenn der zweite geparkt ist. Siehe dieses Aufklärungsvideo von Gordon Mah Ung von PC World:
https://m.youtube.com/watch?v=bHr26DlTO2E
Der zweite parkt nicht - du siehst wo das hin führt?
Edit:
Leider wird halt oft anstatt "zuweisen" parken verwendet, was eben zu falschen Schlußfolgerungen führt - hier wird das deutlich:
https://www.pcgameshardware.de/Raphael-Codename-278188/News/AMD-Chipsatztreiber-mit-Spiele-Optimierungen-fuer-Ryzen-7000X3D-1414326/
Es wird zudem bestätigt, dass der PPM Provisioning File Driver mitgeliefert wird, der sich an Spieler richten soll. Er parkt einen CCX für Spiele und aktiviert den zweiten nur, sollte mehr Rechenleistung ohne V-Cache benötigt werden. Das Parken soll die Latenzen verbessern. AMD schreibt, dass "fast immer" die Kerne mit V-Cache die bessere Wahl für Spiele sind, schließt aber nicht aus, dass auch die Kerne mit mehr Takt verwendet werden. Sollte ein Spiel zudem davon profitieren, dass beide Recheneinheiten laufen, werden auch beide genutzt. Wie das entschieden wird, erklärt die Folie nicht. Es ist lediglich die Rede von einem dynamischen Ablauf und dem Erkennen der Thread-Auslastung.
Was AMD in Folien "parken" nennt ist eher Powergating. Geparkt sind sie mit den manuellen Zuweisungen auf nur einen CCD. Dann passiert aber auch nichts mehr dynamisch bei Lastanstieg.
Dr. Lloyd
2023-03-08, 18:40:36
Das mag sein. Und danke für deine weitergehende Recherche.
Wenn aber sowohl der Hersteller als auch die US-Fachjournalisten es immer wieder als "parked" bezeichnen, erlaube ich es mir, es mit "geparkt" weiterhin zu übersetzen. 😀
Complicated
2023-03-08, 18:44:39
Hier ist das Prinzip mal mit der Zen-APU Raven Ridge zwischen CPU und GPU dargestellt. Nicht viel anders können 2 CCDs mit und ohne 3DV unterschieden werden anstatt CPU und GPU:
https://en.wikichip.org/w/images/2/2a/zen_apu_power_gating.png
Quelle: https://en.wikichip.org/wiki/amd/microarchitectures/zen#Enhanced_power_gating
Savay
2023-03-08, 18:56:13
parken ist genau wie zuweisen und affinitäten semantisch IMHO nicht so doll...vor allem wenn man sagt das "parking" führt zu nem anderen Scheduling...wo es IMHO eher umgekehrt der Wahrheit näher kommen dürfte, dass das Parking ein symptom des neuen Scheduling ist.
Das ganze Powermanagement und ganze CPPC2 obliegt ja eigentlich eh der SMU.
Viel mehr als die max./min. P States kommen vom OS soweit ich weiß auch gar nicht.
Und wenn der Min P State halt so hoch ist, dass die SMU garnicht erst zu den C States kommt dann sind die halt nie "geparkt" (unter Höchstleistung bspw.)
Was erschwerend dazu kommt ist das Ausgeglichen + Chipsatztreiber vermutlich erstmal dafür sorgen will nicht ausgelastete Kerne aufzufüllen, was energetisch halt auch Sinn ergibt, aber halt auf den ersten Blick aussieht als wenn auch alles was klassischerweise Background ist grundsätzlich immer im CCD0 landet.
Complicated
2023-03-08, 19:00:00
Das mag sein. Und danke für deine weitergehende Recherche.
Wenn aber sowohl der Hersteller als auch die US-Fachjournalisten es immer wieder als "parked" bezeichnen, erlaube ich es mir, es mit "geparkt" weiterhin zu übersetzen. Das kannst du ja gerne tun. Doch deine Ausführung, die darauf basiert, hat nun mal nicht beschrieben wie es funktioniert und das Verhalten hast du ebenfalls falsch beschrieben. Als ob halt der CCD geparkt wäre, während er zumeist in einem reduzierten powerstate wartet und je nach Timer abschaltet, wenn es nichts zu tun gibt. Der Windows Scheduler liest die C-States aus und versucht erst alle Cores mit kleinerem C-State mit Threads zu füttern. Das ist ja schon sehr lange so. AMD macht sich das hier zu nutze, was eben auch die Chipsatz-Treiber Updates (vermutlich nochmal eine Unterscheidung, dass der 3D CCD bevorzugt wird ergänzt).
Die Nutzung der Xbox Gaming Bar liegt nahe, da es wie die Spiele Profile im GPU-Treiber Programme unterschiedlich behandeln kann, wenn sie als Spiele dort eingetragen werden. Da liegt AMDs Whitelist. Siehe: https://support.xbox.com/de-DE/help/games-apps/game-setup-and-play/how-to-make-xbox-game-bar-remember-or-forget-a-game
Edit: Savay war schneller - genau :)
Edit 2: Und übrigens ist das verwenden der englischen Begriffe 1:1 sehr schnell fehlerhaft. Siehe das Beispiel "Silicon-CPUs" -> Silikon-CPU anstatt Silicium-CPU
Dr. Lloyd
2023-03-08, 19:07:49
Auf jeden Fall hat das Video von Gordon bei mir das Gegenteil bewirkt, als er damit beabsichtigt hatte:
Dass man trotz laufendem Spiel im Vordergrund, in dem Fall Tomb Raider, in einer CPU-lastigen Anwendung wie Cinebench, dessen Thread-Nutzung manuell von 16 auf 32 ändern muss, um damit den zweiten CCD zur Mitarbeit zu überreden, ist für mich ein absolutes No-Go.
Savay
2023-03-08, 19:10:00
Den Screenshot von mir hast du aber schon gesehen?
Das war an der Stelle noch mit 4T Cinebench...wie man an der Gesamtauslastung unschwer sehen kann und daran das während dessen nur 4 Kacheln in flight waren.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=83022&d=1678295190
Und das CCD1 musste da nicht "überredet" werden...
Also wo ist das Problem das ein absolutes No-Go wäre?!
Ich wäre ehrlich gesagt nicht taurig drum wenn der 5950X auch so schedulen würde...dürfte eher vor als Nachteile bringen....wobei dem natürlich eher der Cache auf dem CCD0 ausgeht wenn dort viele konkurrierende Tasks laufen.
Dr. Lloyd
2023-03-08, 19:35:22
Den Screenshot von mir hast du aber schon gesehen?
Ja, habe ich. Und auch deinen Sprung ins Video. Aber die Stelle habe ich dort nicht wiedergefunden. Egal, mir ist das L1T-Video eh zu langwierig erklärt. Mich hat Gordon bereits überzeugt, den 7950X3D nicht haben zu wollen.
Dr. Lloyd
2023-03-08, 19:36:38
Und übrigens ist das verwenden der englischen Begriffe 1:1 sehr schnell fehlerhaft. Siehe das Beispiel "Silicon-CPUs" -> Silikon-CPU anstatt Silicium-CPUSilicon heißt nun mal nicht Silikon auf Deutsch, sondern Silizium. Bei parked ist die Übersetzung aber eindeutig.
Savay
2023-03-08, 19:36:46
Das ist hier aus dem Video von Gordon...nicht aus dem von L1T.
https://youtu.be/bHr26DlTO2E?t=252
4 Kacheln + Browser laufen...und CCD1 wird immer wieder genutzt während dessen, vor allem ab dem Punkt wo er aus dem Menü raus den Benchmark startet, weil dann die Spielelast auf CCD0 erst nennenswert hoch geht.
Das Problem ist halt, das was Gordon während dessen als "Zitat" direkt sagt und das was passiert ist nicht komplett konsistent...da sollte man sich nicht von verwirren lassen. ;)
Weil die angeblichen "lazy cores" tun ja eben doch etwas...
Mich hat Gordon bereits überzeugt, den 7950X3D nicht haben zu wollen.
Glaube das Video hätte einfach nicht länger als die ersten 7 Sekunden sein sollen...damit ist eigentlich alles gesagt :freak:
Irgendwie machen sich viel zu viele viel zu viele Gedanken über den Kram.
Technisch interessant ist es ja...aber die ganze Aufregung drumherum ist es das Thema eigentlich echt nicht wert. :tongue:
Dr. Lloyd
2023-03-08, 20:03:10
Das ist hier aus dem Video von Gordon...nicht aus dem von L1T.
https://youtu.be/bHr26DlTO2E?t=252
4 Kacheln + Browser laufen...und CCD1 wird immer wieder genutzt während dessen, vor allem ab dem Punkt wo er aus dem Menü raus den Benchmark startet, weil dann die Spielelast auf CCD0 erst nennenswert hoch geht.
Ach, die Stelle meinst du. Ja, die ist sogar aus Gordons Video.
Gordon sagt dort zwar, die Kerne sind geparkt, man sieht aber, dass vereinzelt doch ein wenig darauf berechnet wird.
Der Scheduler versucht jedoch alles auf den ersten CCD mit 3D V-Cache zu schieben. Erst mit der Umstellung auf 32 Threads arbeitet der zweite CCD dann kräftig mit.
Complicated
2023-03-08, 20:06:13
Silicon heißt nun mal nicht Silikon auf Deutsch, sondern Silizium. Bei parked ist die Übersetzung aber eindeutig.
Und trotzdem "parkt" die PCGH Spiele auf dem 3D-CCD.
Und trotzdem benutzt du es um Power States zu beschreiben.
Parked bedeutet nicht "Auto auf eine Stellplatz abstellen", da der Kontext hier nur ein vergleichendes Verhalten zu "ausser Betrieb nehmen" oder "Abschalten" vorgibt. Ob das mittels deaktivieren im BIOS oder über die Power States geschieht ist ein himmelweiter Unterschied in der Funktionsweise.
Savay
2023-03-08, 20:06:30
Der Scheduler versucht jedoch alles auf den ersten CCD mit 3D V-Cache zu schieben. Erst mit der Umstellung auf 32 Threads arbeitet der zweite CCD dann kräftig mit.
Ja aber nur weil die Kerne im CCD0 noch ordentlich Ressourcen frei haben. Wie das nun mal bei Games, die ja eher Teillast sind, halt so ist.
Warum sollten die denn dann auch schon vorher "kräftig" mitarbeiten bei Hintergrundlast....dann wäre es ja keine Hintergrundlast mehr. :wink:
Ich sehe hier kein Problem geschweige denn ein "NoGo"...auch angesichts der ganz guten SMT Implementierung.
Insbesondere solange Prozesse denn auch auf Cores verdrängt werden können, die nichts zu tun haben.
Und das passiert ja offensichtlich.
Ist bei nem 5950X jetzt übrigens OOTB auch nicht sooooo arg viel anders.
Nur das dort die Games nicht so deutlich auf das CCD0 priorisiert werden und alles andere dann von da verdrängt wird.
Dafür werden da bisher die 4 Prime Cores auf CCD0+1 halt stark priorisiert inkl. zugehörigem SMT Thread.
Betrachte die weiteren 16 Threads einfach als eine Art Überlauf Reservoir (für den wenigen Hintergrundkram, Shardercompile etc.) beim 7950X3D...da sind die dann nicht viel anders als die E-Cores.
Bei Intel ist es ja auch kein NoGo wenn die E-Cores zuletzt gefüllt werden. (in Spielen)
Und für reines Gaming braucht es eh keinen 79xxx
Tesseract
2023-03-08, 20:21:02
Und trotzdem "parkt" die PCGH Spiele auf dem 3D-CCD.
Und trotzdem benutzt du es um Power States zu beschreiben.
es sind und waren immer schon power states, in einem anderen kontext ergibt das keinen sinn. man parkt keine prozesse auf cores, wenn ein prozess am core ist läuft er und steht nicht. einen thread parken bedeutet ihn zu stoppen bis eine betimmte condition erfühllt ist aber darum geht es in diesem kontext nicht. geparkt werden die cores auf denen das spiel nicht laufen soll.
Dr. Lloyd
2023-03-08, 20:24:50
Was Gordon in seinem Video eben nicht zeigt, welchen Einfluss Cinebench mit seinen 16 und 32 Threads auf die Avg- und Min-FPS in Tomb Raider hat. Und da bin ich doch der Meinung, dass es einen bedeutsamen Einfluss haben wird.
Wenn Cinebench isoliert auf dem zweiten CCD laufen würde, hätte ich da weniger Bedenken.
Savay
2023-03-08, 20:54:14
Das ist ja schon sehr theoretisch/konstruiert.
Davon abgesehen hat es doch immer eine deutlichen Einfluss...grade bei so ner extremen "Hintergrund" Last.
Bei mir Dritteln (!) sich die minFPS im CP2077 Benchmark quasi wenn ich Cinebench parallel mit 16 Threads laufen lasse.
Da kann ich mit Process Lasso rumpinnen was ich möchte...das ist nahezu wurscht.
Aus den 2 CCDs werden ja keine getrennten Rechner die sich absolut keine Ressourcen teilen.
Der Vorteil ist halt du überhaupt noch ordentlich Ressourcen für sowas frei hast mit weniger Einbußen als auf einer kleineren CPU. (Encoding im Hintergrund bspw.)
Mir fehlt die Fantasie warum das bei nem Zen4 X3D fundamental anders sein sollte.
Dr. Lloyd
2023-03-08, 21:15:52
Der bedeutsame Unterschied ist, dass deine CPU zwei identische Chiplets hat und es dir somit egal sein kann, welcher Thread wo berechnet wird.
Der X3D mit zwei CCDs hat aber zwei verschiedene Chiplets. Da ist das richtige Scheduling extrem wichtig. Und da AMD auf einen Hardware-Scheduler wie Thread-Director verzichtet, müssen es hier drei parallel laufende Software-Lösungen richten, von denen einer der Windows-eigene Scheduler ist. Letzterer ist nicht für seine treffsicheren Prognosen bekannt.
Savay
2023-03-08, 21:17:20
Der bedeutsame Unterschied ist, dass deine CPU zwei identische Chiplets hat und es dir somit egal sein kann, welcher Thread wo berechnet wird.
Das ist doch wurscht.
Welche Rolle spielt das bei deinem Beispiel mit 16T und 32T Cinebench?
Ich kann's doch mit Process Lasso ausreichend simulieren was AMD da grundsätzlich macht.
Und Überraschung...die min FPS leiden massiv...so oder so.
Und da AMD auf einen Hardware-Scheduler wie Thread-Director verzichtet,
Und zum Thread Director:
https://youtu.be/tFm4VKI1AYw?t=648
...naja ich weiß nicht so Recht was du davon erwartest.
Dr. Lloyd
2023-03-08, 21:48:57
Für heute soll das mein letztes Posting sein, ich habe schon Kopfschmerzen...
Das ist doch wurscht.
Welche Rolle spielt das bei deinem Beispiel mit 16T und 32T Cinebench?
Ich kann's doch mit Process Lasso ausreichend simulieren was AMD da grundsätzlich macht.
Und Überraschung...die min FPS leiden massiv...so oder so.
Es geht darum, dass das AMD/Microsoft-Scheduling versucht, so viel wie möglich auf den ersten CCD mit 3D V-Cache zu schieben. Auch CPU-intensive Anwendungen, die alleine bereits 16 Threads mitbringen. Dort haben sie meiner Meinung nach nichts zu suchen, wenn es einen zweiten CCD gibt. Der wiederum wird erst stärker belastet, wenn die Last für das erste CCD bereits viel zu hoch ist.
Ein solches Scheduling wird dem Spiel mehr Performance kosten, als wenn die Anwendungen von Anfang an isoliert auf dem zweiten CCD parallel laufen würden. So zumindest meine Meinung. Und dazu habe ich bislang auch keine gegenteiligen Erkenntnisse gelesen.
Complicated
2023-03-08, 22:17:55
Auch CPU-intensive Anwendungen, die alleine bereits 16 Threads mitbringen. Dort haben sie meiner Meinung nach nichts zu suchen, wenn es einen zweiten CCD gibt.Das stimmt doch gar nicht was du da schon wieder behauptest. Nur vordefinierte Spiele werden auf den ersten CCD mit 3D priorisiert. Dafür ist die Whitelist in der Xbox Gamebar da. und auch nur die Spiele stehen da drin, die schneller laufen mit dem Zusatzcache, während andere auf den CCD mit mehr Takt priorisiert werden.
Die Funktion ist ein Mehrwert und bringt in keiner Situation weniger Leistung als wenn du das weg lässt. Es bringt in einigen Szenarien aber deutlich mehr Leistung. Was gibt es daran auszusetzen ob das in Hardware oder universell für alle kommenden CPUs nutzbar ist unter Windows?
geparkt werden die cores auf denen das spiel nicht laufen soll.Deswegen habe ich es als Beispiel für falsche Verwendung ja erwähnt ;)
/Locutus oB
2023-03-08, 22:21:29
das ist doch ein total unrealistisches Szenario und das Scheduling keine einfache Sache ist sollte auch keine neue Erkenntnis sein.
OpenVMSwartoll
2023-03-08, 22:26:36
Dr. Lloyd: Ich denke, das Grundproblem ist, dass diese CPU für Dich einfach nicht die richtige Investition ist.
Ein reiner Spieler kann doch gar nicht das Beste beider Welten wirklich nutzen und sollte auf den noch kommenden 3D warten.
Und je mehr man sich in das Scheduling einliest, desto mehr bemerkt man, dass man noch mehr lesen muss. Dies ist doch das Spannende an der IT.
P.S.: Die Inter-CCD penalty ist nicht irrelevant.
Savay
2023-03-08, 23:37:59
Und dazu habe ich bislang auch keine gegenteiligen Erkenntnisse gelesen.
Und ich keine die diese Behauptung stützt.
Chrisch
2023-03-09, 03:26:49
Mal ne Frage an die AMD Jünger, gibt es bestimmte Settings womit man den Verbrauch (gerade idle/Desktop) reduzieren kann?
Board ist nen ASUS Strix B650E-F Gaming und nen 7900X3D.
Weil nen 32W höheren idle Verbrauch ggü meinem 13900K (71W vs 103W) finde ich nämlich schon recht happig.
Complicated
2023-03-09, 07:13:34
Für mich wären schon 71W ein NoGo im Idle. Anleitung zum Power-Tuning gibt es einige. Diese hier ist mit einem Asus-Board: https://techtest.org/anleitung-amd-ryzen-7000-kuehler-und-sparsamer-machen/
35% weniger Leistungsaufnahme (und entsprechend niedrigere Temperaturen) kosten dich gerade einmal 2% Leistung!
Tyoischer Idle ist zwischen 40-50W mit einem Ryzen 7000 mit 2 CCDs. Vielleicht hilft dir dieser Thread für den Check deines Idle-Verbrauchs: https://community.amd.com/t5/processors/r9-7950x-issues-high-idle-power-draw-disabled-eco-mode-in-ryzen/td-p/578371
Chrisch
2023-03-09, 07:43:20
Naja gut, dazu sei gesagt es ist auch ne 4080 im System, Laing D5, 8 Lüfter etc.
Das Intel system hatte 71W mit Graka bzw 32W mit IGP, da sieht man also schon was allein die 4080 ausmacht.
Aber 103W bloß aufm Desktop mitm Ryzen finde ich ja dann doch recht happig (ohne Twitch/YT etc).
Aber danke für die Links, werde ich mir nachher mal angucken
ZeroStrat
2023-03-09, 08:36:02
Hier noch ein Video, das eindeutig zeigt, dass alle Kerne genutzt werden, während das Game nur auf CCD0 läuft.
Multithread Game + Cinebench R23 on R9 7950X3D
https://youtu.be/KPaDQqWPmzc
SavageX
2023-03-09, 08:45:51
Tyoischer Idle ist zwischen 40-50W mit einem Ryzen 7000 mit 2 CCDs. Vielleicht hilft dir dieser Thread für den Check deines Idle-Verbrauchs: https://community.amd.com/t5/processors/r9-7950x-issues-high-idle-power-draw-disabled-eco-mode-in-ryzen/td-p/578371
Der Idle-Verbrauch der AM5-Plattform ist einer meiner größten Punkte der Enttäuschung. Mein derzeitiger Rechner (Ryzen 7 PRO 4750G, 32 GB ECC RAM, 2 TB M.2-SSD) idlet auf dem Linux-Desktop mit 19 Watt, gemessen an der Steckdose.
Und ja, natürlich ist AM5 schneller und bei hoher Auslastung auf effizienter (Leistung/Watt). Aber dieser Büro/Programmier/Webbrowser-Rechner läuft halt überwiegend im Leerlauf. Die Leistung rufe ich nur in kurzen Bursts ab (Compilieren, mal ein Video kodieren etc.). Da hoffe ich tatsächlich, dass sich mit den monolithischen AM5-APUs noch was am Energieumsatz bei niedriger Auslastung tut.
ZeroStrat
2023-03-09, 08:54:19
Ich konnte durch Absenken der SoC Spannung von 1.3V auf 1.15V den Idle-Verbrauch um ca. 20W senken. Der 7950X3D verbraucht nun ca. 20-25W im Idle-Zustand.
Chrisch
2023-03-09, 09:04:54
Hier noch ein Video, das eindeutig zeigt, dass alle Kerne genutzt werden, während das Game nur auf CCD0 läuft.
Multithread Game + Cinebench R23 on R9 7950X3D
https://youtu.be/KPaDQqWPmzc
Jo, bringt nur nichts. Denn das funktioniert NUR wenn die 2te Anwendung (in dem Fall CB23) in Vordergrund nimmt...
Siehe hier der Unterschied (CB auf 12 Threads begrenzt):
1. Cinebench im Vordergrund
https://abload.de/thumb/park1jgchl.png (https://abload.de/image.php?img=park1jgchl.png)
2. Spiel im Vordergrund
https://abload.de/thumb/park2ibfnf.png (https://abload.de/image.php?img=park2ibfnf.png)
Ja, das System nutzt den 2ten CCD ABER wenn die 3D Anwendung im Vordergrund ist wird auch dieser CCD größtenteils genutzt.
SavageX
2023-03-09, 09:09:21
Ich konnte durch Absenken der SoC Spannung von 1.3V auf 1.15V den Idle-Verbrauch um ca. 20W senken. Der 7950X3D verbraucht nun ca. 20-25W im Idle-Zustand.
Na, das gibt doch Hoffnung für die Plattform. Für mich persönlich ist das manuelle Optimieren von Spannungen etc. nichts (Schwierigkeit sicherzustellen, dass man keine Abstriche bei der Stabilität macht), aber ich gehe mal davon aus, dass AM5-APUs für den mobilen Sektor ausgelegt werden und AMD das vernünftig einstellt.
ZeroStrat
2023-03-09, 09:21:27
Jo, bringt nur nichts. Denn das funktioniert NUR wenn die 2te Anwendung (in dem Fall CB23) in Vordergrund nimmt...
Eigentlich war das Game ja im Vordergrund in dem Video?!
Cubitus
2023-03-09, 09:37:15
Ich weiß nur nicht, was der ganze MultiCore-Kram für Gamer soll.
Der X3D Cache macht oft Sinn. Aber die 2 CCDS, sry, verstehe ich nicht.
Beim 13900K haben Reviews getönt, diese CPU will es eben allen Usern recht machen... Beim Ryzen wird gelobt...
Seien wir doch mal ehrlich, als Gamer wollen die wenigsten mit einem System produktiv arbeiten. Und selbst wenn ich mal ein Video mit Handbrake berechne oder meine Bilder sortiere, reicht mir der 13600K dicke.
Dann idelt man eben nicht mit 70 Watt + die Kerne werden zu 90 Prozent eh nicht genutzt. Das ist doch verschwendetes Silizium.
Übrigens nimmt mein 13600K im Idle 4-7 Watt. Und durch OC+UV liegt der Verbrauch auch zwischen 30-70 Watt maxx und die CPU ist beim Spielen nicht wirklich langsamer, dafür günstiger in der Anschaffung.
Also was soll der Mist mit den ganzen Multicores, Spiele unter Windows profitieren in den seltensten Fällen von mehr als 8+ Kernen.
Also ich versteh nicht, was am Scheduling so kompliziert sein soll. Microsoft belastet jeden Kern, bevor jeder Kern ein zweites Mal belastet wird. AMD gibt dem Scheduler vor, welche Kerne (CPPC preferred Cores) und welcher CCD (über CPPC) priorisiert werden sollen, so war es bisher. Dann kam Intel mit den e-Cores, die noch da zwischen geschoben werden, also erst 1 Thread pro Kern, dann 1 Thread pro e-Kern, dann zweiter Thread pro Kern IIRC. Zudem gibt es den Thread director, der das Ganze optimiert.
Jetzt wird beim X3D gar nicht komplexer als bisher, aber es bleibt doch völlig unproblematisch. AMD benutzt halt die CCD-Priorisierung nicht mehr, um dem Scheduler einfach mitzuteilen, welcher der bessere CCD ist, wie bisher, sondern priorisiert den Cache CCD (was man im BIOS ändern kann). Das wars, mehr ist nicht anders. Wenn man die XBox-Game-Bar aktuell hat, wird zusätzlich noch ne Whitelist einbezogen, auf der Spiele vermerkt sind, die mit nur dem Cache CCD besser laufen über den Game Mode. Wird so ein Spiel gestartet, wird das 2. CCD schlafen gelegt, bis es wieder gebraucht wird. Es gibt also überhaupt keine Nachteile durch die CCD-Priorisierung, wie dem immer angedichtet wird.
Ich glaub aber, das wurde einfach in fast allen Reviews falsch erklärt, daher kommt dieses Märchen.
Es gab halt ein paar Titel, die auf dem simulierten 7800X3D besser liefen - na klar, weil die nicht auf der Whitelist sind!
Ich bin der Überzeugung, dass AMD das nicht besser hätte lösen können. Ein 2. CCD mit X3D hätte genau 0 gebacht aufgrund der inter CCD-Latenzen, man hat das beste aus dem Windows Scheduler geholt und gleichzeitig Spiele einbezogen, die mit einem CCD optimal laufen.
Cubitus
2023-03-09, 10:12:52
Ich bin der Überzeugung, dass AMD das nicht besser hätte lösen können. Ein 2. CCD mit X3D hätte genau 0 gebacht aufgrund der inter CCD-Latenzen, man hat das beste aus dem Windows Scheduler geholt und gleichzeitig Spiele einbezogen, die mit einem CCD optimal laufen.
Die hätten einfach nur den 7800X3D mit einem CCD bringen sollen, gerne auch mit etwas höherem Takt. Dafür als die Gaming CPU schlechthin bewerben und dann die CPU für 399 Euro rausbringen. Dann schauen das die Kompatibilität aufjedenfall gegeben ist, statt so einen Zirkus mit den CCDS zu veranstalten.
Für alle anderen Anwendungsfälle die Multicore-CPUs in verschiedenen Variationen.
Aber so ein verkrüppelter 7900X3D, hmm nee.
Das ganze Portfolio, egal ob AMD oder Intel, finde ich generell sowieso zu aufgebläht.
Die hätten einfach nur den 7800X3D mit einem CCD bringen sollen, gerne auch mit etwas höherem Takt. Dafür als die Gaming CPU schlechthin bewerben und dann die CPU für 399 Euro rausbringen. Dann schauen das die Kompatibilität aufjedenfall gegeben ist, statt so einen Zirkus mit den CCDS zu veranstalten.
Für alle anderen Anwendungsfälle die Multicore-CPUs in verschiedenen Variationen.
Aber so ein verkrüppelter 7900X3D, hmm nee.
Das ganze Portfolio, egal ob AMD oder Intel, finde ich generell sowieso zu aufgebläht.
Nein, die haben das aus ihrer Sicht genau richtig gemacht, vielleicht nicht aus deiner Sicht ;).
Aber der 7800X3D kann genau so ein Hit werden wie der 5800X3D, daher könnte das den gesamten Markt belasten und für Lieferengpässe sorgen. Das geht gar nicht alles auf einmal.
Der 7950X3D ist der beste Prozessor für alle, Spieler und andere. Man hat es geschafft, wieder einen besten Prozessor für alle anzubieten.
Der 7900X3D ist genau das, was er sein soll. Eine CPU mit weniger Leistung als der 7950X3D. Da ist nix verkrüppelt.
Linmoum
2023-03-09, 11:04:40
Der 7900X3D ist deswegen verkrüppelt, weil der 7800X3D in Spielen besser performen wird. Das Ding ist weder Fisch noch Fleisch, vor allem ist er preislich zu nah am 7950X3D, der in Spielen besser (teilweise auch deutlich) performt und in Anwendungen logischerweise sowieso.
Hätte einfach eine 8+4 Config werden müssen.
Complicated
2023-03-09, 12:08:22
Ja, AMD hat sich des Salvage schuldig gemacht. Verkrüppelte CPUs, Segmentierungen des Produktportfolios und Preisstufen für alle AW. Schande über sie, dass es für 15 SKUs heisst, dass es eine gibt die besser ist - warum für so einen Quatsch Geld verlangt werden kann ist in echtes Rätsel. Besser wäre nur eine CPU auf den Markt zu bringen, die dann halt 3 mal so viel kostet, dafür aber einfach kein Schrott und Krüppel ist und schon gar kein Megafail.
Keine Ahnung was das mit dem CPU-Markt zu tun hat, aber wir treiben mal diese Sau so lange durchs Forum, bis mindestens in 40 Beiträgen jede Relativierung auch nun wirklich vom Tisch ist.
Sorry aber wenn ich diese Wordings lese, dann stellt sich mir wirklich die Kompetenzfrage das überhaupt richtig beurteilen und einordnen zu können. Die Antwort ist ein klares Nein.
maximus_hertus
2023-03-09, 12:38:31
Das ganze Portfolio, egal ob AMD oder Intel, finde ich generell sowieso zu aufgebläht.
Was AMD angeht ist es in der Tat teilweise etwas suboptimal, besser wäre wohl sowas:
699 USD - 7950X3D - kompromisslos max Performance
599 USD - 7950X - Multicore plus immer noch gute Gaming Performance (allerdings keine 230W, sondern 142W TDP)
479 USD - 7900X - 142W
429 USD - 7800X3D - die Gaming CPU für die "Performance-Klasse"
399 USD - 7900 - 88W
299 USD - 7700
229 USD - 7600
7700X und 7600X sowie 7900X3D fallen weg.
Klare Struktur und bei rund 450 USD gibt esdie Option max Gaming oder eher Multicore.
Für reine "Anwender" also
599 - 7950X
479 - 7900X
399 - 7900
299 - 7700
229 - 7600
Für "reine" Gamer:
699 - 7950X3D
429 - 7800X3D
299 - 7700
229 - 7600
Für die, die beides ohne große Kompromisse wollen:
699 - 7950X3D
429 - 7800X3D
Fertig.
Bei Intel ist es dank tausend Buchstaben / Varianten und unterschieldlichen Architekturen (Alderlake = 13000 und Raptorlake auch 13000, Dankeschön...) komplett verloren.
Der 7900X3D ist deswegen verkrüppelt, weil der 7800X3D in Spielen besser performen wird. Das Ding ist weder Fisch noch Fleisch, vor allem ist er preislich zu nah am 7950X3D, der in Spielen besser (teilweise auch deutlich) performt und in Anwendungen logischerweise sowieso.
Hätte einfach eine 8+4 Config werden müssen.
Was zu beweisen war ;).
Lassen wir mal etwas Zeit vergehen, bis die Whitelist mal ein bisschen gefüllt ist. Dann noch mal vergleichen mit beiden Prozessoren. Vielleicht stimmt das, vielleicht nicht. Kaufen würd ich den aber auch nicht ;). Genausowenig wie den 7900X btw. Das gabs ja auch noch nie, sinnlose CPUs im Lineup, welch grausames Verbrechen :D. Nicht kaufen, fertig.
Cubitus
2023-03-09, 18:46:35
Was AMD angeht ist es in der Tat teilweise etwas suboptimal, besser wäre wohl sowas:
699 USD - 7950X3D - kompromisslos max Performance
599 USD - 7950X - Multicore plus immer noch gute Gaming Performance (allerdings keine 230W, sondern 142W TDP)
479 USD - 7900X - 142W
429 USD - 7800X3D - die Gaming CPU für die "Performance-Klasse"
399 USD - 7900 - 88W
299 USD - 7700
229 USD - 7600
7700X und 7600X sowie 7900X3D fallen weg.
Klare Struktur und bei rund 450 USD gibt esdie Option max Gaming oder eher Multicore.
Für reine "Anwender" also
599 - 7950X
479 - 7900X
399 - 7900
299 - 7700
229 - 7600
Für "reine" Gamer:
699 - 7950X3D
429 - 7800X3D
299 - 7700
229 - 7600
Für die, die beides ohne große Kompromisse wollen:
699 - 7950X3D
429 - 7800X3D
Fertig.
Bei Intel ist es dank tausend Buchstaben / Varianten und unterschieldlichen Architekturen (Alderlake = 13000 und Raptorlake auch 13000, Dankeschön...) komplett verloren.
Diese Lösung finde ich gut (y)
Bei Intel ist es dank tausend Buchstaben / Varianten und unterschieldlichen Architekturen (Alderlake = 13000 und Raptorlake auch 13000, Dankeschön...) komplett verloren.
Eigentlich ist das ganz einfach. Alles unter einem i5 13600K ist Alder Lake. Fertig.
Freestaler
2023-03-10, 00:07:48
Cb.de hat nen 7900x3d nachgetest. Leider durch 6mitcache+6ohnr wie erwartet eher schlecht als recht. Da ist ein 13700k das besser angebot.
https://www.computerbase.de/2023-03/amd-ryzen-9-7900x3d-test/
2x6 mit Cacheonly oder 8x4 wäre wohl spannender. Auch offener OC Mode.
Dr. Lars Sahmströhm
2023-03-10, 01:32:15
AMD müsste ihren neuen Heatspreader in/aus Kupfer und evtl. weniger dick anbieten. Das würde die Temps nochmal um 1-3Grad senken und die Fans würden so eine Copper-Edition für Mondpreise kaufen. Würde auch geil aussehen. :)
Die sind aus Kupfer und das schon seit Sockel754. Das Ding ist halt vernickelt. Wenn man das abschleift, kommt das Kupfer zum Vorschein.
BlacKi
2023-03-10, 16:35:43
kann man eigendlich im betrieb die takrate vom IF und ram manuell oder automatisch absenken? zb. mit board utilities?
Sardaukar.nsn
2023-03-12, 10:44:44
Vorsicht, AMD Folien. Aber sehen ja recht vielversprechend aus: https://www.techpowerup.com/305794/amd-shows-first-ryzen-7-7800x3d-game-benchmarks-up-to-24-faster-than-core-i9-13900k
https://www.techpowerup.com/img/5XSqvG11Dw6ycT4q.jpg
BlacKi
2023-03-12, 11:53:24
was ist horizon zero down?
Linmoum
2023-03-12, 11:57:37
Es ist eine AMD Folie. Sei froh, dass da nicht noch mehr falsch ist.
Der_Korken
2023-03-12, 12:15:06
was ist horizon zero down?
;D
Rainbow Six: Siege
Adobe Premiere Pro
1080p(?) High Quality Preset
dargo
2023-03-12, 21:23:37
was ist horizon zero down?
Ein Spiel :uconf2:
BlacKi
2023-03-12, 21:33:48
du kannst morgen bei AMD anfangen, hast dich gerade qualifiziert.
dargo
2023-03-12, 21:42:56
Heute einen Clown gefrühstückt?
Edit:
Sensation... Blacki hat Schreibfehler entdeckt, gibts auch wo anders (Radeon RX 5800XT). :rolleyes:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13254944&postcount=211
Lehdro
2023-03-13, 14:08:08
AMD Folien: Nur echt mit Schreibfehlern, falschen technischen Informationen und nicht existenten Produkten. Alles andere sind Fakes!
MSABK
2023-03-13, 14:28:52
Ist halt ein guter Fake Schutz.
Complicated
2023-03-13, 16:27:00
Naja bisher haben aber die Fussnoten mit dem Testsetup zumindest die selben CPUs gelistet die auch in der Grafik zu sehen ist.
Jetzt steht da 5800X3D vs 7800X3D mit 20 Spielen in der Fussnote 5 und gezeigt werden Charts mit Intel 13900K vs 7800X3D und 4 Spiele mit Verweis auf diese Fussnote 5.
Siehe: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13257564#post13257564
BlacKi
2023-03-14, 12:30:43
wo sind die a620 boards?
Update 17.01.2023 07:22 Uhr
A620-Mainboards erscheinen im Februar
Anders als zuerst berichtet, hat AMD sich sehr wohl bereits indirekt zum Release der A620-Mainboards für Ryzen 7000 geäußert.
Im Rahmen der Ankündigung der 65-Watt-CPUs Ryzen 9 7900, Ryzen 7 7700 und Ryzen 5 7600 (Test) auf der CES 2023 hat der Hersteller auch „Entry-Level AM5 Motherboards“ in Aussicht gestellt.
Auch wenn AMD den A620-Chipsatz nicht explizit nannte, ergeben die erstmals gelisteten A620-Platinen damit umso mehr Sinn. Der Hersteller sprach auf der CES 2023 von einer Verfügbarkeit im Februar 2023.
https://www.computerbase.de/2023-01/amd-ryzen-7000-a620-mainboards/
Da würd ich mal vermuten, dass man die A620 P21 Varianten gecancelt hat und auf die P22-Varianten wartet, aus welchem Grund auch immer.
Lehdro
2023-03-14, 13:54:21
Ich dachte mit entry Level meinte AMD die 125$ Boards, die in den USA endlich kommen (https://www.pcgameshardware.de/Mainboard-Hardware-154107/News/AM5-unter-130-Euro-1415146/). Da sollte ja AM5 laut AMD schon immer hin - hat ja nur ein halbes Jahr gedauert ;D
Mordekai2009
2023-03-21, 11:15:47
Hier ist etwas angestaubt. Nur noch circa 2 Wochen für den AMD Ryzen 7 7800X3D.
Kalmar
2023-03-21, 13:41:33
Hier ist etwas angestaubt. Nur noch circa 2 Wochen für den AMD Ryzen 7 7800X3D.
system wartet auf Bestellung, hoffentlich gibt es genug CPUs.
Eddyk
2023-03-21, 13:54:16
Bin sehr gespannt, werde aber abwarten und erst 1-2 Monate nach Launch kaufen. Je nach Verfügbarkeit und Preislage RAM+Mobo+CPU
Lehdro
2023-03-21, 14:35:26
Die Mainboardpreise sind immer noch eine Katastrophe. Zwar ist der Einstiegspunkt ein wenig nach unten gerutscht, allerdings haben sich die für mich interessanten Boards preislich fast gar nicht bewegt. Ich will von meinem X570 aber keinen Rückschritt machen :(
Wobei man fairerweise erwähnen muss das ich für dieselben Ansprüche bei S1700 fast das Gleiche bezahlen müsste. Tolle Wurst.
dildo4u
2023-03-21, 14:40:26
Mindfactory gibt doch 90€ weil der Absatz katastrophal langsam ist es wird imo immer Aktionen geben bis die billigen Boards kommen.
https://abload.de/img/bundleloev3.png
Lehdro
2023-03-21, 15:59:36
Mindfactory gibt doch 90€ weil der Absatz katastrophal langsam ist es wird imo immer Aktionen geben bis die billigen Boards kommen.
https://abload.de/img/bundleloev3.png
Bringt mir viel wenn der 7800X3D nach dem Bundlezeitraum rauskommt. Ein Schelm... :redface:
BlacKi
2023-03-21, 16:09:33
trifft auch nicht auf alle cpus zu.
warum sollte man eigentlich als 0815 gamer überhaupt zum 650/670 chipssatz greifen? die sollten einfach endlich den a620 bringen.
BTW, das 125$ board ist schon bei uns angekommen
https://videocardz.com/newz/first-amd-am5-motherboard-is-now-available-below-125
aktuell 235€ die letzten tage für 163€ zu haben.
https://geizhals.de/asrock-b650m-hdv-m-2-90-mxbla0-a0uayz-a2914109.html?hloc=de
rentex
2023-03-21, 16:12:35
Der 7900X3D ist beim Mindstar für 625€, immer noch zu bekommen...wohl nicht sehr beliebt.
dildo4u
2023-03-21, 16:14:07
13700k kostet 200€ weniger erstaunlich das überhaupt 500 verkauft wurden.
https://www.computerbase.de/2023-03/amd-ryzen-9-7900x3d-test/#abschnitt_spielebenchmarks_in_720p_auf_der_geforce_rtx_4090
BlacKi
2023-03-21, 16:16:55
13700k kostet 200€ weniger erstaunlich das überhaupt 500 verkauft wurden.
https://www.computerbase.de/2023-03/amd-ryzen-9-7900x3d-test/#abschnitt_spielebenchmarks_in_720p_auf_der_geforce_rtx_4090
ich hätte die cpu erst garnicht produziert. 8 und 16 kerne, fertig.
dildo4u
2023-03-21, 16:20:24
Er ist nett für OEM da kannste ordentlich an der Kühlung sparen, der Dau hat kein Hardware Monitor am laufen und regt sich über 90° auf.(Notebook laufen wärmer)
Als 8+4, kann man ja 7920X3D nennen, wäre er sinnvoll gewesen.
BlacKi
2023-03-21, 16:48:46
aber auch erst, wenn man den bedarf decken kann. am5 ist schon ein halbes jahr tot am boden und vernünftige cpus die jetzt erscheinen haben keine stückzahlen.
das ist echt bitter, wenn man sich die preise der non x3d cpus der letzten 6 monate anschaut. da ist der wertverfall einer 4090 ein scheiß dagegen.
Slipknot79
2023-03-21, 21:26:15
Bringt mir viel wenn der 7800X3D nach dem Bundlezeitraum rauskommt. Ein Schelm... :redface:
Can kein Argument sein, verfügbar wird die CPU so und so nicht vor Herbst sein. (y)
MSABK
2023-03-21, 21:30:26
aber auch erst, wenn man den bedarf decken kann. am5 ist schon ein halbes jahr tot am boden und vernünftige cpus die jetzt erscheinen haben keine stückzahlen.
das ist echt bitter, wenn man sich die preise der non x3d cpus der letzten 6 monate anschaut. da ist der wertverfall einer 4090 ein scheiß dagegen.
Wie wir wissen liegt es an den Boardpreisen. Die CPUs fand ich nie zu teuer.
BlacKi
2023-03-21, 21:34:50
Wie wir wissen liegt es an den Boardpreisen. Die CPUs fand ich nie zu teuer.wo sind die a620 boards? amd will scheinbar auch keine günstigen boards anbieten. wollen wohl am chipsatz und an den cpus asche machen.
Complicated
2023-03-22, 07:42:57
AMD biete keine Boards an.
aufkrawall
2023-03-22, 07:56:15
Als 8+4, kann man ja 7920X3D nennen, wäre er sinnvoll gewesen.
Wohl eher "7850X3D", natürlich mit dem angesetzten Wucherpreis für den 7800X3D. Dass die reine Spieleleistung den kompletten Preis bestimmt, ist einfach nur frech.
bestMAN
2023-03-22, 09:51:14
die Preise werden sich schon noch einregeln. Siehe 5800X3D.
dildo4u
2023-03-22, 10:06:41
Nicht wahrscheinlich der 5800X3D ist billiger weil er "nur" 13600k Performance hat wenn 7800X3D auf 13900KS Level läuft sind 400€+ gerechtfertigt.
Intel hat bis auf zwei China Modelle keine "billigen" Modelle mit viel Cache.
https://www.computerbase.de/2023-02/nur-fuer-china-core-i5-13490f-und-i7-13790f-als-black-edition-gesichtet/
Slipknot79
2023-03-22, 11:05:10
Interessant wird es, ob der 7800x3d toirer sein wird, als der 7900x3d.
Den 7900er will "niemand" haben, schon gar nicht Gamer.
Den 7950er wollen Gamer unbedingt haben, daher kaum verfügbar.
Daraus folgt: 7800x3d kaum verfügbar, da Gamer-CPU, -> Scalperpreise bei ca. 700€ (y) Bis frühestens Herbst.
dildo4u
2023-03-22, 11:10:36
Ich muss was verpasst haben aber die Nachfrage ist komplett im Keller, AMD musste jedes Zen 4 Modell in Preis anpassen.
Gerade im Sommer werden Leute was anderes mit ihrem Geld machen.
Und dann kommen noch die schrottigen PC Umsetzungen dazu die sich durch die Bank ein abstottern.
blackbox
2023-03-22, 11:43:46
Die Mainboards sind immer noch abartig teuer. Was ist eigentlich der Grund dafür?
Entsprechende Intel-Boards sind 100 EUR günstiger.
Will AMD den Verkauf fördern, muss das Gesamtsystem günstiger sein. Ansonsten wird das nichts.
dildo4u
2023-03-22, 11:47:19
DDR5 Intel Boards Fangen bei 130-150 an AMD 180.(B650 VS B760)
B760
https://geizhals.de/?cat=mbp4_1700&xf=493_4x+DDR5+DIMM
B650
https://geizhals.de/?cat=mbam5&xf=317_B650
blackbox
2023-03-22, 11:57:15
Mindfactory gibt doch 90€ weil der Absatz katastrophal langsam ist es wird imo immer Aktionen geben bis die billigen Boards kommen.
https://abload.de/img/bundleloev3.png
Irgendwie funktioniert das bei mir nicht?
Es wird nirgendwo der Rabatt angezeigt.
Mordekai2009
2023-03-22, 11:57:55
Grob 50€ unterschied aber es hängt von Austattung usw. ab.
dildo4u
2023-03-22, 12:15:04
Irgendwie funktioniert das bei mir nicht?
Es wird nirgendwo der Rabatt angezeigt.
Hast recht wenn ich CPU plus Board in den Warenkorb stecke wird kein Rabatt angezeigt.
blackbox
2023-03-22, 12:35:31
Lösung: Ganz am Ende des Prozesses kann man den Rabattcode eingeben.
70 EUR Rabatt waren es hier bei einem 7900x + Asrock B650 Board.
Habs trotzdem nicht bestellt, inkl. DDR5 RAM ist mir das zu viel.
BlacKi
2023-03-22, 15:43:49
DDR5 Intel Boards Fangen bei 130-150 an AMD 180.(B650 VS B760)
B760
https://geizhals.de/?cat=mbp4_1700&xf=493_4x+DDR5+DIMM
B650
https://geizhals.de/?cat=mbam5&xf=317_B650
die b760 boards fangen bei 97€an, und mit kühlkörpern ab 102.
alternativ einfach ein h610 board für 69€ bestellen und hoffen dass das raptor bios schon drauf ist, oder eine tray alderlake mitbestellen fürs bios.
wo sind die a620 boards?
MSABK
2023-03-22, 15:49:32
Die Mainboards sind immer noch abartig teuer. Was ist eigentlich der Grund dafür?
Entsprechende Intel-Boards sind 100 EUR günstiger.
Will AMD den Verkauf fördern, muss das Gesamtsystem günstiger sein. Ansonsten wird das nichts.
Ich habe zwei Theorien, einmal dass es eine HEDT Plattform ist mit der TDP und zum anderen die Hersteller sich den langen Support bezahlen lassen wollen. Man kann auf einen alten AM4 Schinken einfach so mal eine der schnellsten CPUs draufschnallen. Das ist schon fast einmalig.
BlacKi
2023-03-22, 17:48:29
wochendeal ASUS ROG STRIX B650E-F GAMING WIFI 264,90 https://www.alternate.de/ASUS/ROG-STRIX-B650E-F-GAMING-WIFI-Mainboard/html/product/1870277?zanpid=11731_1679503554_d80a32d0267338810c2e2967483c8f23&awc=11731_1679503554_d80a32d0267338810c2e2967483c8f23&partner=dezanoxtextlink&campaign=AF/DeZanox/Textlinks/Alternate
rentex
2023-03-22, 18:52:14
wochendeal ASUS ROG STRIX B650E-F GAMING WIFI 264,90 https://www.alternate.de/ASUS/ROG-STRIX-B650E-F-GAMING-WIFI-Mainboard/html/product/1870277?zanpid=11731_1679503554_d80a32d0267338810c2e2967483c8f23&awc=11731_1679503554_d80a32d0267338810c2e2967483c8f23&partner=dezanoxtextlink&campaign=AF/DeZanox/Textlinks/Alternate
Schon geholt :wink:
Achill
2023-03-22, 19:27:06
CFX hat jetzt auch ein paar Benchmarks zum 7950X3D rausgehauen: (https://www.capframex.com/tests/Ryzen%20V-Cache%20gegen%20brachiale%20DDR5%20Speicherleistung)
Intel i9-13900K, P-Cores 5,6GHz, E-Cores deaktiviert, Ringbus 4,9GHz & G.Skill Trident Z5 RGB DDR5-7600 optimierte Timings
gegen
AMD Ryzen 9 7950X3D, 100MHz Offset, CCD0 -20 Curve Optimizer & G.Skill Trident Z5 RGB DDR5-6000 optimierte Timings
Leider ist ihm das Z790 Board irgendwann verreckt, so dass einige Benchmarks fehlen. Aber immerhin ist das nun auch mal ein Review für die "keine opt. Subtimings und nur DDR5 7200!!!111elf"-Fraktion.
Ich halte den Testaufbau trotzdem für unbefriedigend. CyberPunk, Spiderman MM und Far Cry 6 liefen in meinen Tests nachweisbar langsamer ohne E-Cores. Entweder testet man @default (also E-Cores an), oder man macht sich die Extra-Mühe mit Sondertests E-Cores on vs. off. Aber generell komplett aus ist mit RPL und Win 11 22H2 imho das Unsinnigste, was man machen kann.
Es gab jetzt nochmal ein Update vom CapFrameX Artikel vor ein Paar Tagen, laut Text wurden die RAM-Timings optimiert und auch E-Core On/Off ist jetzt bei allen Benchs vorhanden (wurde ja geschrieben das das MB kaputt ging). Siehe: Ryzen V-Cache gegen brachiale DDR5 Speicherleistung (https://www.capframex.com/tests/Ryzen%20V-Cache%20gegen%20brachiale%20DDR5%20Speicherleistung)
[..]
[Update 08/03/2023] Die restlichen Benchmarkergebnisse für Spider-Man Remastered, Metro Exodus und UE5 City Sample wurden ergänzt, ebenso die fehlenden Verbräuche. Der13900K wurde alternativ für die Updates mit einem Gigabyte Z690 Taychon betrieben. Das Board ermöglicht ebenfalls sehr hohe Speichertransferraten.
[Update 19/03/2023] Da sowohl der 13900K mit aktivierten E-Cores als auch der 7950X3D mit zusätzlicher Optimierung teils signifikant mehr Leistung abliefern, wurden alle Benchmarks wiederholt. Dies betrifft dementsprechend auch die EPS 12V Verbrauchswerte, welche komplett mit neuen Werten ersetzt wurden. Die Benchmarks des 7950X3D wurden mit einer relativ stark reduzierten SoC Spannung von 1,15V druchgeführt, was zu einem rund 10% geringeren Verbrauch führt. Erstaunlicherweise sinkt der Idle-Verbrauch sogar um ca. 20W.
[..]
wären eigentlich bspw. 8+4 Kerne technisch möglich oder müssen es immer gleich viel Kerne sein?
rentex
2023-03-23, 05:35:54
Wenn es möglich wäre, hätte es AMD gemacht. Der gestrige Tag war ser witzig. Der 7900X3D wurde beim Mindstar, erst für 625€ angeboten. Dann zog Cyperport nach und MF hinterher. Ende vom Lied war, das CP es dann ganz gelassen hat, weiterzugehen und sprang wieder auf 645€. MF hat dann den Preis bei 619€ festgesetzt. Viel Absatzbewegung gab es trotzdem nicht bei MF...nicht sehr beliebt die CPU.
MSABK
2023-03-23, 06:09:07
Die 7900x3d wird wie blei in den Regalen liegen. Der ist einfach zu teuer für die Leistung und quasi ein totes Produkt.
rentex
2023-03-23, 06:25:18
Die 7900x3d wird wie blei in den Regalen liegen. Der ist einfach zu teuer für die Leistung und quasi ein totes Produkt.
Für unter 600€ wäre es ok. Kann es sein, das die Lagerbestände an Ryzen 5000 CPUs immer noch hoch sind?
Schon alleine beim Mindstar, gehen die Kontigente nicht mehr weg.
dildo4u
2023-03-23, 06:54:15
Das nächste große PC Game ist Diablo 4 die Beta lief CPU seitig OK auf meinen alten 2600x.
Im Herbst könnten endlich die ersten nicht Next-Gen Games auch fürn PC kommen.( Stalker2, Starfield)
MSABK
2023-03-23, 07:19:02
Für unter 600€ wäre es ok. Kann es sein, das die Lagerbestände an Ryzen 5000 CPUs immer noch hoch sind?
Schon alleine beim Mindstar, gehen die Kontigente nicht mehr weg.
Muss ja auch da sein, AM4 bringt aktuell viel Geld ein und darauf wird AMD nicht verzichten. Je weniger AM4 verkauft wird, desto mehr Intel wir verkauft. Die AM5 Plattform kann von den Kosten nicht mit der AM4 Plattform mithalten. Mit AM4 kann man sich eine Plattform für unter 360€ bauen und das geht mit AM5 nicht, da hat nur Intel was in dem Bereich.
Complicated
2023-03-23, 08:07:50
Intels AM5-Äquivalente Plattform mit DDR5/PCIe 5.0 ist kaum billiger. Und Intel verkauft sich lediglich über OEMs besser, nicht im Retail. Daher sind die geizhals-Preise überhaupt keine relevante Bezugsgröße für die unternehmerische Strategie, in einem Markt der am Boden ist.
MSABK
2023-03-23, 08:09:25
Intels AM5-Äquivalente Plattform mit DDR5/PCIe 5.0 ist kaum billiger. Und Intel verkauft sich lediglich über OEMs besser, nicht im Retail. Daher sind die geizhals-Preise überhaupt keine relevante Bezugsgröße für die unternehmerische Strategie, in einem Markt der am Boden ist.
Klar, man kann aber bei Intel mit DR4 noch was neurs verbauen, also 13th gen und das ist äquivalent zu Zen4, nur vom Preis nicht.
Complicated
2023-03-23, 08:56:40
Die DDR4 Modelle hatten ein kurzes hoch und sind dann ebenfalls gefallen in der Nachfrage - da geht bei AM4 mehr über den Tresen. Intels Umsatz ist deutlicher eingebrochen als AMD. Leonidas hatte auch eine News dazu. Und mit einer Intel DDR4 Plattform ist man ebenfalls in der Sackgasse was aufrüsten angeht. Daher ist das im Retail kaum ein Faktor mehr. Alle warten auf günstigere DDR5 Plattformen. Bei den OEMs sind die Gesamtkosten mit DDR5 auch noch zu hoch für den Massenmarkt.
dildo4u
2023-03-23, 10:28:34
Der große Einbruch ist bei Notebooks da die 2021/22 für Work from Home gekauft wurden, daher leidet Intel massiv mehr ihnen gehört fast der komplette X86 Mobile Markt.
BlacKi
2023-03-23, 11:12:24
Schon geholt :wink:passend dazu recht günstig 64gb hynix ram für 204€? https://www.alternate.de/Kingston-FURY/DIMM-64-GB-DDR5-5600-Kit-Arbeitsspeicher/html/product/1893212
rentex
2023-03-23, 11:59:08
passend dazu recht günstig 64gb hynix ram für 204€? https://www.alternate.de/Kingston-FURY/DIMM-64-GB-DDR5-5600-Kit-Arbeitsspeicher/html/product/1893212
Hab mir für 152€ (inkl. Versand), 32GB Gskill Trident Z5 DDR5 6000 CL30 geholt.
Jo gibt den Speicher, den HWU nutzt für den Preis, ich kann mir nicht vorstellen, dass es sich lohnt, was anderes zu kaufen, solange die Preissituation so ist wie sie ist.
https://geizhals.de/g-skill-trident-z5-neo-schwarz-dimm-kit-32gb-f5-6000j3038f16gx2-tz5n-a2815884.html?hloc=at&hloc=de
rentex
2023-03-23, 13:42:36
Jo gibt den Speicher, den HWU nutzt für den Preis, ich kann mir nicht vorstellen, dass es sich lohnt, was anderes zu kaufen, solange die Preissituation so ist wie sie ist.
https://geizhals.de/g-skill-trident-z5-neo-schwarz-dimm-kit-32gb-f5-6000j3038f16gx2-tz5n-a2815884.html?hloc=at&hloc=de
Mal ehrlich, Speicher ist gerade das letzte Problem. Sehr guter Preis und Verfügbarkeit.
Bei Boards nicht so gut und wenn es keine X3D CPU sein soll, ebenfalls gute Konstellation.
Also ich find das GB B650 Gaming X oder X670 Gaming X sind hervorragende Angebote.
https://geizhals.de/gigabyte-b650-gaming-x-ax-a2824411.html?hloc=at&hloc=de
https://geizhals.de/gigabyte-x670-gaming-x-ax-a2800955.html?hloc=at&hloc=de
Je nachdem, was man will natürlich. Aber mehr I/O wird schwierig und PCIe5 ist mir scheissegal.
Leider ist das DS3H bei uns in D total überteuert, sonst wäre das auch noch ne Empfehlung.
Ich nehme an, dass von beiden Boards später noch eine UD-Variante nachgeschoben wird, die günster wird.
aceCrasher
2023-03-23, 16:00:16
Also ich find das GB B650 Gaming X oder X670 Gaming X sind hervorragende Angebote.
https://geizhals.de/gigabyte-b650-gaming-x-ax-a2824411.html?hloc=at&hloc=de
Dieses Gigabyte B650 hat allerdings ein braunes PCB *würg*
dargo
2023-03-23, 18:16:19
Also ich find das GB B650 Gaming X oder X670 Gaming X sind hervorragende Angebote.
https://geizhals.de/gigabyte-b650-gaming-x-ax-a2824411.html?hloc=at&hloc=de
https://geizhals.de/gigabyte-x670-gaming-x-ax-a2800955.html?hloc=at&hloc=de
Mit nem Realtek ALC897 sollen das gute Angebote sein? Die spinnen doch. :lol: Diese Soundchips aus der untersten Schublade bei Brettern in einer Preisklasse von 200-300€ sind nur noch peinlich.
Mir ist das vollkommen egal, ich hab ne ordentliche Soundlösung. Das trifft auch für viele andere zu, egal ob Karte oder USB. Ich würd immer ne echte Soundlösung der Onboardlösung vorziehen. GB trägt dem Rechnung und ich finde das gut.
Es ist ja nicht so, als wenn GB das nicht hätte, dafür gibts die Pro-Varianten, die haben den ALC1220 (und nicht den schrottigen ALC4080 :D).
(egal ob B650 oder X670)
UD -> günstigeres VRM, 6 Layer PCB, günstiger Sound, wenig Metall, weniger USB
Gaming X -> günstigeres VRM (trotzdem sehr gut), 6 Layer PCB, günstiger Sound
Aorus Elite -> besseres VRM, 8 Layer PCB, günstiger Sound
Aorus Pro -> besseres VRM, 8 Layer PCB, besserer Sound, Optischer Ausgang, Intel LAN statt Realtek LAN
Wem normaler onboard-Sound reicht (oder gar nicht benötigt) und/oder keine Kopfhöhrer nutzt, wird das Gaming X problemlos reichen. Dafür bekommt man ein perfektes PCIe-Management und viel USB.
Dafür ist der vorletzte PCIe auf all diesen Boards sehr gut für Soundkarten nutzbar, was meiner Nutzung entgegen käme.
Dafür sind alle E-Boards von GB totaler Mist, weil die alle den primären PEG für PCIe5-m.2 teilen, was für ein Fail.
M4xw0lf
2023-03-24, 18:49:43
Käschkraft im aktuellen Anno 1800-Bench:
https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Jubilee-Patch-Annoversary-Update-17-CPU-Benchmark-Test-1416066/
basix
2023-03-24, 20:04:25
Käschkraft im aktuellen Anno 1800-Bench:
https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Jubilee-Patch-Annoversary-Update-17-CPU-Benchmark-Test-1416066/
+40...56% für die 3D V-Cache SKUs trotz niedrigerem Takt. Wow.
Mordekai2009
2023-03-24, 20:15:11
Ein Kraftpaket.
The_Invisible
2023-03-24, 20:31:57
Fast doppelt so schnell wie mein 5950x, das ist als Aufrüstung als alter Annoholiker gerchetfertigt :freak:
Der_Korken
2023-03-24, 20:47:35
So gut der 3D-Cache auch ist, so sehr muss man aber auch sagen, dass AMD an ihrem Speichercontroller oder ihrer Cache-Verwaltung arbeiten muss. Der 7700X ist gerade mal 11% schneller als in 5700X, d.h. nicht mal der Taktvorteil wird in Leistung umgesetzt. Andersrum ziehen die 13000er Kreise um Non-3D-Modelle. Ein 13700K ist 40% schneller als der schnellste 7000er von AMD, obwohl der L3 nicht größer ist.
Generell habe ich das Gefühl, dass der 3D-Cache oft da besonders viel bringt, wo Intel relativ stark ist. An zu schwachen Kernen kann es nicht liegen, denn mit mehr Cache ziehen die wieder davon. Das ist mir damals schon beim Alder Lake Release aufgefallen, wo in eingen Spielen DDR5 deutliche Vorteile gegenüber DDR4 brachte, obwohl sich die absoluten Latenzen verschlechtert haben. Zuletzt hatte HWUB festgestellt, dass Zen 4 sehr stark an den RAM-Timings hängt (afaik mehr als doppelt so starke Zuwächse wie Raptor Lake). Mich würde mal interessieren was da genau hakt. Laufen irgendwelche Load/Store-Buffer über? Bündelt Intels IMC die Zugriffe effizienter?
...Andersrum ziehen die 13000er Kreise um Non-3D-Modelle. Ein 13700K ist 40% schneller als der schnellste 7000er von AMD, obwohl der L3 nicht größer ist...?
wat???
dildo4u
2023-03-25, 08:25:05
Ich weiß nicht wo er 40% her hat vielleicht ein bestimmtes Game?
Es Kommt auf die Test Suite an das hier wäre das extrem Beispiel pro 3XD +26% im Schnitt aber dort hat AMD aber den 100€ billigeren 5800x3D vs 13700k
The Ryzen 9 7950X3D is an incredible 26% faster than the 7950X, now giving AMD’s Zen 4 the overall lead.
https://abload.de/img/x3dzrfcu.png
https://www.tomshardware.com/reviews/amd-ryzen-9-7950x3d-cpu-review/6
MSABK
2023-03-25, 09:39:29
Mit Kreise um Zen4 ziehen meinte er evt Anno 1800, dort ist dies ja der Fall.
So gut der 3D-Cache auch ist, so sehr muss man aber auch sagen, dass AMD an ihrem Speichercontroller oder ihrer Cache-Verwaltung arbeiten muss. Der 7700X ist gerade mal 11% schneller als in 5700X, d.h. nicht mal der Taktvorteil wird in Leistung umgesetzt. Andersrum ziehen die 13000er Kreise um Non-3D-Modelle. Ein 13700K ist 40% schneller als der schnellste 7000er von AMD, obwohl der L3 nicht größer ist.
Generell habe ich das Gefühl, dass der 3D-Cache oft da besonders viel bringt, wo Intel relativ stark ist. An zu schwachen Kernen kann es nicht liegen, denn mit mehr Cache ziehen die wieder davon. Das ist mir damals schon beim Alder Lake Release aufgefallen, wo in eingen Spielen DDR5 deutliche Vorteile gegenüber DDR4 brachte, obwohl sich die absoluten Latenzen verschlechtert haben. Zuletzt hatte HWUB festgestellt, dass Zen 4 sehr stark an den RAM-Timings hängt (afaik mehr als doppelt so starke Zuwächse wie Raptor Lake). Mich würde mal interessieren was da genau hakt. Laufen irgendwelche Load/Store-Buffer über? Bündelt Intels IMC die Zugriffe effizienter?
Da hakt nichts, wenn du dir die HWU-Benches auch mal anschaust, wirst du schnell sehen, dass deine Einschätzung aus dem ersten Teil schlichtweg Blödsinn ist. Nur weil die AMDs stärker auf Subtimings reagieren als Intel heißt das ja nicht, das da was faul ist, wie kommt man auf so einen Unsinn?
HWU hat eben festgestellt, dass die Boardhersteller außer Gigabyte die Speichersubtimings zu langsam timen (das wird jetzt nicht mehr so sein mit neuen BIOSsen). Der Speichercontoller der AMDs ist im Gegenteil sehr berechenbar und gut einstellbar, das fand Buildzoid ja heraus, der mag eher den Intel-Controller überhaupt nicht, weil das eben viel Lotto ist.
dildo4u
2023-03-25, 09:58:11
Mit Kreise um Zen4 ziehen meinte er evt Anno 1800, dort ist dies ja der Fall.
Dort sind es aber über 50% beim 16 Core hauptsächlich da PCCH nur min Spec Ram nutzt Alder Lake verliert deswegen gegen 5800X3D.
https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Jubilee-Patch-Annoversary-Update-17-CPU-Benchmark-Test-1416066/
13700k und 7800X3D sollten hier ca die selbe Preis/Leistung habe.
Das schadet aber vor allem den Ryzen7k ohne VCache, weniger den Intels.
BlacKi
2023-03-25, 10:24:54
Das schadet aber vor allem den Ryzen7k ohne VCache, weniger den Intels.tolle behauptung, noch 2x dann muss es stimmen.
Der_Korken
2023-03-25, 11:00:29
wat???
Ich weiß nicht wo er 40% her hat vielleicht ein bestimmtes Game?
Leute, beruhigt euch mal wieder. Die 40% beziehen sich auf den Anno 1800 Bench, auf den sich auch die drei Posts über meinem jeweils ohne explizites Zitat bezogen haben.
Da hakt nichts, wenn du dir die HWU-Benches auch mal anschaust, wirst du schnell sehen, dass deine Einschätzung aus dem ersten Teil schlichtweg Blödsinn ist. Nur weil die AMDs stärker auf Subtimings reagieren als Intel heißt das ja nicht, das da was faul ist, wie kommt man auf so einen Unsinn?
"Stärker reagieren" sah in dem HWUB-Test aber so aus, als würden Zen 4 und Raptor Lake erst mit scharfen Timings gleichziehen, während Zen 4 mit schlechteren Timings massiv mehr Leistung verliert. Insofern frage ich mich schon, woran sowas liegt. Intel hat deutlich größere Load/Store-Queues, d.h. kann mehr ausstehende Speicheranfragen in flight halten. Wenn so viel parallel geladen wird, dass bei Zen 3/4 die Queues volllaufen und dadurch der Kern stalled, würde ich erwarten, dass mit besseren Latenzen die Leistung deutlich steigt, weil die einzelne Anfragen schneller abgearbeitet sind und Platz für die nächsten machen.
Das ganze setzt natürlich voraus, dass die nicht gezeigten Timings halbwegs fair bei beiden sind und nicht z.B. bei Intel deutlich schärfer.
HWU hat eben festgestellt, dass die Boardhersteller außer Gigabyte die Speichersubtimings zu langsam timen (das wird jetzt nicht mehr so sein mit neuen BIOSsen). Der Speichercontoller der AMDs ist im Gegenteil sehr berechenbar und gut einstellbar, das fand Buildzoid ja heraus, der mag eher den Intel-Controller überhaupt nicht, weil das eben viel Lotto ist.
Ersteren Test habe ich gesehen und ja das macht viel aus. Die Frage ist, ob die Timings bei Intel ootb schärfer gesetzt werden bzw. ob diese dadurch auch so stark profitieren wie AMD oder weniger (womit wir wieder beim obigen Punkt wären). Zu Buildzoids Kommentar kann ich nichts sagen, das müsste ich mir mal angucken.
ImmortalMonk
2023-03-25, 11:09:21
Schon geholt :wink:
Bei Amazon für 293,75
https://www.amazon.de/gp/product/B0BHHTJZM9/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1
tolle behauptung, noch 2x dann muss es stimmen.
Hat HUB doch nachgemessen? Das ist keine Behauptung. Die Intel reagieren recht wenig auf die RAM-Timings und -Subtimings.
https://youtu.be/RTmbYak_8gE
Buildzoids Rant über den Intel Controller:
https://youtu.be/5R8en_FtA80
Ihm bleibt ja nichts übrig als den Intel zu maximieren, weil die AMDs meist nicht über 6200, keinesfalls aber über 6666 gehen.
BlacKi
2023-03-25, 14:30:48
Hat HUB doch nachgemessen? Das ist keine Behauptung. Die Intel reagieren recht wenig auf die RAM-Timings und -Subtimings.
https://youtu.be/RTmbYak_8gE
Buildzoids Rant über den Intel Controller:
https://youtu.be/5R8en_FtA80
Ihm bleibt ja nichts übrig als den Intel zu maximieren, weil die AMDs meist nicht über 6200, keinesfalls aber über 6666 gehen.die aussage ist so pauschal, ich musste lachen:biggrin: und dann whataboutism.
wenn das mit den timings auf den gigabyteboards stimmt. dann trifft das auf die anderen boards wohl zu. aber das ist auch eher nebenschauplatz.
hier sieht man das intel durchaus mehr verlieren kann bei gleichen werten xmp vs stock. getuned ist es wieder was anderes, darum ging es nicht in erster linie.
so würde ich das auch bei anno erwarten, leider hab ich dazu keine benches gefunden.
https://abload.de/img/memscaltxcmz.png
also natürlich leidet intel mit stock settings stark. und ich halte die hwu im avg für verfälscht.
4800er nutzt kein Mensch :freak:. Und die getunten Ergebnisse kann man sich einfach wegdenken, darum gings ja nicht.
Von 5200er auf 6400er gewinnt Intel nur 9,2%, bei AMD sinds von 5200 auf 6000er 20,6%. 7200er sind bei Intel genauso Glückssache wie bei AMD >6000, von daher kann man das nicht mitzählen und 4800er da einzubeziehen ist Quatsch. Wenn man Perzentile rechnet wirds übrigens noch weniger, dann sinds bei Intel nur noch 7,2% ;).
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.