PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16

aufkrawall
2022-07-19, 19:53:15
Ich glaube nicht, dass die Sinnhaftigkeit über die Sinnhaftigkeit von RT hier gut aufgehoben ist.
Ex3cut3r, wieso versuchst du es mit ihm überhaupt? :freak:

ChaosTM
2022-07-19, 20:00:17
CP77 skaliert sehr gut bis zur 5950er unter RTRT Ultra.
Da wäre ein Vergleich mit dem 3D interessant.

Ex3cut3r
2022-07-19, 21:46:45
Ja... nettes Cherrypicking hast du dir da ausgesucht was wenige Sekunden in einer Cutszene zu sehen ist. Cherrypicking kann ich auch, voll krass der Unterschied auf die gesamte Szene bezogen.
https://youtu.be/6bqA8F6B6NQ?t=504
https://youtu.be/6bqA8F6B6NQ?t=615

Sorry, aber auch mit deinen Einzelschüssen wirst du mich nicht überzeugen. Vielleicht mal in Zukunft wenn das was deine 3080TI heute liefert eine 400-500€ Graka liefert. Wobei wir bis dahin eh eine ganz andere Grundlast beim Rasterizer sehen werden (ab dem Zeitpunkt wo alte Konsolen fallen gelassen werden) und wenn dann die DEVs mehr RT-Strahlen pro Szene loslassen kotzen wieder die 1500+€ Grakas sich einen aus. ;D Die Spirale kennen wir doch seit Jahren. ;)
Das ist kein Cherry Picking, das ist jedesmal die Grafik in Indoors zwischen RT und non RT Beleuchtung/AO. Die Outdoor Szenen sind aber auch gigantisch, KA wie man da keine großen Unterschied sehen möchte. ;D

Vermutlich muss man sich erst eine Radeon einbauen, dann bekommt man plötzlich die RT Blind "Krankheit"

Darkearth27
2022-07-19, 21:57:09
Nope geht auch mit AMD Karte und man sieht den unterschied, allerdings muss man dann in 1080p + FSR Ultra performance spielen, damit man vernünftige FPS bekommt. :D

RT kann ein Game schon bereichern, Problem ist eben nur, dass es weder auf NV noch auf AMD Karten ohne Upscaler vernünftig läuft (in Auflösung von 1440p und hoher, bei amd eben noch weit drunter aber sind ja auch "eine Gen" hinten an).

Warten wir die Zukunft ab (vielleicht bringt ja dieses Jahr schon die eine oder andere Karte mehr Leistung damit man in 1440p mit allen effekten Spielen kann ohne große einbuße zu haben).

Aber, um es wieder zurück zum toppic zu bringen, aktuell ist bei CP2077 keiner der beiden stark genug um das CPU Limit richtig zu messen (so meine Ergebnisse zumindest).

Dazu kommt die Threadverwaltung des Spiels ist immer noch nicht gut, wenn auch verbessert.
Siehe PCGH Nachtest mit Version 1.52

Lurtz
2022-07-19, 22:03:15
Thx. Da steht ja auch, man soll den Browser zwischen den Tests neu starten. Aber eine gewisse Abweichung gibt es auch so, ja.
~36k sind ganz nett, mit dem 11400F sind es ~32k bei 4,4GHz SC (Linux btw. ~2k Punkte schneller).
Ich schaffe hier ~39k mit einem 12500 (3200 DDR4-RAM) und Firefox 103 :uponder: Ist Intel da so viel stärker oder zählt da einfach nur IPC?

194 bei Speedometer 2.0.

aufkrawall
2022-07-19, 22:10:36
Offenbar schlägt die IPC hier gut durch. Ob man davon auf hochgezüchteten Desktop-CPUs real so viel merkt, sei dahin gestellt. ;)

Lurtz
2022-07-19, 22:11:41
Also gefühlt ist die Schwuppdizität von Firefox, der sich ja traditionell mit viel Javascript ein bisschen schwer tut, von Skylake auf Alder Lake schon wieder deutlich gestiegen :D

ChaosTM
2022-07-19, 22:16:26
Man muss ihn nur regelmäßig zurücksetzen. Geht schnell und die AddOn installieren sich flott wieder selber. Lediglich die Wörterbücher gehen (oft) verloren aber das sind auch nur ein paar Clicks..

Lurtz
2022-07-19, 22:17:38
Zurücksetzen ändert rein gar nichts an der Javascript-Performance.

ChaosTM
2022-07-19, 23:05:22
FF wird einfach nach einer gewissen Zeit immer zäher. Das lässt sich damit verhindern.

aufkrawall
2022-07-19, 23:08:31
FF wird einfach nach einer gewissen Zeit immer zäher.
Hab ich schon seit Jahren nicht mehr beobachtet. Es liegt fast immer an irgendwelchen Schrott-Extensions irgendwelcher Müllprogramme wie Virenscanner etc.

dargo
2022-07-20, 06:21:55
Das ist kein Cherry Picking, das ist jedesmal die Grafik in Indoors zwischen RT und non RT Beleuchtung/AO. Die Outdoor Szenen sind aber auch gigantisch, KA wie man da keine großen Unterschied sehen möchte. ;D

Vermutlich muss man sich erst eine Radeon einbauen, dann bekommt man plötzlich die RT Blind "Krankheit"
Ja... das wird es wohl sein. :comfort:

PS: wir sollten es vielleicht dabei belassen, dass dich RT-Effekte einfach mehr flashen als mich. :) Mich flashen wiederum mehr schöne Assets die sich stark vom Durchschnitt absetzen.

Lurtz
2022-07-20, 11:48:25
FF wird einfach nach einer gewissen Zeit immer zäher. Das lässt sich damit verhindern.
Halte ich bis zum Gegenbeweis für Unfug. Übrigens haben auch andere Browser Profile und ein Großteil davon wie Indexed DB ist mittlerweile eh standardisiert.

Das Extensions-Modell ist mittlerweile auch gleich, und ja, Extensions können Dinge wie Javascript-Ausführung deutlich verlangsamen, das hat aber nichts mit den Profildaten von Firefox zu tun.

Raff
2022-07-25, 10:28:24
Sommerhit Stray: Unreal Engine 4 in rustikaler DX11-Gestalt, daher hoher Overhead -> 5800X3D rules them all, again. (https://www.pcgameshardware.de/Stray-Spiel-73421/Specials/Stray-Review-Benchmark-Test-Intel-AMD-Nvidia-1399686/2/#a2)

27 Prozent schneller als ein 12900K. ;D

Leider testen die Idioten immer noch nur gemäß Spezifikation, dabei nutzen das so nur Millionen von Menschen. ;)

MfG
Raff

dildo4u
2022-07-25, 11:40:31
Fragt sich ob die E Core dort Probleme machen das ist extrem schwach ich würde drauf tippe das ein 12400 auf 5600 Level oder höher liegt also im Bereich des i9.

M4xw0lf
2022-07-25, 11:52:46
Sommerhit Stray: Unreal Engine 4 in rustikaler DX11-Gestalt, daher hoher Overhead -> 5800X3D rules them all, again. (https://www.pcgameshardware.de/Stray-Spiel-73421/Specials/Stray-Review-Benchmark-Test-Intel-AMD-Nvidia-1399686/2/#a2)

27 Prozent schneller als ein 12900K. ;D

Nice, nice :cool::freak:

aufkrawall
2022-07-25, 11:57:53
Fragt sich ob die E Core dort Probleme machen das ist extrem schwach ich würde drauf tippe das ein 12400 auf 5600 Level oder höher liegt also im Bereich des i9.
Du siehst im Video, dass die E-Cores ~gar nichts machen.
Plot Twist: Der IMC des 11900K läuft bei PCGH mit 1,6GHz, der des 12900K mit 1,1GHz.

dargo
2022-07-25, 11:58:42
Leider testen die Idioten immer noch nur gemäß Spezifikation, dabei nutzen das so nur Millionen von Menschen. ;)

Hihi... der war gut, ich mag deinen Humor. :D

btw.
Natürlich bencht man innerhalb der Spezifikationen, alles andere ist Bonus oder Zündstoff für irgendwelche Grabenkriege pubertierender Pickelgesichter. ;)

Edit:
Mal eine Frage dazu... sind eure Messungen absolut reproduzierbar? Ich hätte insbesondere bei dem X3D erwartet, dass er den Vorsprung bei den avgs. mindestens auch bei den P1 halten kann.

Crazy_Chris
2022-07-25, 12:10:37
27 Prozent schneller als ein 12900K. ;D



könnte also auch für einen 13900K bei 250W eng werden. ;)

Lehdro
2022-07-25, 15:33:36
könnte also auch für einen 13900K bei 250W eng werden. ;)
Aber der 13900KS mit 350W schafft dann ein Patt :wink:

Th3o
2022-07-25, 15:51:16
Sind die TDPs der neuen Heizkörper von Intel schon bekannt?

Megamember
2022-07-25, 16:03:35
Leider testen die Idioten immer noch nur gemäß Spezifikation, dabei nutzen das so nur Millionen von Menschen. ;)

MfG
Raff

Ich bezweifel das sich mittlerweise "Millionen" ahnungslose Menschen einen Fertig 12900K PC mit so langsamen Ram gekauft haben.

dargo
2022-07-25, 16:09:40
könnte also auch für einen 13900K bei 250W eng werden. ;)
So lustig finde ich das gar nicht wenn ich lesen muss, dass AMD bei Zen4 die TDP auf 170W erhöht. :(

Raff
2022-07-25, 17:14:24
Mal eine Frage dazu... sind eure Messungen absolut reproduzierbar? Ich hätte insbesondere bei dem X3D erwartet, dass er den Vorsprung bei den avgs. mindestens auch bei den P1 halten kann.

Jeder veröffentlichte Wert ist das CapFrameX-Aggregat aus drei Messungen, wobei die Ausreißer-Toleranz auf fünf Prozent gestellt ist (bei Grafikkarten drei Prozent = Standardwert, aber da sind die Abweichungen generell geringer und die Option daher irrelevant). Wenn etwas stärker schwankt, ist die Szene Schrott und es käme eine andere zum Einsatz.

MfG
Raff

dargo
2022-07-25, 17:22:59
Hmm... dann verwundern mich die P1 etwas, hätte insbesondere beim X3D in dieser Disziplin mehr erwartet.

M4xw0lf
2022-07-25, 17:26:27
So lustig finde ich das gar nicht wenn ich lesen muss, dass AMD bei Zen4 die TDP auf 170W erhöht. :(

Spielraum für zukünftige Schlachtrösser mit 16+ Kernen. Pro Kern wird es kaum explodieren.

Langlay
2022-07-25, 17:33:22
Ich bezweifel das sich mittlerweise "Millionen" ahnungslose Menschen einen Fertig 12900K PC mit so langsamen Ram gekauft haben.

Selbst wenn sie schnellen RAM gekauft haben, meiner Erfahrung nach scheitert der Durchschnittsuser, spätestens beim XMP aktivieren. Also der RAM läuft dann in den meisten Fällen ohne XMP mit 2133 CL15 oder so, was halt im SPD so hinterlegt ist, die Ballistix Module haben allerdings ein 2666 SPD Profil und laufen dann damit.

dargo
2022-07-25, 17:34:47
Spielraum für zukünftige Schlachtrösser mit 16+ Kernen. Pro Kern wird es kaum explodieren.
Quelle?

Langlay
2022-07-25, 17:40:41
Quelle?

Dafür braucht es keine Quelle. Mit einem Chiplet kannste dem Teil auch 500W Powerlimit geben, das ändert überhaupt nichts. Schon der 3800X und 5800X hat quasi sein Powerlimit nie ausgefahren und wenn dann war er schon so heiss das mehr Power auch nix mehr bringt weil das Teil schon quasi am glühen ist.

Crazy_Chris
2022-07-25, 17:47:15
Ich bezweifel das sich mittlerweise "Millionen" ahnungslose Menschen einen Fertig 12900K PC mit so langsamen Ram gekauft haben.

Ich lehne mich mal etwas aus dem Fenster und behaupte mal er hat da recht. Schau dir doch mal die typischen Fertigrechner mit 12900K von Dell, HP oder Lenovo an. Da wird typischerweise einfach nur DDR5-4400 oder DDR5-4800 verbaut.

horn 12
2022-07-25, 18:23:25
Nun, intel 13900K und Zen 4 werden sich bei vielen Neu erscheinenden Games mit dem 5800X3D sicherlich die Zähne ausbeissen, bei Anwendungen werden die Neuen CPU schneller sein, aber bei Games wird der X3D wohl zunehmend die Nase vorne bahalten
Und die Neuen 3D Cache CPU´s werden nicht billiger als der 5800X3D werden.

Oranje7
2022-07-25, 18:40:23
Ich bezweifel das sich mittlerweise "Millionen" ahnungslose Menschen einen Fertig 12900K PC mit so langsamen Ram gekauft haben.

War erst neulich in einer CAD-Schulung wo 4 Leuten ständig das Programm abgestürzt ist...
Musste denen erstmal erklären das sie doch bei ihrem 4000€ Laptop mal die Quadro aktivieren müssen und nicht die Intel IGPU nehmen sollen, Dann natürlich auch wie.
Das war natürlich nachdem sie über die Bananensoftware geschimpft haben und mit 32GB Ram geprahlt haben.

Meine Meinung: 95% aller "Fachleute" die einen PC haben, haben noch nie ein Bios gesehen.

M4xw0lf
2022-07-25, 18:51:40
Quelle?
trust me brow

:freak:

Einfach nur Analogie zur maximalen TDP für Sockel AM4 und den realen Verbräuchen der CPUs dafür.

Raff
2022-07-27, 11:46:24
Next! Red Dead Redemption 2 im Nachtest mit 56 CPUs und 20 Grafikkarten (https://www.pcgameshardware.de/Red-Dead-Redemption-2-Spiel-59923/Specials/Online-Update-neue-Benchmarks-2022-1399745/)

5800X3D um ~34 Prozent vor 5800X und ~20 Prozent vor 5950X - obwohl die RAGEngine mit den Zusatzkernen skaliert. Bei Alder Lake ist aber klar der Wurm drin, vermutlich funken die E-Cores unproduktiv ins Threading hinein.

MfG
Raff

M4xw0lf
2022-07-27, 12:14:01
Next! Red Dead Redemption 2 im Nachtest mit 56 CPUs und 20 Grafikkarten (https://www.pcgameshardware.de/Red-Dead-Redemption-2-Spiel-59923/Specials/Online-Update-neue-Benchmarks-2022-1399745/)

5800X3D um ~34 Prozent vor 5800X und ~20 Prozent vor 5950X - obwohl die RAGEngine mit den Zusatzkernen skaliert. Bei Alder Lake ist aber klar der Wurm drin, vermutlich funken die E-Cores unproduktiv ins Threading hinein.

MfG
Raff

Noice.

aufkrawall in 3...2...1...

aufkrawall
2022-07-27, 12:18:15
Nein, nein, kann ich so bestätigen:
https://abload.de/thumb/rdr2_2022_07_27_12_13cgjix.png (https://abload.de/image.php?img=rdr2_2022_07_27_12_13cgjix.png)

Ich müsste mir mal den in-game Benchmark anschauen. Das ging dort "früher" mit der RX 6800 mit dem 6700K mal auf 100fps runter und mit dem 11400F auf afair ~130. Ich hatte das sogar mit Bros 5600X verglichen und der 11400F war minimal schneller. Ich frag mich, ob da Updates komplett die Intel-Performance ruiniert haben.

Nightspider
2022-07-27, 12:32:27
3,35x so schnell wie der i7 2600K@stock :D

Ich weiß noch wie ~2013 davon gesprochen wurde von sehr vielen Leuten, das man sich einer maximalen Grenze bei der IPC nähert und nicht mehr viel kommen wird. ;D

Kaby Lake mit eDRAM hätte heute immernoch gut gerockt. ^^

Ex3cut3r
2022-07-27, 13:15:05
Ich müsste mir mal den in-game Benchmark anschauen. Das ging dort "früher" mit der RX 6800 mit dem 6700K mal auf 100fps runter und mit dem 11400F auf afair ~130. Ich hatte das sogar mit Bros 5600X verglichen und der 11400F war minimal schneller. Ich frag mich, ob da Updates komplett die Intel-Performance ruiniert haben.

Das lief also schon mal besser auf/mit Intel? Früher hattest du aber Win 10. Jetzt 11..... Liegt bestimmt an Win 11. ^^

Ich hab das Spiel momentan nicht installiert, da ich es ziemlich langweillig finde (einmal durchgezockt) und 120GB jetzt saugen für einen Benchmark Run, weiß nicht.

dargo
2022-07-27, 13:15:10
435% schneller als der i7 2600K@stock :D

Warst du auch in der selben Klasse wie Troyan bei Mathe? :D

aufkrawall
2022-07-27, 13:18:31
Das lief also schon mal besser auf/mit Intel? Früher hattest du aber Win 10. Jetzt 11..... Liegt bestimmt an Win 11. ^^

Nicht auszuschließen, ich hab in Borderlands 2 mit DXVK seltsamerweise auch weniger fps im CPU-Limit als unter Linux, während sich das früher (mit Win 10?) nichts nahm. Jedenfalls ist rBAR auch immer noch kaputt, läuft ohne 20-25% schneller im CPU-Limit:
https://abload.de/thumb/rdr2_2022_07_27_13_162ukgt.png (https://abload.de/image.php?img=rdr2_2022_07_27_13_162ukgt.png)
War allerdings auch bei Bro mit X470 + 5600X so.

Ist alles nicht so einfach. :redface:

Ex3cut3r
2022-07-27, 13:19:57
Interessant. Wieder einmal ein Game was mit rBar auf Nvidia langsamer läuft. Allerdings hat es Nvidia sogar auf der White List. Wasn Fail. Langsam glaube ich deaktiviere den Quatsch mit einer Geforce im Bios wieder komplett.

aufkrawall
2022-07-27, 13:23:45
Das war allerdings auch mit der 6800 so bzw. bei Bro mit 6900 XT. Scheint entweder ausgewürfelt zu sein, auf welchen Boards/Chipsätzen/Kombinationen das kaputt ist. Oder manche testen nicht richtig, weil sie nicht wissen, was ein CPU-Limit ist. :D

Ex3cut3r
2022-07-27, 13:48:11
Hmm Ok. Dann ist rBar tatsächlich bei beiden IHVs immer gut für einen Fail. Oder ist es wieder einmal die Software die den Fehler hervorruft.

aufkrawall
2022-07-27, 14:04:59
Und es wird noch schlimmer: Habe soeben rausgefunden, dass der Nvidia Treiber-Toggle nicht für RDR2 Vulkan funktioniert. Ich muss CAM im Bios ausschalten:
https://abload.de/thumb/rdr2_2022_07_27_13_556qjmb.png (https://abload.de/image.php?img=rdr2_2022_07_27_13_556qjmb.png) https://abload.de/thumb/rdr2_2022_07_27_14_00e1kw9.png (https://abload.de/image.php?img=rdr2_2022_07_27_14_00e1kw9.png)

:facepalm:

Und wieso steht im einen Screenshot Backspace für den Abbruch, im anderen Escape? wtf? :ueye:
Eh, mir reichts für heute...

dargo
2022-07-27, 14:15:08
Das sind so die geilen Momente am PC. ;D ;D ;D

nordic_pegasus
2022-07-27, 14:25:55
was ist eigentlich aus dem Gerücht geworden, dass bis Ende Juli weitere Zen3D Produkte angekündigt werden sollen...

https://twitter.com/greymon55/status/1541710124535885824?s=20&t=sEb7BDc0X_ONBkBDPameug

Crazy_Chris
2022-07-27, 14:40:46
was ist eigentlich aus dem Gerücht geworden, dass bis Ende Juli weitere Zen3D Produkte angekündigt werden sollen...

https://twitter.com/greymon55/status/1541710124535885824?s=20&t=sEb7BDc0X_ONBkBDPameug

Der Monat ist doch noch nicht rum. ;D

gedi
2022-07-27, 19:18:17
Wenn ein 5900x3d kommen sollte, dann würde ich gerne zugreifen. Der wird allerdings, wenn überhaupt erst kommen, wenn AM5 komplett eingepflegt wurde. Also frühestens early 2023

Rolsch
2022-07-27, 19:43:47
Ein Genoa-X kannste dir dann auf jeden Fall holen. 1GB V-Cache!

https://www.anandtech.com/show/17438/amd-genoax-4th-gen-epyc-with-up-to-96-zen-4-cores-coming-in-2023

gedi
2022-07-27, 19:50:18
Danke für den Link, aber für ein bisschen Gaming, Programming mit vorgegebenen Compilern und Musikproduktion @ Home ein wenig zu viel, imo :):):)

Trotzdem danke, ich kannte das Produkt nicht:)

Lurtz
2022-07-28, 12:05:23
Computerbase lässt den 56800X3D gegen Alder Lake mit RAM-OC antreten:
https://www.computerbase.de/2022-07/adl-zen3-3d-oc-gaming-benchmarks-ryzen-7-5800x3d-core-i7-12700k-i9-12900k/

dargo
2022-07-28, 12:12:10
Ich finds super, dass CB auch den Stromverbrauch dabei misst. Ziemlich vernichtend für Intel. :eek:

dildo4u
2022-07-28, 12:31:52
Der 12900k ist eh Unsinn nimmt der i7 auch so viel mit DDR5 6000, das ist das Interrsante.

w0mbat
2022-07-28, 12:40:02
Ich hätte gerne beide i7 mit den gleichen RAM gesehen, so ist es nämlich unklar, ob der 12900K nur wegen dem RAM schneller ist, oder ob die vier extra E-cores eine Auswirkung haben (denke eher nicht).

Ex3cut3r
2022-07-28, 12:49:53
Der 12900k hat aber auch mehr Cache. Und Plot Twist. Caches bringen mehr als die E-Cores in Spielen stand jetzt.

Lowkey
2022-07-28, 13:04:00
Ich hätte gerne den 12900KS gesehen. Alles mit DDR5, Standardtakt und OC. Dazu dann Intel und AMD mit maximalem Stromsparpotential. Und dann den Alder Lake auch jeweils ohne E Kerne.

r3ptil3
2022-07-28, 13:09:10
Schade dass CB Curve Optimizer nicht gleich mit getestet hat. Bedeutet ja im Optimalfall sogar noch weniger oder gleich viel Verbrauch, bei mehr Leistung.

Bin hinsichtlich DDR5 (6800+) schon sehr gespannt, was da mit Zen4 kommt.

DDR5 6800+ CL32
Zen4 3D-Cache 12-16C+ (SMT off) 5.0Ghz+
RX 7900 XT / RTX 4090

Damit wären einige Wünsche erfüllt.

Lehdro
2022-07-28, 14:21:22
Und ich hätte gerne PCIe 3.0 vs. PCIe 4.0 vermieden gewusst. Gerade wenn es um den letzten Frame geht.

aufkrawall
2022-07-28, 14:26:01
Ich will PCIe 4.0 nicht überbewerten, aber ich verstehe es auch nicht. Man hat zigtausende Euro teure Hardware rumliegen, aber rüstet das gammelige X470-Board nicht gegen X570 auf? Ok...

Lehdro
2022-07-28, 14:29:31
Ich will PCIe 4.0 nicht überbewerten, aber ich verstehe es auch nicht.
Bei einer 3080 sind es laut TPU (https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html) (was anderes auf die schnelle nicht gefunden) 1-2%, aber so eng wie es dort teilweise zugeht schon krass, dass das komplett außen vor gelassen wurde. Es wird nicht einmal erwähnt :rolleyes:

aufkrawall
2022-07-28, 14:32:55
SotTR mit dem 3D würde eine Sonderbetrachtung verdienen. Läuft das bei den 1% low wirklich "normal" so langsam, oder klemmt sonst was? Übrigens ähnlich PCGH und RDR2 mit Intel, da hätte man eigentlich noch ohne rBAR testen müssen, oder mit Nvidia gegen- etc. Auffällige Balken ohne Hintergründe sind immer unschön.

Linmoum
2022-07-28, 14:35:43
Ist halt auch kein klassischer Test der Redaktion selbst, sondern nur der eines Users. Daher gibt's auch einige Aspekte, die wenig nachvollziehbar wirken und die (direkte) Vergleichbarkeit weniger sinnvoll gestalten.

Lehdro
2022-07-28, 14:36:01
Laut HWUB sollte der X3D hier absolut rasieren (https://www.techspot.com/review/2449-amd-ryzen-5800x3D/) - und die testen nicht den ingame Benchmark, sondern eine eigene Szene in der Stadt.

https://static.techspot.com/articles-info/2449/bench/TR.png

Linmoum
2022-07-28, 14:44:43
CP2077 ist auch ein ziemlich krasser Ausreißer beim P1.

PCGH liegen dort zwischen dem 3D und 12900K nur 6%. Bei letzterem holst du mit schnellerem RAM verglichen mit @Stock natürlich noch Performance raus, aber das sind auch keine >40%.

Ist grundsätzlich immer das Problem, wenn man die genaue Testmethodik nicht nachvollziehen kann bzw. die genaue Stelle nicht kennt, mit der gebencht wurde.

Das leidige Thema Radeon vs. GeForce im CPU-Limit hätte man auch noch berücksichtigen sollen, statt wieder blind eine 3090 reinzuklatschen.

aufkrawall
2022-07-28, 14:58:17
Bei letzterem holst du mit schnellerem RAM verglichen mit @Stock natürlich noch Performance raus, aber das sind auch keine >40%.

Würd ich nicht drauf wetten, >30% können es bestimmt sein.
Bei PCGH läuft der IMC mit 1,1GHz, mit DDR4 4000 Gear 1 wären es 2GHz. Fast 100% mehr...
Und nicht vergessen, wie JEDEC-Timings die Performance für CPUs ohne 3D-Cache zerstört. Das ist selbst gegen popelige XMP-Profile einfach nur völliger Schrott. Aber wenn ihr das geil findet, weil der 3D dadurch besser aussieht...

Lehdro
2022-07-28, 15:15:09
Geht ja primär darum anhand anderer Benchmarks den CB Test da irgendwie einordnen zu können. Im Moment schwanke ich da heftig zwischen "sehr plausibel" und "welcher Praktikant hat da in der Ergebnistabelle rumgewurschtelt".

Ex3cut3r
2022-07-28, 15:16:16
Ist doch alles ziemlich wumpe. 1440p ist doch so langsam sicherlich der Standard, wer zockt mit solch dicken Karten noch in FHD? Bei SP Games bietet es sich auch immer die DLDSR 4K und DLSS Q oder P Option an. Sieht einfach um einiges besser aus als das 1440p Nativ Gerüst, bei ähnlichen FPS Werten.

So ein 12900K mit Tuning oder 3D ist erst wirklich ab RTX 4080 Interessant für 1440p Gamer. So eine CPU ist dann wohl wirklich Pflicht um die GPU Auslasten zu können. Wer aber so einen Next Gen GPU Kauf nicht plant, kann sich das sparen. Oder gleich in 4K zocken.

nairune
2022-07-28, 15:33:57
Tellerrand und so, gibt auch Leute, die die Regler runterstellen, um an die gewünschten FPS zu kommen, das hat ziemlich wenig mit der GPU zu tun.

Ex3cut3r
2022-07-28, 15:46:25
Hmm Ok. Also gibt man für die GPU das meiste Geld im PC aus, um dann mit schlechter Grafik ein AAA Spiel zu zocken? Sry, glaube ich nie im Leben. Vorallem mit VRR Bildschirmen (die es seit fast 10 Jahren gibt)

MSABK
2022-07-28, 15:53:09
Was bei dem 5800X3D beeindruckend ist, der kann halt auch in 1440P und 4k noch ordentlich einen Push bringen und die Framerate merklich erhöhen.

Lehdro
2022-07-28, 15:56:05
So ein 12900K mit Tuning oder 3D ist erst wirklich ab RTX 4080 Interessant für 1440p Gamer. So eine CPU ist dann wohl wirklich Pflicht um die GPU Auslasten zu können. Wer aber so einen Next Gen GPU Kauf nicht plant, kann sich das sparen. Oder gleich in 4K zocken.
Bringt mir nur nix wenn z.B. Stellaris und so ziemlich alle MMORPGs dieser Welt im CPU Limit hängen. Stell dir vor die hängen sogar in 4k im CPU Limit, krass, oder?

Ein 5800X3D ist eben sehr viel mehr als ein "FHD Frameratejäger".

Ex3cut3r
2022-07-28, 16:12:02
Bringt mir nur nix wenn z.B. Stellaris und so ziemlich alle MMORPGs dieser Welt im CPU Limit hängen. Stell dir vor die hängen sogar in 4k im CPU Limit, krass, oder?

Ein 5800X3D ist eben sehr viel mehr als ein "FHD Frameratejäger".

Stellaris? Sagt mir nix. Aber mal kurz gegooglet. Ein Nischen Spiel von 2016? Seriously? Da kannst du dir auch einen NASA PC holen, damit wirst du vermutlich genau so CPU Limitiert sein, weil die Entwickler bis heute kein richtiges Multithreding in vielen Spielen hinbekommen. Bei AAA sieht schon vernünftiger aus. Aber das ist auch noch richtig viel Potenzial nach oben. Viele scheinen nicht zu kapieren, dass die Software einfach oft limitiert.

Shader Compile Ruckler, nachladeruckler kommt alles vom Spiel selber. Es bringt einfach nix, eine CPU upgrade zu machen, wenn die GPU auch schon vorher vernünftig ausgelastet wurde. Das wird sich mit den neuen High End Karten natürlich alles etwas nach oben verschieben. Wer in 4K zockt, dufte mit einem aktuellen Prozzi aber auch überhaupt keine Probleme haben. Anders sieht es da wohl in 1440p aus.

dargo
2022-07-28, 16:15:12
CP2077 ist auch ein ziemlich krasser Ausreißer beim P1.

CP77 ist eine Dauerbaustelle mit Ryzen CPUs. Das Thema hatten wir doch erst kürzlich.

aufkrawall
2022-07-28, 16:16:37
Spiele mit schlechter CPU-Optimierung sind schon ein Argument. Aber dann ist nicht nachvollziehbar, weshalb man eine Radeon hat. Denn diese Spiele nutzen häufig noch Gammel-APIs, bei denen der Nvidia-Treiber mitunter schon mal >100% mehr fps abliefert. Irgendwie ja schon etwas wohlfeil. :confused:

dargo
2022-07-28, 16:18:23
Stellaris verwendet doch D3D12. :confused:

Lehdro
2022-07-28, 16:21:37
Stellaris? Sagt mir nix. Aber mal kurz gegooglet. Ein Nischen Spiel von 2016? Seriously?
Wo fängt bei dir eigentlich die Kategorie "Nischenspiel" an? :confused:


Da kannst du dir auch einen NASA PC holen, damit wirst du vermutlich genau so CPU Limitiert sein, weil die Entwickler bis heute kein richtiges Multithreding in vielen Spielen hinbekommen.
Blöd nur das genau da der 5800X3D brilliert.

Genau wie in so ziemlich jedem MMORPG - genau das ist was die Leute hier mit "Tellerrand" meinen, eben nicht 08/15 Shooter die jedes Jahr gleich sind und "+1" auf die Zahl hinter dem Titel bekommen. Die laufen doch alle ordentlich, ich redete aber explizit von Fällen wo das nicht so ist. Dann zu kommen mit "Nischenspiel" oder "technisch veraltet" bringt genau gar nix. Denn ich spiele Spiele des Spieles wegen und nicht nur weil sie technisch am Puls der Zeit sind oder gerade besonders toll aussehen. Für mich ist das Entertainment wenn ich dabei Spaß haben kann - da bin ich dann auch bereit hardwaretechnisch über das eigentlich notwendige hinauszugehen um dieses Erlebnis zu verbessern.

Lehdro
2022-07-28, 16:26:08
Aber dann ist nicht nachvollziehbar, weshalb man eine Radeon hat. Denn diese Spiele nutzen häufig noch Gammel-APIs, bei denen der Nvidia-Treiber mitunter schon mal >100% mehr fps abliefert. Irgendwie ja schon etwas wohlfeil. :confused:
Ist zumindest bei BDO und Stellaris nicht der Fall. Von daher...

Edit: Sorry doppelpost.

Savay
2022-07-28, 16:45:06
Stellaris verwendet doch D3D12. :confused:

Nein.

Normalerweise DX9 und einen experimentellen DX11 Renderer mit deutlich besserem MT.

dargo
2022-07-28, 16:55:39
Nein.

Normalerweise DX9 und einen experimentellen DX11 Renderer mit deutlich besserem MT.
Nochmal :confused:
https://store.steampowered.com/app/281990/Stellaris/

Ansonsten...
https://respawnfirst.com/stellaris-crash-fix/

Savay
2022-07-28, 17:12:55
Ja.
Aktuellste Version 3.4.5. hat DX9 und experimentell DX11.
Nix DX12. Wenn der sich irgendwo versteckt, dann aber sehr gut.

Ich hab über 500h played auf dem Spiel...wenn es ootb DX12 hätte wäre es mir sicher schon aufgefallen. :tongue:

Davon abgesehen läuft es auch so vglw. i.O wenn man nicht grade in einer 1000er Galaxie im Endgabe mit gemaxten Sentry Array hängt

dargo
2022-07-28, 17:24:49
Naja... wenn Steam schon DX12 empfiehlt kann das ja eigentlich nicht so kacke damit laufen (reine Vermutung, ich kenne das Spiel nicht). Wie man es aktiviert...

In case you aren’t able to change DirectX in-game, then right-click Stellaris in Steam and select properties. Under Launch Options type one of the following commands depending on which DirectX version your want to force.

Type -dx11 to force DirectX 11
Type -dx12 to force DirectX 12

Savay
2022-07-28, 17:29:05
Hast du das Spiel selbst und es mal ausprobiert?

DX9
DX11 (beta)

That's it.

Mit Patch 2.8 kam Oktober 2020 der beta DX11 Support.
Danach kam nix neues in der Beziehung.

https://stellaris.paradoxwikis.com/Patches

dargo
2022-07-28, 17:40:47
Habs doch geschrieben, dass ich das Spiel nicht kenne. Wäre aber schon harter Tobak wenn Steam falsche Informationen schreibt und diverse Seiten ebenfalls. :freak:

y33H@
2022-07-28, 19:16:42
Ich finde das auch hübsch am 5800X3D, der ist gerade bei älterem und/oder mies optimiertem Zeug grandios ... ich spiele bis heute etwa Kingdom Come Deliverance.

Lurtz
2022-07-28, 23:05:28
Naja... wenn Steam schon DX12 empfiehlt kann das ja eigentlich nicht so kacke damit laufen (reine Vermutung, ich kenne das Spiel nicht). Wie man es aktiviert...
Wo schreibt Steam das?

AFAIK gibt es bis heute kein einziges Paradoxspiel mit DX12.

dargo
2022-07-29, 07:16:28
In den empfohlenen Systemanforderungen, siehe mein Link.

Crazy_Chris
2022-08-01, 15:09:33
"AMD Ryzen 7 5800X3D vs. Intel Core i9-12900KS: Wann der L3-Cache hilft - und wann nicht "

https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Specials/5800X3D-12900KS-AMD-Intel-Review-1400048/

:ujump2:

fondness
2022-08-01, 16:04:45
Ein bisschen seltsam, dass man den Intel mit top RAM testet, die AMD-Chips aber nicht.

Lehdro
2022-08-01, 16:11:56
Schade, wieder kein interessanter Spezialfall dabei, sondern nur die 08/15 Benchmarkkost. Das ADL mit ordentlichem DDR5 deutlich aufholt und meist überholt, war den meisten eh schon klar. Aber schön das es jetzt auch bei PCGH steht, nimmt den ewigen Nörglern ("Wie ihr testet mit Spezifikationen? Ihr Monster!") ein bissl Wind aus den Segeln.

Langlay
2022-08-01, 16:27:02
Schade, wieder kein interessanter Spezialfall dabei, sondern nur die 08/15 Benchmarkkost. Das ADL mit ordentlichem DDR5 deutlich aufholt und meist überholt, war den meisten eh schon klar. Aber schön das es jetzt auch bei PCGH steht, nimmt den ewigen Nörglern ("Wie ihr testet mit Spezifikationen? Ihr Monster!") ein bissl Wind aus den Segeln.

Ich hätte mit dem Artikel weniger ein Problem wenn auch 2x 5800X3D gegeben hätte. Einmal alles Stock wie jetzt in dem Test auch vorhanden und einmal mit DDR3800+ und CO -30. Das bringt zwar nicht soviel wie beim Intel aber 5-10% sind dann auch nochmal drin.

Dann noch am Ende ein Diagramm mit den Leistungsaufnahmen von den CPUs/Gesamtsystem und nicht nur so ein Satz zur Leistungsaufnahme, dann wäre das ein richtig guter Artikel geworden.

Raff
2022-08-01, 16:30:04
Ein bisschen seltsam, dass man den Intel mit top RAM testet, die AMD-Chips aber nicht.

Wird im Text begründet. Wenn du den nicht lesen möchtest, dann nur diesen Absatz. Oder nur das Fette:

"Prozessor-Benchmarks mit einem Ryzen 7 5800X3D zeigen immer wieder dessen Stärke auf, einige sprechen gar von einer Demütigung gegenüber Intel, da ein Core i9-12900K nicht ansatzweise mithalten kann. Das gilt allerdings nur, wenn der üppige L3-Cache des X3D zum Tragen kommt. Ist dies nicht der Fall, dann entspricht die Leistung des AMD-Achtkerners etwa einem Ryzen 7 5800X, der nur die Rücklichter des Intel-Konkurrenten bestaunen darf. Doch wann greift der Cache und wann nicht? Und warum kann das eine große Rolle bei der Kaufentscheidung spielen? Um AMD einen echten Konkurrenten vor die Nase zu setzen, haben wir erneut den Intel Core i9-12900KS eingeladen. Doch dieses Mal darf der Intel-Prozessor auf einen DDR5-6400 schnellen Speicher zurückgreifen und unterliegt nicht dem regulären Powerlimit. Vorgang auf, für die "Bests & Worsts" der beiden CPU-Giganten."

MfG
Raff

Freestaler
2022-08-01, 16:54:32
Vielleicht noch der Hinweis explizit, wenn der Cache des 5800x3d nichts nutzt, hilft auch schneller Ram nichts ;-). Damit lässt sich einordnen warum keine 5800/5800x3d separaten Zahlen mit ddr 3800cl14 gibt bzw. diese weg gelassen weder können.

horn 12
2022-08-03, 01:06:35
https://pskmegastore.com/processori-pc/75025-amd-ryzen-7-5800x3d-processore-34-ghz-96-mb-l3-0730143313797.html

Billiger wird´s wohl kaum mehr werden, Gut zocke kaum mehr, habe den 5800X3D aber seit dem Release Tag und 527 Euro (bei AMD Bezahlt).
Nun, im Herbst wird wieder erneut mehr gezockt werden.

Wenn das Teil auf 399 Euro fällt, Super Angebot.
Ansonsten auf Zen43D warten.

Redneck
2022-08-03, 10:16:14
Die Frage , die ich mir beim 5800er3d stelle wäre, ob man damit auch eine 7900er ausgelastet bekäme.. Zen 4 bringt ja schon ein gutes Plus an IPC und Takt mit und wird da bei den max FPS gut vorne liegen (sowie intels Raptor Lake ja auch). Das man mit dem 3d schönere Frametimes bekommt ist a nett aber wenn der oberste Balken nicht mehr mit Zen4 und RL mithalten kann, ist's auch blöd.

nairune
2022-08-03, 10:37:41
Mit Verlaub, aber das ist ne dämliche Frage. Eine GPU bekomme ich immer ausgelastet, wenn es sein muss.
Die einzig relevante Frage ist doch, ob du auf die FPS kommst, die du gerne hättest, und ob dich der Prozessor daran hindert, sie zu bekommen.

Langlay
2022-08-03, 10:38:18
Die Frage , die ich mir beim 5800er3d stelle wäre, ob man damit auch eine 7900er ausgelastet bekäme.. Zen 4 bringt ja schon ein gutes Plus an IPC und Takt mit und wird da bei den max FPS gut vorne liegen (sowie intels Raptor Lake ja auch). Das man mit dem 3d schönere Frametimes bekommt ist a nett aber wenn der oberste Balken nicht mehr mit Zen4 und RL mithalten kann, ist's auch blöd.

So ist der Lauf der Dinge, dann gibts halt mehr Eyecandy, wenn die Graka Luft nach oben hat, entweder mehr Auflösung oder mehr AA oder beides.

Nightspider
2022-08-03, 10:48:29
Kannst ja später von Zen4 auf Zen4D wechseln.

Redneck
2022-08-03, 14:23:54
Mit Verlaub, aber das ist ne dämliche Frage. Eine GPU bekomme ich immer ausgelastet, wenn es sein muss.
Die einzig relevante Frage ist doch, ob du auf die FPS kommst, die du gerne hättest, und ob dich der Prozessor daran hindert, sie zu bekommen.
ne ist eigentlich nicht dämlich.. du hast meine Frage schon verstanden und es dann anders formuliert :-)

RainingBlood
2022-08-03, 14:35:25
Wie stehts um Fallout 4? Hat das schon jemand getestet? Das sollte doch auch sehr stark vom Cache profitieren.

Tangletingle
2022-08-03, 14:42:40
Wie stehts um Fallout 4? Hat das schon jemand getestet? Das sollte doch auch sehr stark vom Cache profitieren.
Geht gut vorwärts: https://forums.anandtech.com/threads/part-3-measuring-cpu-draw-call-performance-in-fallout-4.2548618/page-4#post-40747466

Achill
2022-08-04, 08:07:25
Geht gut vorwärts: https://forums.anandtech.com/threads/part-3-measuring-cpu-draw-call-performance-in-fallout-4.2548618/page-4#post-40747466

Interessant wird es auch nochmal ein paar Seiten weiter: https://forums.anandtech.com/threads/part-3-measuring-cpu-draw-call-performance-in-fallout-4.2548618/page-6#post-40777099 .. wenn der 5800X3D mit besseren RAM und Opt.Subs oder der IF stark übertakeltet wird. Es scheint dort jemanden mit 2200 MHz IF OC zu geben wo sogar der 12900K OC mit 7000-DDR5 Ram geschlagen wird. Frage ist nur wir immer, was man dafür zum Kühlen braucht und wie der Verbrauch sich entwickelt.

Lowkey
2022-08-04, 11:38:08
5800x3D 420,91 Euro im Mindstar (https://www.mindfactory.de/product_info.php/AMD-Ryzen-7-5800X3D-4-5GHz-So-AM4-WOF_1447835.html).

r3ptil3
2022-08-06, 12:38:18
Gerade den aktuellen PCGH Test des 5800X3D und 12900KS und co. angeschaut.

Da kommt ein 12900KS mit 6400er CL34 RAM nicht selten vor dem 5800X3D(3200er RAM), bis ich dann gelesen habe, dass der Intel in der Konfiguration mit offenem TDP läuft. Teilweise säuft der Intel drei mal so viel wie der 3D.

Noch nie hat sich eine CPU so überlegen angefühlt wie der 5800X3D.

Bin wirklich gespannt was mit ZEN4 3D Cache und DDR5 alles möglich sein wird.

Megamember
2022-08-06, 16:17:14
Da kommt ein 12900KS mit 6400er CL34 RAM nicht selten vor dem 5800X3D(3200er RAM), bis ich dann gelesen habe, dass der Intel in der Konfiguration mit offenem TDP läuft. Teilweise säuft der Intel drei mal so viel wie der 3D.

Noch nie hat sich eine CPU so überlegen angefühlt wie der 5800X3D.


:confused:
Das der 12900KS säuft wie ein schwarzes Loch und eher als Experiment eines wahnsinnigen Intel Ingenieurs zu sehen ist, ist doch lange bekannt. Da würde ich eher auf den Verbrauch des 12700K gucken. Und denn kann man locker auch noch um 0,1V undervolten und liegt dann wohl gleichauf oder eher drunter.

aufkrawall
2022-08-06, 16:35:35
Hat aber etwas weniger Cache. Anyway, der zieht mit RAM-OC bei Spielen 35-120W, was in Relation zu einer Highend-GPU natürlich völlig irrelevant ist. bardh hat seinen 3D wohl in ein Notebook oder ITX-Gehäuse gebastelt, wo sich der geringere Verbrauch dann auch real bemerkbar macht...

Achill
2022-08-06, 20:11:18
Da es sich auf die Werte von PCGH bezogen wird, sollte man auch die Leistungsaufnahme von dort nehmen und nicht ggf. Werte die von woanders stammen ... siehe: https://www.pcgameshardware.de/Ryzen-7-5800X3D-CPU-278064/Specials/5800X3D-12900KS-AMD-Intel-Review-1400048/2/

Etwas die Werte zusammengefasst und in Relation gebracht:

1. Die zwei Intels mit Standard-PL sind nur in Troy und Crysis3 schneller als der 5800X3D
=> In Troy verbraucht der 12700K ~17% mehr, liefert aber 23% fps mehr
=> In Troy verbraucht der 12900KS ~101% mehr, liefert aber 39% fps mehr
=> In Crysis3 verbraucht der 12700K ~14% mehr, liefert aber 11% fps mehr
=> In Crysis3 verbraucht der 12900KS ~105% mehr, liefert aber 33% fps mehr

2. Der 12700K mit Standard-PL verbraucht nur in Anno und Kena weniger als der 5800X3D
=> In Anno verbraucht der 5800X3D ~13% mehr, liefert aber ~23% fps mehr
=> In Kena verbraucht der 5800X3D ~5% mehr, liefert aber ~19% fps mehr

3. Die zwei Intels mit Offenen-PL verbraucht NIE weniger als der 5800X3D, im Mittel verbraucht der 5800X3D 79W und dazu im Unterschied:
=> Der 12700K verbraucht 38% mehr (+29W delta)
=> Der 12900KS verbraucht 122% mehr (+96W delta)

4. Die zwei Intels mit Offenen-PL sind im Mittel schneller als der 5800X3D
=> Der 12700K ist 3,8% schneller bei 38% mehr Verbrauch
=> Der 12900KS ist 11,3% schneller bei 122% mehr Verbrauch
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80141


--
:confused:
Das der 12900KS säuft wie ein schwarzes Loch und eher als Experiment eines wahnsinnigen Intel Ingenieurs zu sehen ist, ist doch lange bekannt. Da würde ich eher auf den Verbrauch des 12700K gucken. Und denn kann man locker auch noch um 0,1V undervolten und liegt dann wohl gleichauf oder eher drunter.

Man kann bei den AMDs auch an der Curve der Cores optimieren und wird dann auch wieder weniger verbrauchen oder bessere Perf. bekommen wenn vorher die Temp oder PPT limitierte.


--
Hat aber etwas weniger Cache. Anyway, der zieht mit RAM-OC bei Spielen 35-120W, was in Relation zu einer Highend-GPU natürlich völlig irrelevant ist. bardh hat seinen 3D wohl in ein Notebook oder ITX-Gehäuse gebastelt, wo sich der geringere Verbrauch dann auch real bemerkbar macht...

Hmm.. laut PCGH braucht der 12700K mit Standard-Power-Limit immer noch mindestens 51W (Anno), 62W (Kenia), 67W (MFS) und ansonsten mehr bis hin zu 126W (Troy) .. diesen mit Schnelleren DDR5 auszustatten wird den Verbrauch nicht verringern.

Lehdro
2022-08-06, 22:11:26
[...]

Coole Auswertung. :)


4. Die zwei Intels mit Offenen-PL sind im Mittel schneller als der 5800X3D
=> Der 12700K ist 3,8% schneller bei 38% mehr Verbrauch
=> Der 12900KS ist 11,3% schneller bei 122% mehr Verbrauch
Ich übersetze mal: Bei Intel brauchst du für je +1% Leistung +10% mehr Saft ;)

aufkrawall
2022-08-06, 22:17:20
Ja, das ist ja schön. Nur nochmal: Was soll das für eine Implikation bei stationären PCs haben? Der Spieleverbrauch eines 12700K lässt sich easy silent (paar hundert rpm) per Luft kühlen und wird direkt aus dem Gehäuse abgeführt. :confused:
Bei CB MT wirds schwieriger, aber da hat ja auch der 3D zu knabbern.

IceKillFX57
2022-08-19, 18:51:36
Bin jetzt etwas schockiert, kann mir jemand sagen woher der Unterschied kommt? Ist ein vergleich zwischen 5950X und 5800X3D:

https://i.ibb.co/BtqNdD6/IMG-1168.jpg (https://ibb.co/rm4sTPp)
https://i.ibb.co/cvcSMYP/IMG-1182.jpg (https://ibb.co/thMTkLS)

Edit:

Ok scheint an der Bauweise zu liegen? Und das ist echt kein Nachteil?

Langlay
2022-08-19, 21:18:22
Bin jetzt etwas schockiert, kann mir jemand sagen woher der Unterschied kommt? Ist ein vergleich zwischen 5950X und 5800X3D:

https://i.ibb.co/BtqNdD6/IMG-1168.jpg (https://ibb.co/rm4sTPp)
https://i.ibb.co/cvcSMYP/IMG-1182.jpg (https://ibb.co/thMTkLS)

Edit:

Ok scheint an der Bauweise zu liegen? Und das ist echt kein Nachteil?

Was schockiert dich den? Sieht bei beiden alles ziemlich normal aus.

Der halbierte Schreibwert vom 5800X3D ist normal das haben alle Zen2/3 CPUs mit nur einem CCD.

Und P.S. Mit Windowstaste + Shirt + S kannste einen Bildschirmausschnitt speichern.

IceKillFX57
2022-08-20, 10:10:33
Ja gut, so rein von den Daten her fand ich das schwach. Weiß nicht was ich behalten soll.

Den 5950X für 350€ oder den 5800X3D für 400€.

Raff
2022-08-20, 10:14:58
Haha, diese Frage stellen sich wohl gerade viele (auch ich). Ist im Grunde ganz einfach:

Zum Spielen: Ganz klar 5800X3D. Schneller, effizienter und problemärmer (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13085463&postcount=105).
Zum Arbeiten: Ganz klar 5950X. Schneller ... und schneller. ;)

Langfristig wird der 16-Kerner den längeren Atem haben, aber in den nächsten Jahren werden die allermeisten Spiele mit dem Cache-King besser laufen.

MfG
Raff

M4xw0lf
2022-08-20, 10:18:10
Ja gut, so rein von den Daten her fand ich das schwach. Weiß nicht was ich behalten soll.

Den 5950X für 350€ oder den 5800X3D für 400€.
Willst du damit ausschließlich zocken? -> X3D. Oder ausschließlich arbeiten? -> 5950X.
Bei allem dazwischen kommt es dann sehr darauf an - wenn Einsatz sowohl als Spiele- als auch Produktivsystem, wie gut parallelisierte Software?

€: Da kam Raff mir zuvor während ich noch am Schreiben war ^^

Lowkey
2022-08-20, 10:26:11
Die Rechnung ist dann aber unvollständig, weil da fehlt dann noch das Steam Deck und Alder Lake. 5950x ohne SMT ist zum Spielen wieder etwas besser wie auch der 12900k(f) ohne E-Kerne. Nur an die Stromeffizienz des 5800x3D kommt keiner ran. Und der passt nun auch in das uralte B350 ITX Board im Schrank und den interessiert der Gammelspeicher nicht sonderlich. Und dann kommen die Preise ins Spiel, wie die ganze B-ware, die nun versiegt, weil niemand im Sommer Hardware kauft. Und bald gehen Preise wieder hoch, weil Zen4 und Raptor Lake teurer ausfallen.


Weil wenn man sich wirklich die Luxusfrage stellt, ob 5950x oder 5800x3D, dann ist der Kauf nicht zweckgebunden gewesen und dann braucht man weder A noch B.

Raff
2022-08-20, 10:28:35
Mag sein, dass das am Koffeinmangel liegt (läuft gerade durch ;)), aber: Was genau hat das Steam Deck in der "Rechnung" verloren?

MfG
Raff

IceKillFX57
2022-08-20, 10:31:52
Naja wenn ich ehrlich bin, dann wird eigentlich nur gezockt, und dann im Grunde auch nichts wildes.. eher Overwatch, Hearthstone und jetzt halt neu Spiderman, was natürlich mehr will. Wird aber in 4K gezockt. Und jetzt auch direkt eine Frage an die Experten hier. Es wird ja oft beim vergleich in geringer Auflösung getestet bei CPUs und die Leute sagen, das wäre unrealistisch aber jetzt kommt mein Einwand... Dank FSR 2.0 und DLSS wird doch genau das gemacht? praktisch 4K Output aber geringerer Auflösung, dann sollte doch der Cache deutlich durchkommen oder nicht? (@Raff: berücksichtig ihr sowas?)

Also mein Nutzungsprofil schaut so aus:

50% Gaming
30% CineBench
10% VMware
10% Rendering

Ich glaube das beste P/L hat der 5950X (350€)

Raff
2022-08-20, 10:35:33
Dein Gedankengang ist richtig: Upscaling ist kaum mehr als das Rendern in einer niedrigeren Auflösung. Da werden zwar Dinge getan, damit das besser aussieht und diese Dinge kosten etwas Leistung, aber insgesamt ist es genau das: niedrigere Auflösung und somit mehr CPU-Einfluss.

In Spider-Man Remastered haben wir übrigens auch einen der wenigen Spiele-Fälle, wo ein 5950X mit dem 5800X3D mithalten kann.

Dein Nutzungsprofil spricht eher für den 5800X3D (oder meint "Cinebench" = Cinema 4D = Rendering?). Wenn du fünf Jahre Ruhe haben willst, kannst du auch den 16-Kerner einbauen, optimieren und dich freuen, dass du die dickste AM4-Lösung für alle "ernsthaften" Workloads hast. Ich schätze den 5950 beispielsweise sehr beim Capturing und simpler Video-Bearbeitung. :)

MfG
Raff

IceKillFX57
2022-08-20, 10:45:51
Es ist eher der Blick in den Taskmanager in der Prozessorübersicht, der einem das Grinsen ins Gesicht zaubert…

Crazy_Chris
2022-08-20, 10:49:07
Einfach beide nehmen und je nach Anwendungsfall umbauen ;D

IceKillFX57
2022-08-20, 11:06:58
Einfach beide nehmen und je nach Anwendungsfall umbauen ;D

Das habe ich in der Tat auch eine Woche lang getan. Etwa dreimal am Tag aber langsam geht die Paste aus und meine Frau hält mich für einen Spinner… daher soll nur einer bleiben.

M4xw0lf
2022-08-20, 11:08:14
Einfach beide nehmen und je nach Anwendungsfall umbauen ;D

Oder so ein 2-in-1 Gehäuse nehmen und je ein System mit beiden CPUs reinstecken :uup:

r3ptil3
2022-08-20, 11:11:57
@IceKillFX57

Dass der 5800X3D definitiv keine Anwendungs-CPU ist, ist hinlänglich bekannt.

Und ja, CPU-Benchmarks solltest du am besten vergessen und ausblenden bei der CPU. :freak:

Wenn ich mir meine TimeSpy CPU, CPU-Z etc. Scores anschaue, dann bin ich irgendwo eine Generation zurück. Aber wie auch oben erwähnt ist Gaming die Meisterdisziplin dieser CPU, vor allem eben auch durch die phantastische Effizienz.

In Zukunft werde ich aber vielleicht einen Zen4 12C-16C (SMT off) mit 6000 Mhz IF (1:1) vorziehen.

y33H@
2022-08-20, 11:16:44
5800X3D < 7700X ?

r3ptil3
2022-08-20, 11:18:56
5800X3D < 7700X ?

Ist das so?

Wäre für mich eine Überraschung.
Rechne im Gaming mit einer Parität erst ab 7900X.

Rolsch
2022-08-20, 11:26:41
Da kann man nur beten dass AMD hier mitliest und die schreckliche Qual der Wahl der gepeinigten User erkennt und mit einer Ryzen 59503DC Edition für Erlösung sorgt.

Corny
2022-08-20, 12:12:18
Dass der 5800X3D definitiv keine Anwendungs-CPU ist, ist hinlänglich bekannt.




Bei Audioanwendungen ist der 5800X3D extrem stark. C't hatte das in Ausgabe 12/2022 getestet. Der 5800X3D konnte in div. DAW-Benchmarks mehr gleichzeitige Spuren bearbeiten als Beispielsweise 5950X oder 12900KS. Er kam damit dem M1 Ultra am nächsten.



Quelle für alle mit c't Abo: https://www.heise.de/select/ct/2022/12/2209013172780695778

Thomas Gräf
2022-08-20, 12:53:02
Bei Audioanwendungen ist der 5800X3D extrem stark. C't hatte das in Ausgabe 12/2022 getestet. Der 5800X3D konnte in div. DAW-Benchmarks mehr gleichzeitige Spuren bearbeiten als Beispielsweise 5950X oder 12900KS. Er kam damit dem M1 Ultra am nächsten.



Quelle für alle mit c't Abo: https://www.heise.de/select/ct/2022/12/2209013172780695778

Ne echte Wundertüte dieser 5800X3D :biggrin:
Schade hätt den Artikel gern gelesen, schalten CT den iwann frei?
Ahh man kann das Heft digital kaufen, ok.

horn 12
2022-08-20, 14:54:29
Nun, rechne auch dass der 7700X geringfügig langsamer wird werden als der 5800X3D in den Meisten Neuen Aktuellen und kommenden Games
und erst November/ Anfang Dezember der 7800X3D folgen wird und wohl alles freigibt bei Games und intel und AMD selbst in Games um Längen schlägt.

Ex3cut3r
2022-08-20, 16:21:38
Hmm, teile ich nicht. Denke Zen 4 wird immer schneller sein. Vorallem viel konstanter, gibt ja oft genug Spiele, die auf dem Cache überhaupt nicht abfahren.

HOT
2022-08-20, 16:57:20
Wenn man die Duirchschnittswerte sieht, sind es verdammt viele, die auf den Cache abfahren und nur sehr wenige, die nicht oder nur sehr gering davon profitieren, darunter gibts halt auch ein paar Prominente, was vorgaukelt es wären nicht so viele ;). Der Cache ist schon irre gut für Games.

Ex3cut3r
2022-08-20, 17:00:39
Wie man es sehen will. Im neuen AAA Spiel @ Spider-Man bringt es kaum was. :eek:

Aber gibt ja hier genug Leute die solche Steinzeit oder Nischen Spiele spielen, die auf einen Kern max laufen. Für mich ist das nix though.

https://abload.de/img/unbenannt2meo0.png

IceKillFX57
2022-08-20, 17:02:49
Wie man es sehen will. Im neuen AAA Spiel @ Spider-Man bringt es kaum was. :eek:

Aber gibt ja hier genug Leute die solche Steinzeit oder Nischen Spiele spielen, die auf einen Kern max laufen. Für mich ist das nix though.

https://abload.de/img/unbenannt2meo0.png

In welcher Auflösung ist das denn? Wenn’s 4K ist, wie schaut es mit DLSS/FSR aus?

aufkrawall
2022-08-20, 17:10:19
Das hat ja nichts mit der Auflösung zu tun, sondern damit, welche fps man erreichen will. Und 51fps 1% low ist logischerweise grottenschlecht, da wär ich selbst mit der 3060 in 1440p RT DLSS Q teilweise CPU-limitiert bzw. es wär kaum ein Fortschritt zum 11400F. ;D

IceKillFX57
2022-08-20, 17:23:42
Verstehe ich leider nicht aber trotzdem danke

Langlay
2022-08-20, 17:47:13
Hmm, teile ich nicht. Denke Zen 4 wird immer schneller sein. Vorallem viel konstanter, gibt ja oft genug Spiele, die auf dem Cache überhaupt nicht abfahren.

Aber in Spielen die extrem drauf abfahren wird der 5800X3D weiterhin schneller sein als Zen4. Ja, mag sein dass das alles Nische ist, aber z.b. in Kingdome Come ist der Unterschied zwischen 5800X3D und 5800X grösser als zwischen 5800X und 2700X. Da wird man auch mit Zen4 imo nicht drankommen.

Daredevil
2022-08-20, 18:06:11
Einfach zwei Systeme unter dem Schreibtisch haben und bei Bedarf wechseln. Tut doch auch euren Aktien gut. :D

r3ptil3
2022-08-20, 18:23:53
Spider Man und ähnliche Spiele, welche derart mies CPU optimiert sind, sollten in CPU Benchmarks mit besonderer Vorsicht betrachtet werden.

Erst recht wenn ein Ryzen 3300X einen 11700k und einen 10900k zersägt.

Da spielt es auch keine Rolle, dass der 5800X3D gerade mal 5 FPS hinter dem 12900KS liegt.
Zudem wird das Bild pro Intel sowieso etwas verfälscht, wenn mit riesigem Abstand ein 12900KS vorne steht.
Ist aber der einzige Balken, der mit einer RTX 3090 getestet wurde.

Hinzu kommt dass eine 300W+ CPU eines 5800X3D mit weniger als einem Drittel Verbrauch sowieso nicht würdig ist (OC Ergebnis).

Ex3cut3r
2022-08-20, 18:32:09
Aber in Spielen die extrem drauf abfahren wird der 5800X3D weiterhin schneller sein als Zen4. Ja, mag sein dass das alles Nische ist, aber z.b. in Kingdome Come ist der Unterschied zwischen 5800X3D und 5800X grösser als zwischen 5800X und 2700X. Da wird man auch mit Zen4 imo nicht drankommen.

Soweit ich weiß hat Zen 4 nochmal 15% mehr IPC dazu bekommen. Dazu Takraten von jenseits 5,5 Ghz. Cache hat auch nochmal mehr als Zen 3 "normal" sry. Sehe nicht wo ein Zen 3 3D überhaupt den Hauch einer Chance haben wird. Und DDR5 Bonus kommt auch oben drauf.

Das einzige Manko wird der Preis von Zen 4 sein + neues Board + RAM sind fällig. Das ist man schnell bei 800€+

HOT
2022-08-20, 18:59:10
Wie man es sehen will. Im neuen AAA Spiel @ Spider-Man bringt es kaum was. :eek:

Aber gibt ja hier genug Leute die solche Steinzeit oder Nischen Spiele spielen, die auf einen Kern max laufen. Für mich ist das nix though.

https://abload.de/img/unbenannt2meo0.png

Als ob das was damit zu tun hätte, wie neu oder gut programmiert so ein Spiel wäre :freak: so ein BS.

robbitop
2022-08-20, 20:25:24
Zen 4 hat nur grob 8% mehr IPC. Die 15% Angabe von AMD war inkl Takt (aber tiefgestapelt).
Dass der VCache „kaum“ was bringt in Spiderman ist IMO eine Untertreibung. Der 5800x3d ist grob 1/6 schneller als der normale 5800x trotz niedrigerer Taktraten. Das ist ein taktnormierter uplift von sicherlich gut 20% und damit ungefähr der Sprung einer CPU Generation.

Ex3cut3r
2022-08-20, 20:31:55
Zen 4 hat nur grob 8% mehr IPC. Die 15% Angabe von AMD war inkl Takt (aber tiefgestapelt).
Dass der VCache „kaum“ was bringt in Spiderman ist IMO eine Untertreibung. Der 5800x3d ist grob 1/6 schneller als der normale 5800x trotz niedrigerer Taktraten. Das ist ein taktnormierter uplift von sicherlich gut 20% und damit ungefähr der Sprung einer CPU Generation.
Nix was man durch RAM Tuning mit B-Die aufholen könnte. Klar, gibt auch Szenarien wo er durch die Decke geht. Deswegen ist halt ein zweischneidiges Pferd. Im groben eine Nischen CPU für Nischen Spiele. Zen 4 wird hier viel konstanter sein. Und ist klar vorzuziehen, leider wird es im Gesamtpaket aber auch relativ teuer.

IceKillFX57
2022-08-20, 20:43:22
Naja wer JETZT beides haben möchte, muss halt zu Intel greifen, bekommt nur halt die Schattenseite des Verbrauchs mitgeliefert.

Bin immer noch hin und her gerissen.. tendiere eher den 5950X zu behalten, klingt irgendwie vernünftiger....das OC beim 5800X3D gesperrt ist, ist mir auch ein Dorn im Auge (wobei ich den 5950X auch nicht übertakte...)

dildo4u
2022-08-20, 20:44:58
Ohne zu wissen was fürn Speicher Zen 4 braucht um optimal zu performen kann man nicht sagen wie sinnvoll der 5800x3D aktuell ist.
Was sicher ist das er mit der Zeit er kein Sinn mehr macht, da DDR5 deutlich billiger werden sollte.

IceKillFX57
2022-08-20, 20:45:45
Was sicher ist das er mit der Zeit er kein Sinn mehr macht, da DDR5 deutlich billiger werden sollte.

"Sollte", man bedenke die GPU Preise vor paar Monaten...oder die Ölpreise jetzt :freak:

r3ptil3
2022-08-20, 20:46:31
Deswegen ist halt ein zweischneidiges Pferd. Im groben eine Nischen CPU für Nischen Spiele.

Kann ich absolut nicht zustimmen:

https://i.ibb.co/DLNGbtg/1.png
https://i.ibb.co/tswZbP6/2.png

dildo4u
2022-08-20, 20:54:27
"Sollte", man bedenke die GPU Preise vor paar Monaten...oder die Ölpreise jetzt :freak:
Ich erwarte keine neue Pandemie mit komplett Lockdowns, 2020 sollte sich hoffentlich nicht so bald wiederholen.
Und Viele haben sich Hardware fürs zu Hause arbeiten gekauft, die werden nicht nach zwei Jahre erneut aufrüsten.

ChaosTM
2022-08-20, 21:01:15
Der Stromverbrauch des KS ist interessant .. für 1% mehr Leistung - Was übersehe ich hier ? ok, my bad

Bitte um den Link das Bild..

dargo
2022-08-20, 21:04:06
Kann ich absolut nicht zustimmen:

https://i.ibb.co/DLNGbtg/1.png
https://i.ibb.co/tswZbP6/2.png
Und was genau soll jetzt daran besonders sein? Im Schnitt ist der 5800X3D da knapp 14% schneller als der 5800X. Das gleiche ich locker mit meinem handoptimierten B-Die wieder aus der beim X3D deutlich weniger Vorteile bringt. Und der Vergleich beim Stromverbrauch ist auch so eine Sache. Das mag vielleicht für jemanden interessant sein, der Stocksettings fährt. Da ich das aber nicht tue liegt der X3D da ebenfalls nicht im Vorteil denn mein handoptimierter 5800X liegt ebenfalls um die 60W in Games, nicht selten auch bei 50+W. Nüchtern betrachtet hat der 5800X3D aktuell ein ganz mieses P/L.

5800X = 269€
5800X3D = 458€

PS: durch die fehlende Handoptimierung beim 5800X3D hat sich AMD da selbst ein Ei gelegt. Denn "mit" könnte man den sicherlich auf ~45W runterdrücken.

IceKillFX57
2022-08-20, 21:07:15
blaaabllablallbalabblalbla


Also soll ich den 5950X behalten, für den ich 350€ bezahlt habe und verkaufe den 5800X3D wieder ja? :naughty:

robbitop
2022-08-20, 21:17:52
Naja wer JETZT beides haben möchte, muss halt zu Intel greifen, bekommt nur halt die Schattenseite des Verbrauchs mitgeliefert.

Bin immer noch hin und her gerissen.. tendiere eher den 5950X zu behalten, klingt irgendwie vernünftiger....das OC beim 5800X3D gesperrt ist, ist mir auch ein Dorn im Auge (wobei ich den 5950X auch nicht übertakte...)
Mit einem 5950X bist du auf viele Jahre GPU limitiert. Was für eine Zeitverschwendung über so kleine „Upgrades“ nachzudenken, die überhaupt keinen Einfluss haben weil im GPU Limit „versteckt“.

Mit Zen 6 und Geforce 5090 oder 6090 ist das ggf dann wieder sinnvoll.

ChaosTM
2022-08-20, 21:24:26
Ich hatte ähnliche "Gelüste" meinen 5900er in einen 3D umzuwandeln.
Habs aber wieder verworfen..

Lehdro
2022-08-20, 21:29:05
Wie man es sehen will. Im neuen AAA Spiel @ Spider-Man bringt es kaum was. :eek:

Aber gibt ja hier genug Leute die solche Steinzeit oder Nischen Spiele spielen, die auf einen Kern max laufen. Für mich ist das nix though.

Ich zitiere mal die wichtigen Sachen:

Die Benchmarks erwecken einfach nicht den Eindruck, als würde das ein normales Verhalten sein. Dass sich die Intel-CPUs vergleichbar zu den anderen Ergebnissen verhalten, bestätigt die Theorie, dass irgendwas bei AMD klemmt, dann noch einmal.

Wir möchten ehrlich zu Ihnen sein: Hätten wir diese Zahlen nicht selbst ermittelt, würden wir glauben, dass uns jemand für dumm verkaufen möchte. Ein Core i5-11400F soll schneller sein als ein i9-10900K? Ein Ryzen 3300X liegt vor einem i7-11700K? Alle Zen-3-Prozessoren abseits des R7 5800X3D sind praktisch gleich schnell? So sieht die Performance in der finalen Version des Spider-Man-Remasters für den PC tatsächlich aus. Nicht einmal dem Core i9-12900KS gelingt es, saubere 60 P1-Fps zu berechnen.
[...]
Sehr interessant ist die Auslastung der einzelnen Kerne und Threads: Laut CapFrameX, dem Tool, welches wir für unsere Benchmarks nutzen, wird ein Ryzen 9 5950X zu 81 Prozent ausgelastet. Ein Ryzen 5 5600 hingegen "nur" zu 89 Prozent. Wenn eine CPU mit 32 Threads so viel zu ackern hat, müsste eine CPU mit nur 12 Threads alt dagegen aussehen - tut sie aber nicht. Wir können Ihnen nicht genau sagen, was das Spiel im Hintergrund mit den ganzen Threads macht, wir wissen aber, dass die Engine zur Laufzeit sehr viele Daten dekomprimiert. Sehr auffällig und dazu passend ist die hohe Package Power, welche alle CPUs im Test aufweisen. Das spricht für eine optimale Auslastung aller Rechenkerne und ist per se ein gutes Zeichen. Allerdings kommt die Performance nicht in Form von Bildrate an. Wenn wir bei dem Beispiel mit dem Ryzen 5950X und dem 5600 bleiben, benötigt der 16-Kerner für die gleiche Performance nahezu das Doppelte. Das passt hinten und vorn nicht, die Mehrleistung verpufft. Die dritte Auffälligkeit ist die absolut nicht vorhandene Kernskalierung. Das zeigt Zen 2 auf: Ein R5 3600XT ist schneller als ein 3900XT, was eigentlich nicht sein kann. Ein i7-10700K ist schneller als ein i9-10900K. Das liegt daran, dass die i9-CPU ins Powerlimit rennt. Doch wo geht die Leistung hin? Das ist die große Frage bei Spider-Man Remastered.

TL;DR: Spiderman ist technisch auf der CPU Seite eine Katastrophe.

r3ptil3
2022-08-20, 21:29:10
...

Im Schnitt 15% mehr Leistung als ein 5800X, bei über 20% weniger Verbrauch.
Keine neue Generation, gleiche Plattform...


Zudem ergeben sich nicht selten im Detail noch grössere Vorteile (Frametimes, min. FPS). CO funktioniert bei der CPU ebenfalls prächtig mittels PBO2 (-30) und sorgt für noch weniger Verbrauch, bessere Temps und noch mehr Leistung.

Wenn man bei einem solchen Produkt nicht zufrieden ist, dann ist man es generell bei keinem Produkt.

ChaosTM
2022-08-20, 21:30:58
Ich schaff nur PBO2 -13 .. ich erwische immer "schlechte" CPUs

Lowkey
2022-08-20, 21:31:30
Und dennoch zählen schlecht programmierte Spiele nicht. Denn in Zukunft wird alles besser!

(Hatten wir schon vor 10 Jahren und dennoch kommen solche Spiele laufend nach).

r3ptil3
2022-08-20, 21:34:05
Und dennoch zählen schlecht programmierte Spiele nicht. Denn in Zukunft wird alles besser!

(Hatten wir schon vor 10 Jahren und dennoch kommen solche Spiele laufend nach).

Damit ist gemeint, dass die CPU Leistung auf Basis eines solchen Spiels nicht repräsentativ ist.

Oder würdest du einen Ryzen 3300X einem 10900K oder 11700k vorziehen?


@ChaosTm

Auf allen Cores?

ChaosTM
2022-08-20, 21:39:50
Damit ist gemeint, dass die CPU Leistung auf Basis eines solchen Spiels nicht repräsentativ ist.

Oder würdest du einen Ryzen 3300X einem 10900K oder 11700k vorziehen?


@ChaosTm

Auf allen Cores?




Ich war zu faul um es für jeden einzelnen Kern auszuloten - mach ich vielleicht noch

r3ptil3
2022-08-20, 21:42:17
Ich war zu faul um es für jeden einzelnen Kern auszuloten - mach ich vielleicht noch

Unbedingt - vielleicht hast du zufälligerweise genau den schlechtesten Core getestet. Hat ja noch 7 weitere. :)

ChaosTM
2022-08-20, 21:43:04
Unbedingt - vielleicht hast du zufälligerweise genau den schlechtesten Core getestet. Hat ja noch 7 weitere. :)


11 ;)

Lehdro
2022-08-20, 22:45:47
11 ;)
Hast du einen 5900X?

Damit wundert mich das gar nicht. CCD0 von meinem alten 5950X war auch nicht so UV freudig, dafür CCD1 umso mehr.

Die boosten halt von Haus aus schon deutlich höher als der 5800X3D mit seinen popeligen 4.5 GHz. Deswegen ist da auch deutlich mehr Potenzial.

r3ptil3
2022-08-20, 23:23:05
Dachte es geht um einen 5800X3D.

Die höher taktenden Modelle sind, wie Ledro erwähnt, deutlich näher am Limit.

Aber trotzdem würde ich die anderen Kerne austesten. Bei meinem alten 5900X gabs am Schluss ganz unterschiedliche Ergebnisse. Ein Kern kam nicht über -2, die anderen hingegen im Schnitt bei ca. -20.

Thomas Gräf
2022-08-21, 01:15:24
Ohne zu wissen was fürn Speicher Zen 4 braucht um optimal zu performen kann man nicht sagen wie sinnvoll der 5800x3D aktuell ist.
Was sicher ist das er mit der Zeit er kein Sinn mehr macht, da DDR5 deutlich billiger werden sollte.

Jo DDR5 wird deutlich billiger werden...der miese DDR5 zumindest.
Der schnelle DDR5 (Ihr nennt diese Dinger wohl B-Dies? oder gibs die nicht mehr?) wird auch in Zukunft alles andere als billig sein.
Mit einem fiktiven Zen4_X3D könnte man ev wirklich den dann iwann deutlich billiger werdenden DDR5 verwenden ohne Performance zu verlieren. ;)

Im übrigen, woher seht Ihr so eine rosige Zukunft auf uns zukommen?
Was wenn die KP Chinas es dem Putin nachmacht bzw richtig vormacht, und ihre Pläne einfach mal ausführt?
2023 steht da im Raum, nur mal zur Erinnerung. ;)

dargo
2022-08-21, 07:26:14
CO funktioniert bei der CPU ebenfalls prächtig mittels PBO2 (-30) und sorgt für noch weniger Verbrauch, bessere Temps und noch mehr Leistung.

CO interessiert mich nicht und darum geht es bei meiner Kritik beim Produkt auch nicht.

dildo4u
2022-08-21, 07:39:52
Jo DDR5 wird deutlich billiger werden...der miese DDR5 zumindest.
Der schnelle DDR5 (Ihr nennt diese Dinger wohl B-Dies? oder gibs die nicht mehr?) wird auch in Zukunft alles andere als billig sein.
Mit einem fiktiven Zen4_X3D könnte man ev wirklich den dann iwann deutlich billiger werdenden DDR5 verwenden ohne Performance zu verlieren. ;)

Normalerweise werden die Limits mit der Zeit gepusht wenn 7000 Kits kommen können die 6000 nicht das Selbe kosten, dort erwarte ich z.b 300 vs 150€ für 32GB.
Wenn Zen 4 nur 6000 verträgt und nur bis dahin synchron läuft könnte Preis/Leistung ok sein.

HOT
2022-08-21, 07:57:29
Zen 4 hat nur grob 8% mehr IPC. Die 15% Angabe von AMD war inkl Takt (aber tiefgestapelt).
Dass der VCache „kaum“ was bringt in Spiderman ist IMO eine Untertreibung. Der 5800x3d ist grob 1/6 schneller als der normale 5800x trotz niedrigerer Taktraten. Das ist ein taktnormierter uplift von sicherlich gut 20% und damit ungefähr der Sprung einer CPU Generation.
Wie kommst du darauf? Gibts dazu Quellen? Woher kommen die 8%?
Die Angabe war mindestens 15% mehr SC-Leistung, das heißt einfach überhaupt gar nichts, das kann auch 30% mehr IPC sein im Extremfall.

robbitop
2022-08-21, 08:21:37
Wie kommst du darauf? Gibts dazu Quellen? Woher kommen die 8%?
Die Angabe war mindestens 15% mehr SC-Leistung, das heißt einfach überhaupt gar nichts, das kann auch 30% mehr IPC sein im Extremfall.

1 sekunde google:


During today's Financial Analyst Day 2022, AMD clarified that it is targeting an 8 to 10% increase in IPC for the Zen 4 processors and that the company is targeting larger gains in single-threaded performance in some types of workloads.

https://www.google.de/search?q=zen+4+ipc+increase&ie=UTF-8&oe=UTF-8&hl=de-de&client=safari

Artikel von THG und Anandtech und vielen anderen zu dem offiziellen AMD statement.

y33H@
2022-08-21, 09:57:24
https://scr3.golem.de/screenshots/2206/Zen-4-IPC/thumb620/2022-06-10_091839.png

Achill
2022-08-21, 10:10:55
Nix was man durch RAM Tuning mit B-Die aufholen könnte. Klar, gibt auch Szenarien wo er durch die Decke geht. Deswegen ist halt ein zweischneidiges Pferd. Im groben eine Nischen CPU für Nischen Spiele. Zen 4 wird hier viel konstanter sein. Und ist klar vorzuziehen, leider wird es im Gesamtpaket aber auch relativ teuer.

Und was genau soll jetzt daran besonders sein? Im Schnitt ist der 5800X3D da knapp 14% schneller als der 5800X. Das gleiche ich locker mit meinem handoptimierten B-Die wieder aus der beim X3D deutlich weniger Vorteile bringt. Und der Vergleich beim Stromverbrauch ist auch so eine Sache. Das mag vielleicht für jemanden interessant sein, der Stocksettings fährt. Da ich das aber nicht tue liegt der X3D da ebenfalls nicht im Vorteil denn mein handoptimierter 5800X liegt ebenfalls um die 60W in Games, nicht selten auch bei 50+W. Nüchtern betrachtet hat der 5800X3D aktuell ein ganz mieses P/L.

5800X = 269€
5800X3D = 458€

PS: durch die fehlende Handoptimierung beim 5800X3D hat sich AMD da selbst ein Ei gelegt. Denn "mit" könnte man den sicherlich auf ~45W runterdrücken.

Man kann beim 5800X3D genauso mittels höheren IF und opti. Timings performance raus holen. Haben wir erst vor ein paar Tagen im Outcast 1.1 Bench Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13085610#post13085610) entdeckt. Wenn ihr also Bock habt, dann lasst doch euren opt. 5800X mal dort laufen und macht ein CapFrameX run damit wir auch die Statistik zur CPU haben. Spiel gibt es bei den einschlägigen Key-Shops schon ab 0,85 € (https://www.keyforsteam.de/outcast-1-1-key-kaufen-preisvergleich/)

--
Ansonsten kann man sich auch gern mal die Ergebnisse der Community bzgl. Fallout4 ansehen: overclockers.co.uk (https://forums.overclockers.co.uk/threads/fallout-4-cpu-benchmark-thread-need-some-zen3-results.18946938/) - dort geht es darum, für bestimmte Stellen mit extremen Draw-Calls möglichst hohe FPS zu erreichen, also ein CPU-Worstcase. Man sieht wie der 5800X3D mit höheren IF/RAM Takt abgeht.

https://i.imgur.com/YeWsy3s.png

fondness
2022-08-21, 11:01:14
Zen 4 hat nur grob 8% mehr IPC. Die 15% Angabe von AMD war inkl Takt (aber tiefgestapelt).

Der takt alleine steigt bei zen4 schon um über 15%, wenn die geleakten Werte korrekt sind.

IceKillFX57
2022-08-21, 11:03:08
Könnt ihr sowas bitte zu posten, sonst muss ich doch den 3D behalten...

Achill
2022-08-21, 11:08:00
Also soll ich den 5950X behalten, für den ich 350€ bezahlt habe und verkaufe den 5800X3D wieder ja? :naughty:

Teste beide, wenn der 5800X3D keine Banane beim Curve-Optimizer ist, dann nimm diesen für Games. Es gibt nur sehr wenige Spiele, die mit mehr als 8C/16T wirklich skalieren (RTS), es gibt aber anscheinend schon eine größere Menge an Spielen, die auf die Cache anspringen.

Und wegen Cache, beim 5950X nicht täuschen lassen, er hat zwar 64MB - aber eben auch nur 32MB pro CCX - weswegen es in Cache-Sensiblen Spielen eben nicht große Unterschiede zwischen 5800X und 59(0/5)0X gibt.

--

Der takt alleine steigt bei zen4 schon um über 15%, wenn die geleakten Werte korrekt sind.

Könnt ihr sowas bitte zu posten, sonst muss ich doch den 3D behalten...

IceKillFX57, wenn du so argumentierst dann bleibe doch noch etwas bei deinen bisherigen 5700G und nimm dann den neuen AMD oder Intel (gibt natürlich immer ein Risiko bzgl. wirklicher Performance, Preis CPU und Plattform, Kühlbarkeit, Verfügbarkeit ..)

robbitop
2022-08-21, 11:12:04
Der takt alleine steigt bei zen4 schon um über 15%, wenn die geleakten Werte korrekt sind.

Habe ich doch gesagt, dass AMD da tiefgestapelt hat.
Im Endeffekt ist das Spektrum:
8-10% IPC x 10-15% Takt. Ergibt ein Spektrum von 18,8 - 26.5% an ST Zuwachs. Mittelwert dann 22,6%.

ChaosTM
2022-08-21, 11:17:25
Das ist das angenehme an Lisa`s Führungsstil. Dezentes Understatement statt sinnarmen Macho Sprüchen..

Der_Korken
2022-08-21, 11:19:07
Ansonsten kann man sich auch gern mal die Ergebnisse der Community bzgl. Fallout4 ansehen: overclockers.co.uk (https://forums.overclockers.co.uk/threads/fallout-4-cpu-benchmark-thread-need-some-zen3-results.18946938/) - dort geht es darum, für bestimmte Stellen mit extremen Draw-Calls möglichst hohe FPS zu erreichen, also ein CPU-Worstcase. Man sieht wie der 5800X3D mit höheren IF/RAM Takt abgeht.

Die Ergebnisse sehen teilweise wie gewürfelt aus.

5800X3D Stock - DDR4 3200 CL16 - 109fps avg
5800X3D Stock - DDR4 3200 CL16 - 116,6fps avg
5800X3D Stock - DDR4 3600 CL16 - 117,6fps avg (selber User wie davor, zusätzlich Subtimings)
5800X3D Stock - DDR4 3600 CL14 - 86,4fps avg (mit neuem BIOS 91,8)
5800X3D Stock - DDR4 3733 CL18 - 121,6fps avg
5800X3D Stock - DDR4 3733 CL14 - 123,8fps avg
5800X3D Stock - DDR4 3800 CL14 - 124,3fps avg

Wenn man das nach RAM-Config sortiert, könnte man sagen, alles <110fps sind Ausreißer. Dann sieht beim Rest die Skalierung aber nicht mehr so eindrucksvoll aus. Generell sieht man hier aber wieder, dass sich die 12000er massivst von den 11000ern und Zen 3 absetzen. In den Performance-Ratings ist der Unterschied oft nicht so gigantisch, aber man sieht immer wieder mal so extreme Ausreißer nach oben. Tendenziell öfter mit dem 5800X3D zusammen, aber manchmal auch einfach so. Ich frage mich, woran das liegt. Was hat Golden Cove, was alle anderen nicht haben? Nutzt Intel den L3-Cache so viel besser aus als AMD, dass deren 30MB L3 bereits die 5800X3D-artigen Performance-Sprünge erlaubt?

fondness
2022-08-21, 11:21:39
Habe ich doch gesagt, dass AMD da tiefgestapelt hat.
Im Endeffekt ist das Spektrum:
8-10% IPC x 10-15% Takt. Ergibt ein Spektrum von 18,8 - 26.5% an ST Zuwachs. Mittelwert dann 22,6%.

Korrekt, wobei es beim top Modell das obere Limit ist bezogen auf den takt, nämlich alleine 16,x% mehr takt.

r3ptil3
2022-08-21, 11:21:57
Ja, diese konservative Einstellung gefällt mir auch.

Ich kenne aber gerade von AMD und Raja noch ganz andere Zeiten... eigentlich genau das was bei Intel Graphics nun abgeht, ausrufen und nichts liefern, furchtbar.

Achill
2022-08-21, 12:23:57
Die Ergebnisse sehen teilweise wie gewürfelt aus.

5800X3D Stock - DDR4 3200 CL16 - 109fps avg
5800X3D Stock - DDR4 3200 CL16 - 116,6fps avg
5800X3D Stock - DDR4 3600 CL16 - 117,6fps avg (selber User wie davor, zusätzlich Subtimings)
5800X3D Stock - DDR4 3600 CL14 - 86,4fps avg (mit neuem BIOS 91,8)
5800X3D Stock - DDR4 3733 CL18 - 121,6fps avg
5800X3D Stock - DDR4 3733 CL14 - 123,8fps avg
5800X3D Stock - DDR4 3800 CL14 - 124,3fps avg

Wenn man das nach RAM-Config sortiert, könnte man sagen, alles <110fps sind Ausreißer. Dann sieht beim Rest die Skalierung aber nicht mehr so eindrucksvoll aus. Generell sieht man hier aber wieder, dass sich die 12000er massivst von den 11000ern und Zen 3 absetzen. In den Performance-Ratings ist der Unterschied oft nicht so gigantisch, aber man sieht immer wieder mal so extreme Ausreißer nach oben. Tendenziell öfter mit dem 5800X3D zusammen, aber manchmal auch einfach so. Ich frage mich, woran das liegt. Was hat Golden Cove, was alle anderen nicht haben? Nutzt Intel den L3-Cache so viel besser aus als AMD, dass deren 30MB L3 bereits die 5800X3D-artigen Performance-Sprünge erlaubt?

Man darf bei der CPU Betrachtung nicht GPUs von AMD und NV bei Fallout 4 mixen. Sonst fügt man neue Variabilität ein, die man nicht nicht einschätzen / unter Kontrolle hat. AMD wird noch immer schlecht bei den massiven Draw-Calls dastehen - außer die DX11 Optimierungen greifen und auch dann ist die Frage, wie gut im Vergleich zu NV ...

Liste mit NV GPUs:

12900K@5.4GHz - DDR5 7000 CL30 - 135.2fps avg
5800X3D@100.6BLC - DDR4 3962 CL14 - 134.1fps avg
12600K@5.28GHz - DDR4 4166 CL15 - 131.6fps avg (opt Subtimings)
5800X3D Stock - DDR4 3800 CL14 - 124,3fps avg
5800X3D Stock - DDR4 3733 CL14 - 123,8fps avg
5800X3D Stock - DDR4 3733 CL18 - 121,6fps avg
12600K@5.28GHz - DDR4 4166 CL15 - 120,6fps avg (auto Subtimings)
5800X3D Stock - DDR4 3600 CL16 - 117,6fps avg (selber User wie davor, zusätzlich Subtimings)
5800X3D Stock - DDR4 3200 CL16 - 116,6fps avg
5800X3D Stock - DDR4 3200 CL16 - 109fps avg
12600K@5GHz - DDR4 3800 CL16 - 107.5fps avg
5950X@4.85GHz - DDR4 3800 CL16 - 96fps avg
5800X - DDR4 3800 CL16 - 82.5fps avg


Liste mit AMD GPUs:

5800X3D Stock - DDR4 3600 CL14 - 91,8fps avg (neues BIOS)
12700KF - DDR4 3600 CL16 - 91fps avg
5800X3D Stock - DDR4 3600 CL14 - 86,4fps avg (altes BIOS)
5800X - DDR4 3600 CL16 - 75,4fps avg
5700X@4.65GHz - DDR4 3600 CL16 - 68,5fps avg

dargo
2022-08-21, 13:34:24
Man kann beim 5800X3D genauso mittels höheren IF und opti. Timings performance raus holen. Haben wir erst vor ein paar Tagen im Outcast 1.1 Bench Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13085610#post13085610) entdeckt. Wenn ihr also Bock habt, dann lasst doch euren opt. 5800X mal dort laufen und macht ein CapFrameX run damit wir auch die Statistik zur CPU haben. Spiel gibt es bei den einschlägigen Key-Shops schon ab 0,85 € (https://www.keyforsteam.de/outcast-1-1-key-kaufen-preisvergleich/)

--
Ansonsten kann man sich auch gern mal die Ergebnisse der Community bzgl. Fallout4 ansehen: overclockers.co.uk (https://forums.overclockers.co.uk/threads/fallout-4-cpu-benchmark-thread-need-some-zen3-results.18946938/) - dort geht es darum, für bestimmte Stellen mit extremen Draw-Calls möglichst hohe FPS zu erreichen, also ein CPU-Worstcase. Man sieht wie der 5800X3D mit höheren IF/RAM Takt abgeht.

https://i.imgur.com/YeWsy3s.png
Verstehe mich bitte nicht falsch... aber was soll ich mit so einem Bullshit wie Outcast oder Fallout 4? :freak: Mir gehen diese "Theorie"-Werte am Allerwersten völlig vorbei. Mich interessiert nur die Performance in Games die ich tatsächlich spiele. Und das sind ausschließlich neuere AAA-Titel, und davon noch nicht mal so viele da mich vieles nur noch langweilt was so an Futter released wird.

Edit:
Nüchtern betrachtet leistet bei meinem Profil der 5800X3D einfach viel zu wenig. Für ganz kleines Geld überlege ich es mir eventuell noch. Aber ganz ehrlich.... diese Minisprünge sind doch nichts weiter als Kinderkacke. So ab 50+% auf den 5800X wirds langsam interessant. Faktor 2 wäre dann optimal. Nur für Faktor 2 wirds mit viel Optimismus eher einen Zen5 X3D brauchen, wenn nicht sogar Zen6. :freak: Ich warte erstmal ab wie sich der Markt so entwickelt, tendiere aber eher zu einem Zen4 X3D und einem 650-er Brett. Schauen wir mal... ist ja nicht so, dass der Schuh jetzt schon drückt.

horn 12
2022-08-22, 10:21:34
Kauf dir doch endlich einen
Zen 4 wird Teuer, die Bretter nochmals weitaus teurer und der DDR5 ist auch noch überteuert.
Für 359 bis 379 Euro wird´s wohl den X3D bald im Abverkauf geben.

Crazy_Chris
2022-08-22, 10:44:34
Verstehe mich bitte nicht falsch... aber was soll ich mit so einem Bullshit wie Outcast oder Fallout 4? :freak: Mir gehen diese "Theorie"-Werte am Allerwersten völlig vorbei.

Finde ich sehr schade. Mich interessiert schon ziemlich was da dein handoptimierter 5800X mehr leistet.

dargo
2022-08-22, 15:47:28
Finde ich sehr schade. Mich interessiert schon ziemlich was da dein handoptimierter 5800X mehr leistet.
Sorry... aber definitiv falsche Jahreszeit für solche Spielereien. Vielleicht wenns mir langweilig bei kack Wetter im Winter wird oder so. :)

Raff
2022-08-22, 15:55:23
Mich interessiert nur die Performance in Games die ich tatsächlich spiele. Und das sind ausschließlich neuere AAA-Titel, und davon noch nicht mal so viele da mich vieles nur noch langweilt was so an Futter released wird.

Dich langweilen neue AAA-Spiele, aber du verzichtest auf Indie-Perlen und Klassiker. Warum machen sich manche Menschen das Leben so schwer?

MfG
Raff

Ex3cut3r
2022-08-22, 15:57:32
X3D und Zen 4 sind eher was für 1440p High Refresh Gamer mit kommender 40er Gen oder dem AMD Äquivalent. Ansonsten kann man bei Zen 3 bleiben und spart viel Geld.

KA, was immer so viele mit dem CPU Tausch haben. Bin GPU Limitiert in AAA Spielen. (Außer Spider-Man) Was soll es einen bringen?

Langlay
2022-08-22, 16:11:07
KA, was immer so viele mit dem CPU Tausch haben. Bin GPU Limitiert in AAA Spielen. (Außer Spider-Man) Was soll es einen bringen?


Wenn bei den Sachen die du spielst alles Rund läuft und du zufrieden bist super.

Das trifft halt nicht auf jeden zu, jemand der der leidenschaftlich WoW zockt wird den 5800X3D lieben. Und es gibt noch x weitere Beispiele wo der 5800X3D sich einfach grossartig schlägt. Wenn man davon keine nutzt dann ist ja gut, macht den 5800X3D aber nicht zu einem Prozessor der keinen Nutzen hat.

Wenn du ein Zocker bist irgendwie auf einem 2700(X), 3700X rumgammelst und aufrüsten willst, hast halt keinen Samsung B-Die und willst einfach nur aufrüsten. Kauf dir den 5800X3D wenn das Budget es hergibt, baller dir das neuste Bios auf dein Board und sei zufrieden. Dürfte vom P/L immer besser sein als neuer RAM + CPU (AM4) oder neues Board, RAM und CPU (Intel).

dargo
2022-08-22, 16:22:47
Dich langweilen neue AAA-Spiele, aber du verzichtest auf Indie-Perlen und Klassiker. Warum machen sich manche Menschen das Leben so schwer?

Erstmal müsstest du mir erklären was du mit "das Leben sich schwer machen" meinst. Also das Zentrum meines Lebens besteht nicht aus Gaming. Das ist höchstes Zeit tot schlagen wenn mal was Interessantes erscheint.

Lehdro
2022-08-22, 16:27:22
Wenn bei den Sachen die du spielst alles Rund läuft und du zufrieden bist super.

Eben. Jedes MMO nimmt den X3D mit Kusshand, die ganzen VR Simracer freuen sich auch wie verrückt, dass es endlich eine CPU gibt die das ohne einen Handstand zu machen schafft.

Ältere, aber massiv CPU-limitierte Games, eben ohne gute multicore Unterstützung (Stellaris, Starcraft 2, Rimworld, Factorio...die Liste ist endlos) fahren auch wie verrückt auf die CPU ab. Das sind dann teilweise mehrere Generationensprünge oder im Extremfall der absolute Unterschied zwischen "spielbar" und "flüssig".

Natürlich könnte man jetzt mit dem grenzdebilen Argument "Spiele ohne gescheite Multicore Optimierung spiele ich nicht" kommen, oder halt sagen "Spiele eh nur AAA Spiele, da bringt das nix". Aber dann betrügt ihr euch nur selbst, und wenn es nur um den entgangenen Spielspaß geht. Ehrlicher wäre einzusehen, dass ihr keinen Bedarf derzeit habt, für diese Art von CPU, weil ihr halt woanders limitiert seid oder einfach nicht das passende Nutzungsszenario habt. Warum man deswegen aber gleich immer die CPU schlechtreden muss, kann und werde ich hingegen nie verstehen. Es ist ja nicht so als wäre die CPU nicht auch abseits von den Spezialfällen der absolute Knaller.

Raff
2022-08-22, 16:30:32
Erstmal müsstest du mir erklären was du mit "das Leben sich schwer machen" meinst. Also das Zentrum meines Lebens besteht nicht aus Gaming. Das ist höchstes Zeit tot schlagen wenn mal was Interessantes erscheint.

Mein Foren-Profiling sagt: Du suchst gezielt nach Triple-A-Spielen, die mit/dank DX12 und Radeon flüssig laufen. Andere nehmen auch einfach fesselnde (auch hässliche) oder technisch herausragende Spiele. :)

MfG
Raff

aufkrawall
2022-08-22, 16:31:54
Und wenn man vorher nur mit Billig-Komponenten unterwegs war, hat man jetzt auf einmal 450€ für eine CPU über? Ach, kommt.
Die CPU "lohnt" sich für eine kleine Gruppe an Aufrüstern und ist ansonsten ein Liebhaber-Stück für Fanboys. Einfach mal zugeben. ;)
Ansonsten ist das Ding in 1-2 Jahren schon wieder völlig überholt und ggf. kommt ein <200€-Modell an die Leistung ran...

r3ptil3
2022-08-22, 16:39:56
Solche Diskussionen in einem reinen 3D-Grafik/Hardware-Forum...

Hat eigentlich jemand Erfahrung mit dem Beta-BIOS von MSI? Las gerade vor kurzem "mehr Leistung, weniger Verbrauch, kühler...".
Was macht MSI da genau?

Lehdro
2022-08-22, 16:40:56
Die CPU "lohnt" sich für eine kleine Gruppe an Aufrüstern und ist ansonsten ein Liebhaber-Stück für Fanboys. Einfach mal zugeben. ;)
Ansonsten ist das Ding in 1-2 Jahren schon wieder völlig überholt und ggf. kommt ein <200€-Modell an die Leistung ran...
Das gilt halt für jedes halbwegs aktuelle Spitzenmodell. Weiß nicht was da jetzt besonders anders oder negativ dran sein soll. Dessen sollte man sich nur auch bewusst sein, so wie sonst halt auch wenn man Geld in die Hand nimmt.

Wer das Geld nicht ausgeben will, kann das gerne tun, selten gab es so viele sinnvolle Alternativen wie jetzt. Aber wie gesagt, davon wird diese CPU ansich auch nicht schlechter :wink:

M4xw0lf
2022-08-22, 16:42:40
Hat eigentlich jemand Erfahrung mit dem Beta-BIOS von MSI? Las gerade vor kurzen "mehr Leistung, weniger Verbrauch".
Was macht MSI da genau?

Quasi BIOS-Implementierung von PBO2-Tuner-Offset, sonst nix.

dargo
2022-08-22, 17:15:10
Mein Foren-Profiling sagt: Du suchst gezielt nach Triple-A-Spielen, die mit/dank DX12 und Radeon flüssig laufen.

Alter Stand. :) API relativ egal solange Framerate hoch genug... sauber sollte es natürlich schon laufen sonst kommt kein Spielspaß auf. Ergo reine Zeitverschwendung. Achja... Spiel sollte mich natürlich auch fordern (hier lege ich großen Wert auf ein exzellentes Kampfsystem... da fallen mir spontan Horizon Zero Down und The Division 2 als Referenzen ein) und eine nette Story wäre auch angebracht. Ansonsten wieder nur Zeitverschwendung.

Slipknot79
2022-08-22, 18:11:51
X3D und Zen 4 sind eher was für 1440p High Refresh Gamer mit kommender 40er Gen oder dem AMD Äquivalent. Ansonsten kann man bei Zen 3 bleiben und spart viel Geld.

KA, was immer so viele mit dem CPU Tausch haben. Bin GPU Limitiert in AAA Spielen. (Außer Spider-Man) Was soll es einen bringen?


Du hast den aktuellen 720p-gaming trend verpasst. (Ich übringens auch, so ne Shice, sofort nachholen (y) )

Interessant statt den nutzlosen 720p-gaming Benchmarks, wären Benchmarks, wo der X3D tatsächlich nen bums liefert in hohen Auflösungen. Anno 1800, Cities: Skylines und wohl einige andere die hier genannt wurden. Also jene games, die auch in 1440, UWQHD oder 4k immer noch vom X3D dick profitieren. So ne games-list wäre interessant. Das wäre sicher hilfreicher für eine Kaufentscheidung als die nutzlosen kack 720p-Benchmarks von typischen AAA games. :rolleyes:

Thunder99
2022-08-22, 18:35:41
Für Leute die einen Zen 2 3600er auf X570 mit 32GB RAM haben ist die CPU optimal als Upgrade. Günstiger kommt man nicht zu höheren FPS wenn man CPU limitierten Spiele (Szenen) spielen möchte.
Brauche die neue Plattform nicht, da ich selbst die Gen4 nicht ausreize oder Große Datenmengen ständig über USB verschiebe :)

Ex3cut3r
2022-08-22, 18:35:59
Du hast den aktuellen 720p-gaming trend verpasst. (Ich übringens auch, so ne Shice, sofort nachholen (y) )

Interessant statt den nutzlosen 720p-gaming Benchmarks, wären Benchmarks, wo der X3D tatsächlich nen bums liefert in hohen Auflösungen. Anno 1800, Cities: Skylines und wohl einige andere die hier genannt wurden. Also jene games, die auch in 1440, UWQHD oder 4k immer noch vom X3D dick profitieren. So ne games-list wäre interessant. Das wäre sicher hilfreicher für eine Kaufentscheidung als die nutzlosen kack 720p-Benchmarks von typischen AAA games. :rolleyes:
Dann bleiben vlt. 3 Spiele übrig, rest wurde im GPU Limit sein ab 1440p und RTX 3090.

Deswegen, 720p. Aber ja. Ich spiele in 1440p und ziemlich oft sogar in 4K per DLDSR mit DLSS oben drauf. Die Nischen Spiele der X3D Fraktion spiele ich nicht.

Man muss halt sich selber gut kennen, bzw. sein Afterburner OSD auslesen können. Dann weiß man selbst, das er keinen Sinn macht.

Anders sieht es vlt. aus wenn man sowieso eine 40er Gen GPU Kauf plant, dann könnte es in 1440p tatsächlich sinn machen, da diese GPUs nochmal so viel stärker sind, und das CPU Limit schneller forcieren können, sogar in 1440p.

Der 4K Gamer wird aber aber mit Zen 3 oder Intel Äquivalent safe sein. Da kann man sich einen X3D oder Zen 4 wieder komplett sparen.

aufkrawall
2022-08-22, 18:52:27
Er kapiert es einfach nicht. Durch diese vermeintlich nutzlosen 720p-Benchmarks konnte man schon sehen, dass solche Ausfälle wie bei Spiderman vorkommen können.
Er könnte ja auch lernen, aus den 720p-Benchmarks die richtigen (!) Schlussfolgerungen zu ziehen und nicht immer das Forum mit seiner persönlichen Aufrüst-Situation zu nerven..

r3ptil3
2022-08-22, 18:54:59
Der 4K Gamer wird aber aber mit Zen 3 oder Intel Äquivalent safe sein. Da kann man sich einen X3D oder Zen 4 wieder komplett sparen.

Seltsame Empfehlung wieder mal, wie vor jeder neuen Gen von Ex3. :D

Klar kann man auch einen 7700k mit einer RTX 4090 kombinieren, aber jemand der sich eine RTX 4090 holt, der wird nicht nur die avg. FPS betrachten.

Das Spielerlebnis wird im Schnitt über mehrere Spiele hinweg, smoother und angenehmer sein auf einem 12-16C Zen4 inkl. top RAM und optimierten Timings.


Edit:
Habe jetzt tatsächlich Zen 2 gelesen.
Zen3 ist natürlich definitiv ausreichend.

Ex3cut3r
2022-08-22, 19:08:16
Ich habe nirgends von einem 7700k geredet. Sondern von Zen 3 + Intel vergleichbaren, ich kann nix dafür wenn du nicht richtig lesen kannst.

EDIT: Ok, dein EDIT auch überlesen. Dann passt es ja. :freak:

r3ptil3
2022-08-22, 19:08:55
ich kann nix dafür wenn du nicht richtig lesen kannst.


Hahaha... alles klar. :uup:

Slipknot79
2022-08-22, 19:15:04
Dann bleiben vlt. 3 Spiele übrig, rest wurde im GPU Limit sein ab 1440p und RTX 3090.

Deswegen, 720p. Aber ja. Ich spiele in 1440p und ziemlich oft sogar in 4K per DLDSR mit DLSS oben drauf. Die Nischen Spiele der X3D Fraktion spiele ich nicht.

Man muss halt sich selber gut kennen, bzw. sein Afterburner OSD auslesen können. Dann weiß man selbst, das er keinen Sinn macht.

Anders sieht es vlt. aus wenn man sowieso eine 40er Gen GPU Kauf plant, dann könnte es in 1440p tatsächlich sinn machen, da diese GPUs nochmal so viel stärker sind, und das CPU Limit schneller forcieren können, sogar in 1440p.

Der 4K Gamer wird aber aber mit Zen 3 oder Intel Äquivalent safe sein. Da kann man sich einen X3D oder Zen 4 wieder komplett sparen.


Naja, das sind schon etwas moar als 3 Spiele wenn man diesen Thread verfolgt.
Natürlich can man auch nen OSD auslesen, das stimmt, und ist auch ein weiteres Argument dafür, dass man auf die nutzlosen 720p Tests getrost verzichten can.
Es ist aber auch die Frage wo die Schmerzgrenze liegt: Wenn ich nun eine etwas ältere CPU habe und eine dicke GPU und das Spiel rennt mit 100fps, dann würde es mich schon interessieren, was eine noie CPU in einer praxistauglichen Auflösung bringt vorallem wenn ich eine ältere CPU besitze. Sind es 10fps? Sind es 20fps? Oder sogar 50fps? Das can ich aus dem OSD nicht auslesen. Lohnt sich ein Platformupdate wegen 10fps? Oder erst bei 30fps? Was würde es kosten? Das sind die Dinge, die tatsächlich interessieren und nicht Dinge ob mit einer 3090Ti in 720p die CPU 240fps liefert und mit der Vorgänger 210fps. Ya voll qool ey, dick bums um 14%, Zusatz: Aber in 720p. :rolleyes:
Die Folge aus diesen nutzlosen 720p Benchmarks sind dann nutzlose pauschal-Aussagen wie: "Die CPU ist doch im gaming viel schneller", ja genau. Es ist schon katastrophal genug, dass das in den pauschalen Nerd-Sprachgebrauch übergegangen ist.

@aufkrawall: Ich ärgere dich und nicht das Forum. Wer soll das überhaupt sein. Du hast das Problem, friss es, lebe damit und bleibe trotzdem klein. (y)

aufkrawall
2022-08-22, 19:17:38
@aufkrawall: Ich ärgere dich und nicht das Forum. Du hast das Problem, friss es, lebe damit und bleibe trotzdem klein. (y)
Aus welcher Kamasutra-Fibel beziehst du eigentlich deine möchtegern-ausgeglichenen Kalendersprüche?
Du checkst einfach nicht, dass die ~1% low in 720p in etwa die fps sind, die du mit der CPU auch ein höheren Auflösungen halten kannst. Du hast da irgendein massives Verständnisproblem, das sicher nicht nur mich nervt. Wahrscheinlich jeden außer dich selbst, was ziemlich bemitleidenswert ist...

Darkearth27
2022-08-22, 19:39:19
Hmm weiß nicht was hier limitiert..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80293&stc=1&d=1661189973

Nur um mal ein Extrembeispiel zu nennen was 720p Tests angeht.
Ist es nun die GPU die limitiert oder die CPU oder sogar die Engine?

Wer weiß, wer weiß, so viele Fragen, so wenig Antworten....

Slipknot79
2022-08-22, 19:59:11
Aus welcher Kamasutra-Fibel beziehst du eigentlich deine möchtegern-ausgeglichenen Kalendersprüche?
Du checkst einfach nicht, dass die ~1% low in 720p in etwa die fps sind, die du mit der CPU auch ein höheren Auflösungen halten kannst. Du hast da irgendein massives Verständnisproblem, das sicher nicht nur mich nervt. Wahrscheinlich jeden außer dich selbst, was ziemlich bemitleidenswert ist...

Das performance-Verhalten der low-fps und der avg-fps ist aber relativ ähnlich wenn man bei der selben dicken GPU die CPUs durchtauscht in 720p.
Hingegen, je höher die Auflösung, desto näher ziehen sich die fps-Balken zusammen, avg und low. Wenn sich also GPU-limit und CPU-limit einander nähern. Blos weil die low-fps um 25% schneller sind mit einer aktuellen CPU in 720p vs ältere CPU, heißt das nicht, dass "nah" am GPU-limit in hohen Auflösungen die 25% erhalten bleiben. Dort sind es vielleicht nur noch 5%, 10%, 7%, auch 25%? 50% bei ganz alten CPUs? Tja, mangels Benchmarks unbekannt.

Thunder99
2022-08-22, 20:02:00
Hin und wieder die Engine, wie man schön an WoWs sehen kann welche mal mit einem Update von 70fps auf 120+fps ging :ugly:

Aber nicht desto trotz zeigt ein 720p Bench was passiert in den Spiel X wenn die CPU limitieren sollte. Und das macht sie in der einen oder anderen Szene öfters als man denkt.

Ich für meine Teil habe die CPU fest eingeplant, einfach da es eine sehr gute CPU ist mit optimaler Anzahl von Kernen für heute und morgen :). Parallelisierung von Code in Spielen ist immer noch nicht so gut möglich, sodass sich ein 12Kerner oder mehr lohnt.

dargo
2022-08-22, 20:06:36
Hmm weiß nicht was hier limitiert..

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=80293&stc=1&d=1661189973

Nur um mal ein Extrembeisipel zu nennen was 720p Tests angeht.
Ist es nun die GPU die limitiert oder die CPU oder sogar die Engine?

Wer weiß, wer weiß, so viele Fragen, so wenig Antworten....
Die GPU kann hier nicht limitieren, dafür müssten die Auflösungen unterschiedlich skalieren. Hier limitiert eine Mischung aus Engine (schlechtes Multithreading) + CPU + eventuell zusätzlich noch der API-Overhead. Bananensoftware gibts leider hin und wieder mal am PC.

horn 12
2022-08-22, 20:14:44
@Thunder99

Der Preis des 5800X3D dürfte auch langsam passen

CPU Temperatur IDLE 62 Grad warm
mit PBO2 Tuner auf 56 Grad Retour...

Cinebench 23 mit PBO2 Tuner Alle 8 Kerne maximal 82 Grad
mit Skythe Mugen 5 PCGH Version,
aber durch Knappheit eben doch nur 1 Lüfter verbaut, anstelle dessen 2 Stück.

Ex3cut3r
2022-08-22, 20:59:33
Die GPU kann hier nicht limitieren, dafür müssten die Auflösungen unterschiedlich skalieren. Hier limitiert eine Mischung aus Engine (schlechtes Multithreading) + CPU + eventuell zusätzlich noch der API-Overhead. Bananensoftware gibts leider hin und wieder mal am PC.

Das sind halt diese "Typischen" Strategie Spiele, kenne kaum eins, welches nicht am Single Core hängt. Dazu kommen die auch noch oft genug mit DX11 only oder aber "Pseudo" DX12.

In so einem Szenario wurde ich einfach 4K aktivieren. Die FPS bleiben eh gleich, aber die GPU kommt vlt. mal öfters ins GPU Limit. Oder aber hier wurde der X3D tatsächlich einen massiven Sprung liefern. RAM Tuning für den R5-3600 könnte auch vieles bringen (15-30%), wenn man B-Die hat.

dargo
2022-08-22, 21:12:09
Das sind halt diese "Typischen" Strategie Spiele, kenne kaum eins, welches nicht am Single Core hängt. Dazu kommen die auch noch oft genug mit DX11 only oder aber "Pseudo" DX12.

Jepp... wobei ich hier eher auf alte, ineffiziente Engines tippen würde. Ein Riftbreaker zeigt was am PC machbar ist.
z56gP3zDPoQ

Ist auch "nur" ein R5 3600.

M4xw0lf
2022-08-22, 21:26:15
Jepp... wobei ich hier eher auf alte, ineffiziente Engines tippen würde. Ein Riftbreaker zeigt was am PC machbar ist.
https://youtu.be/z56gP3zDPoQ

Ist auch "nur" ein R5 3600.

Und dennoch eines der Spiele, in denen der 5800X3D besonders weit vor seinen Geschwistern und Ahnen liegt.

Ex3cut3r
2022-08-22, 22:01:07
Und dennoch eines der Spiele, in denen der 5800X3D besonders weit vor seinen Geschwistern und Ahnen liegt.

In 4K/1440p oder wieder in 720p? :redface:

Sehe hier 32% vom 5800X aus in 720p. Mit B-Die beim 5800X könnte man den Abstand auch wieder massiv verkürzen. Wenn man den eh schon drin hat, muss man nicht mal Geld investieren.

https://abload.de/img/imagezacif.png

IceKillFX57
2022-08-22, 22:07:05
Mal eine Frage, könnte man theoretisch ein 5950X nehmen und dort nur auf 8 Kerne im Bios schalten? Theoretisch müsste ja mehr Cache pro Kern zur Verfügung stehen oder nicht? Oder wird dann auch Teil des Cache ebenfalls gesperrt?

M4xw0lf
2022-08-22, 22:10:16
Mal eine Frage, könnte man theoretisch ein 5950X nehmen und dort nur auf 8 Kerne im Bios schalten? Theoretisch müsste ja mehr Cache pro Kern zur Verfügung stehen oder nicht? Oder wird dann auch Teil des Cache ebenfalls gesperrt?

Mehr als 32mb bekommt ein Kern nicht zu Gesicht, weil das die Menge auf jedem der beiden der zwei CCDs ist.

Langlay
2022-08-22, 22:14:16
Mal eine Frage, könnte man theoretisch ein 5950X nehmen und dort nur auf 8 Kerne im Bios schalten? Theoretisch müsste ja mehr Cache pro Kern zur Verfügung stehen oder nicht? Oder wird dann auch Teil des Cache ebenfalls gesperrt?

Das geht nicht. Wenn du ein CCD abschaltest ist auch der Cache von dem Chiplet aus.

IceKillFX57
2022-08-22, 22:32:33
Hmmm auch nicht beim 5900X? Da ist doch die Verteilung anders oder nicht?

Achill
2022-08-22, 22:42:25
Hmmm auch nicht beim 5900X? Da ist doch die Verteilung anders oder nicht?

Nop, geht nicht ... wie schon einmal erwähnt hat der 5900X & 5950X 2x 32MB 3rd Level Cache und daher verhalten sich die CCD zwischen den kleinen Zen3 und großen Zen3 gleich - bis eben auf den 5800X3D



5800X, 5700X, ... usw
https://images.anandtech.com/doci/16214/Zen3_arch_21.jpg

5950X & 5900X
https://images.anandtech.com/doci/16214/Zen3_arch_22.jpg

Tralalak
2022-08-22, 22:43:54
AMD Ryzen 7 5800X3D: Best for gaming? In practice, rarely
source: https://www.hwcooling.net/en/amd-ryzen-7-5800x3d-best-for-gaming-in-practice-rarely/

IceKillFX57
2022-08-22, 22:56:33
Nop, geht nicht ... wie schon einmal erwähnt hat der 5900X & 5950X 2x 32MB 3rd Level Cache und daher verhalten sich die CCD zwischen den kleinen Zen3 und großen Zen3 gleich - bis eben auf den 5800X3D

Danke für die Mühe!

r3ptil3
2022-08-22, 23:08:22
AMD Ryzen 7 5800X3D: Best for gaming? In practice, rarely
source: https://www.hwcooling.net/en/amd-ryzen-7-5800x3d-best-for-gaming-in-practice-rarely/

Der Test ist absolut nutzlos: Da wurde mit einer BIOS-Version von Mai 2021 getestet auf der AMD-Plattform (AGESA 1.2.0.2), welche nicht mal offiziell den 5800X3D unterstützt.

Wir sind mittlerweile bei AGESA 1.2.0.7 und der Test wurde zudem auch im August 2022 gemacht.

Tralalak
2022-08-22, 23:30:48
Der Test ist absolut nutzlos: Da wurde mit einer BIOS-Version von Mai 2021 getestet auf der AMD-Plattform (AGESA 1.2.0.2), welche nicht mal offiziell den 5800X3D unterstützt.

Wir sind mittlerweile bei AGESA 1.2.0.7 und der Test wurde zudem auch im August 2022 gemacht.


You are reading inconsistently.

* The processor is tested with AGESA 1.2.0.7. Compared to AGESA 1.2.0.6c, it achieves slightly lower raw performance (up to 3 %), but this is the final microcode with which this processor will be mostly used. The results are also more relevant for later comparison with Ryzen 7000, with which AMD will follow up AGESA 1.2.0.7.
source: https://www.hwcooling.net/en/amd-ryzen-7-5800x3d-best-for-gaming-in-practice-rarely/

r3ptil3
2022-08-22, 23:37:09
You are reading inconsistently.

* The processor is tested with AGESA 1.2.0.7. Compared to AGESA 1.2.0.6c, it achieves slightly lower raw performance (up to 3 %), but this is the final microcode with which this processor will be mostly used. The results are also more relevant for later comparison with Ryzen 7000, with which AMD will follow up AGESA 1.2.0.7.
source: https://www.hwcooling.net/en/amd-ryzen-7-5800x3d-best-for-gaming-in-practice-rarely/


Ok, Test setup:

https://i.ibb.co/kHSTQdk/AGESA.png

V1E:
https://i.ibb.co/K6RY4sV/AGESA1.png

Tralalak
2022-08-22, 23:51:49
It's just a print scrn with older reviews of AMD processors. That's why there is an *asterisk in the text.

* The processor is tested with AGESA 1.2.0.7. Compared to AGESA 1.2.0.6c, it achieves slightly lower raw performance (up to 3 %), but this is the final microcode with which this processor will be mostly used. The results are also more relevant for later comparison with Ryzen 7000, with which AMD will follow up AGESA 1.2.0.7.
source: https://www.hwcooling.net/en/amd-ryzen-7-5800x3d-best-for-gaming-in-practice-rarely/

It's one of the few reviews with the final microcode!

Ex3cut3r
2022-08-23, 00:36:26
A Bios from the year 2021 would not even boot with a X3D.....

But still that review is questionable...720p is fine for testing raw CPU Performance. But low settings further reduces load.

DeadMeat
2022-08-23, 00:47:36
Mein Asus ist mit einem 21er Bios und dem 5800x3d gestartet und funktionierte durchaus, genauer war es das AGESA V2 PI 1.2.0.3a oder c.

r3ptil3
2022-08-23, 01:11:17
A Bios from the year 2021 would not even boot with a X3D.....


Doch, funktioniert definitiv.

Ex3cut3r
2022-08-23, 02:12:34
Quelle? :redface:

Mein Asus ist mit einem 21er Bios und dem 5800x3d gestartet und funktionierte durchaus, genauer war es das AGESA V2 PI 1.2.0.3a oder c.

Hmm, ok. Dann lage ich wohl falsch. X-D

Also Zen 2 wollte damals partout nicht booten. Interessant.

DeadMeat
2022-08-23, 02:27:32
Über die Performance kann ich aber nichts sagen Windows lief zwar aber ich hab direkt ins Bios-Update Rebooted.
Ob die Zahlen da oben also stimmen oder nicht keine Ahnung, womöglich einfach eine passende Auswahl an Spielen die eben nicht profitieren. Es gab einige Review Seiten die ein solches Fazit zogen weil eben so einige Mainstream spiele nicht profitieren vom Cache.
Die eigentlichen Titel mit hohen Ergebnissen kamen ja auch erst nach und nach heraus. Durchaus "große" Spiele aber eben nicht im aktuellen Mainstream Benchkurs.

Daher ist die Schlussfolgerung das wenn man eben diese Titel spielt die CPU nicht viel bringt durchaus richtig.
Andererseits freut man sich in anderen Titeln um 30-40% steigerungen.

Man kauft auch keinen 32kerner wenn man den nicht braucht, die CPU ist durchaus nicht nutzlos, aber auch nicht allmächtig.

IceKillFX57
2022-08-23, 06:29:14
Bin weiterhin unentschlossen ob ich den 5950X oder den 5800X3D behalte. Der 16Kerner war halt günstiger und das neu….

Bezüglich des Tests oben und der Kritik an der Bios Version. Ich kann zumindest sagen, dass bei einer bestimmten Bios Version der 5800X3D zwar erkannt wurde und auch augenscheinlich funktioniert hatte, aber der boost NICHT funktioniert hat. Windows meldete zwar den boost, auch CPU-Z und CoreTemp aber Hardware Info laß beim effektiven Takt (oder wie der Reiter sich nennt) immer Max 3.5GHz aus. Beim normalen Takt aber 4.45GHz oder so. Spiegelte sich aber auch in Cinabench wieder…nur so als Info. Zumindest bei meinem Brett (MSI B450 Tomahawk Max). Mit neustem Bios kein Thema. Kann natürlich ein MSI spezifisches Problem gewesen sein. Gab glaube ich Berichte.

dargo
2022-08-23, 07:22:14
Und dennoch eines der Spiele, in denen der 5800X3D besonders weit vor seinen Geschwistern und Ahnen liegt.
Ja... mit Stocksetings beim Speicher wird das sicherlich stimmen wenn die Applikation speicher-/ bzw. latenzintensiv ist. Mit einem optimierten B-Die wird das wieder anders aussehen. Und wie Exe schon angedeutet hatte wird es in einer üblichen Spielauflösung von 1440p oder gar 4k nochmals etwas anders als in 720p aussehen (ich sage hier nicht, dass 720p CPU-Tests generell Grütze sind, sie sind leider aber auch nicht das Optimum bezogen auf Praxis). Und zu guter letzt bringt es einem Spieler der dieses Genre nicht konsumiert eh nichts.

btw.
Was ich eigentlich mit dem Beispiel Riftbreaker aussagen wollte... mir wäre wirklich lieber wenn die DEVs endlich mal flächendeckend effizientere Applikationen verwenden würden anstatt, dass der Spieler wieder die nächste Brechstange bei der Hardware rauskramen "muss".

IceKillFX57
2022-08-23, 07:51:22
Naja es macht halt meiner Meinung nach nur Sinn, wenn ein Spiel vom Cachr profitiert(ja gut, das sowieso lol) aber auch eben mit wieviel es Minimum FPS es läuft. Wenn ich in 720p mit einem 5950X 300FPS habe und mit dem 3D Cache 350-400fps ich aber nur mit 60Hz-165Hz zocke, dann kann mir das doch egal sein? Ja gut, kann natürlich sein, das die Frametimes mit dem Cache besser sind.
Wenn ich natürlich in 4K 42fps habe und mit dem Cache min. 60, dann würde es sich wieder was ausmachen…

Ich glaube in Notebooks macht der Cache mehr Sinn.

Thunder99
2022-08-23, 08:52:51
Cache ist dennoch schneller als RAM Optimierung. Gab dazu einen Test

horn 12
2022-08-23, 09:01:07
Mann kann das Vorherige Modelle immer noch verkaufen
538 Euro am 20-ten April den 5800X3D Bezahlt und den 5600X für 165 Euro verkauft.

dargo
2022-08-23, 09:01:37
Cache ist dennoch schneller als RAM Optimierung.
Sag bloß... ;)

Zu dumm nur, dass der Cache so klein ist vs. RAM und es dadurch trotzdem die Umwege über RAM geben muss. Am Ende zählt eh nur was hinten raus kommt und nicht was der Cache "theoretisch" schneller als der RAM ist.

robbitop
2022-08-23, 09:10:31
Naja der Cache reduziert im arithmetischen Mittel über viele Millionen Zugriffe pro Sekunde aber dessen Anzahl. Bei jedem Zugriff auf den L3 statt auf den ram sind es dann 15 ns statt >60 ns.

Der VCache hilft in einigen Szenarien extremst! (siehe zB Anno 1800) und in anderen bringt er nicht so viel.
Zum Glück wird es nun in keder Zen Generation einen VCache geben. Zen 4 und Zen 5 werden allaround stärker (für alle usecases) und der vcache bringt in obigen Szenarien halt einen extra boost.

Aber von einem Zen 3 auf einen Zen 3 mit vcache aufzurüsten wird in der Mehrzahl der Einsatzfälle hinter dem GPU Limit sinnfrei sein. Von Zen 1 oder Zen 2 aus gesehen wäre das wohl was Anderes. Wer einen Zen 3 hat, für den lohnt frühestens IMO Zen 4 x3d oder Zen 5.

Crazy_Chris
2022-08-23, 09:11:01
Ist doch ganz einfach:

- Ich spiele einige Spiele die massiv vom Cache profitieren (Anno 1800, Kingdom Come, FS 2020 usw.): -> 5800X3D
- Ich möchte mein AM4 System noch ein paar Jahre zum spielen weiternutzen und Preis/Leistung ist mir Wichtig -> 5800X oder 5700X
- Ich nutze den Rechner neben dem spielen auch zum "Arbeiten" -> 5900X/5950X
- Geld und die Umwelt ist mir egal. Ich kaufe alles neu und schmeiße mein noch funktionierendes AM4 System weg. :wink: -> i9-12900K

robbitop
2022-08-23, 09:36:04
Wobei ich bei einigen Spielen wirklich den Kopf schütteln muss, dass die mit einem top notch fast 5 GHz 8 Kerner nicht flüssig genug laufen weil in 2022 noch immer nicht gelernt wurde auf MT zu optimieren. Siehe Anno 1800 was bei großen Städten ohne vcache bei Zen 3 unter 60 fps rutscht. Mit dieser Gurkengrafik (verglichen mit anderen top notch Titeln die grafisch mehr bieten und schneller laufen)

Aber klar: wenn man genau diese Titel gerne spielt (was ich gerade bei Anno [spielerisch seit 1602 einfach mein Ding trotz obiger Nachteile] sehr gut verstehen kann) -> kauft man sich den 12900k oder den 5800x3d.

Grendizer
2022-08-23, 10:23:05
Mein erster PC war 1989 ein Amstrad PC2286 und ich habe seit 33 Jahren regelmäßig meine Systeme upgegradet oder neue gebaut. Ich finde aber mittlerweile diese Hatz auf den letzten Frame ohne Kompromisse befremdlich.

Ich habe damals direkt beim 1700x zugegriffen und mir dann einen 3900X gekauft, der immer noch sauber und schnell genug für alles ist, was ich spielen will. Da limitiert die 1080 viel zuviel.

Ja PC Gaming hat viel mit Enthusiasten zu tun, aber manchmal wird so getan, als ob Spiele unspielbar wären, wenn man einen 5900X oder 5950X nutzen würde.

IceKillFX57
2022-08-23, 11:15:21
AMD hätte einfach direkt dem 5900X den 3DCache verpassen sollen. Aber gut, dann hätte wohl AM5 nicht soviel Sinn gemacht.

dargo
2022-08-23, 11:38:40
AMD hätte einfach direkt dem 5900X den 3DCache verpassen sollen. Aber gut, dann hätte wohl AM5 nicht soviel Sinn gemacht.
Das ist doch Unsinn. Dann dürfte auch kein 5800X3D erscheinen. Eher wird es so sein, dass der 5800X3D ein Testlauf für AMD für zukünftige Generationen war. Nimmt der Markt den 5800X3D sehr gut an kannst du davon ausgehen, dass wir demnächst (ab Zen 4 aufwärts) mehr von solchen CPUs sehen werden.

IceKillFX57
2022-08-23, 11:57:57
Das ist doch Unsinn. Dann dürfte auch kein 5800X3D erscheinen. Eher wird es so sein, dass der 5800X3D ein Testlauf für AMD für zukünftige Generationen war. Nimmt der Markt den 5800X3D sehr gut an kannst du davon ausgehen, dass wir demnächst (ab Zen 4 aufwärts) mehr von solchen CPUs sehen werden.

haben die nicht schon im Serverbereich mehr Cache verbaut?

nordic_pegasus
2022-08-23, 12:22:13
AMD hätte einfach direkt dem 5900X den 3DCache verpassen sollen. Aber gut, dann hätte wohl AM5 nicht soviel Sinn gemacht.

ein 5900x ist teildefekt (2 Chiplets mit 6 von 8 Kernen aktiv). Bislang ist 3D-Cache nur auf vollständigen Chiplets in Servern und Desktop (also derzeit exklusiv der 5800X3D) im Umlauf.

Meine Vermutung: AMD prüft die Chiplets vor dem 3D-Bonding auf Defekte und stacked nur die vollständigen Chiplets.

Darum hätte es maximal einen 5950X3D geben können, welchen man aber mutmaßlich zu Gunsten von AM5 verworfen hat.

IceKillFX57
2022-08-23, 12:34:01
Ok das klingt irgendwie logisch.

Mhmmmm ich glaube ich überlege einfach 1-2 Jahre welche CPU ich behalte…müsste mir nur neue Paste bestellen…

r3ptil3
2022-08-23, 12:41:56
@nordic_pegasus

Der 5900X mit 3D-Cache wurde ja anfänglich von AMD selber erwähnt, dann aber wieder verworfen.

Man darf auch nicht vergessen, dass der 5800X3D sehr spät im April 2022 veröffentlicht wurde, während man im Januar schon einen Zen4 in Aktion (Halo Infinite) mit mind. 5 Ghz gesehen hat.

AMD wird ihre neue Produkte aus logischer Sicht ganz bestimmt nicht, im Vergleich zu einem älteren Produkt (5800X3D) schlecht dastehen lassen.

Bin mittlerweile auch eher der Meinung, dass Zen4 richtig richtig gut abschneidet in Games.

Dagegen spräche aber eben der gecancelte 5900X3D, welcher ja mit massiv mehr Cache gekommen wäre als der 5800X3D. Vielleicht war eben genau dieser doch etwas zu "gut", so dass man es bei einem durchschnittlichen 5800X mit 3D-Cache belassen hat.

Mortalvision
2022-08-23, 12:57:42
AMD soll mal bitte spätestens die X3D Version für 8 Kerne bringen. Sonst wird das vermutlich Intel machen. Die haben den Braten aus Taiwan doch schon längst gerochen…

Crazy_Chris
2022-08-23, 12:58:04
Ich denke das ein 5900X3D nicht so merklich schneller als ein 5800X3D in Spiele gewesen wäre und man ihn sich deshalb gespart hat. Preis wäre vermutlich auch durch die Decke gegangen bei 2x 64Mbyte 3D V-Cache.

Thunder99
2022-08-23, 13:17:16
Cache > Kerne und das hat AMD erkannt und lieber den 5800X genommen als den 5900X. Gute CPU bei mäßigen Mehrkosten für AMD da der Cache nur auf einem Die kommt.
Für Spieler auch besser.

AMD hat also alles richtig gemacht. 5900X mit 3D Cache war eine Machbarkeitsstudie, mehr nicht.

IceKillFX57
2022-08-23, 13:42:50
Zu Saints Row 5 gibts noch keine Benchmarks oder?

IceKillFX57
2022-08-23, 13:44:04
Ich denke das ein 5900X3D nicht so merklich schneller als ein 5800X3D in Spiele gewesen wäre und man ihn sich deshalb gespart hat. Preis wäre vermutlich auch durch die Decke gegangen bei 2x 64Mbyte 3D V-Cache.

Das nicht aber eben dann auch in Anwendungen entsprechend. Dann wäre es eben ein echter Allrounder.

Thunder99
2022-08-23, 14:14:58
Dachte sich AMD ja auch. Bis zum 5800X primär Spieler, ab 5900X Content Creater

Ex3cut3r
2022-08-23, 14:30:06
Nennt mir mal bitte Spiele die auf einen 12Kerner/16 Kerner schneller laufen out of the box als mit einem 8C/16T. Und bitte nicht diese 2-3% Vorsprünge, die kommen auch nicht von den Kernen, sondern da diese Modelle auch einen 100-200MHZ höheren Takt out of the box haben und ein wenig mehr Cache.

Der 7600X mit seinen 6C/12T wird zu 95% sowieso alles von AMD im Gaming vernichten. Und das mit solch"lächerlichen" Core Count, einige müssen mal wirklich von ihren "viel" Core Fetischismus runterkommen. Es bringt in Spielen einfach mal nix.

Lehdro
2022-08-23, 14:32:27
ein 5900x ist teildefekt (2 Chiplets mit 6 von 8 Kernen aktiv). Bislang ist 3D-Cache nur auf vollständigen Chiplets in Servern und Desktop (also derzeit exklusiv der 5800X3D) im Umlauf.

Meine Vermutung: AMD prüft die Chiplets vor dem 3D-Bonding auf Defekte und stacked nur die vollständigen Chiplets.

Ist halt quatsch, Milan-X gibt es sogar als "2 Core aktiv pro CCD"-Variante um trotz "nur" 16 Kernen 768 MiB L3 Cache zu haben. (https://www.pcgameshardware.de/CPU-CPU-154106/News/Milan-X-Neue-Epyc-Server-CPUs-fuer-bis-zu-8800-US-Dollar-1391573/)
Muss man halt nur bezahlen wollen.
Ich denke AMD wird hier einfach eingesehen haben das ein 5600X3D kaum billiger als der 5800X3D und der 5950X3D einfach zu teuer wäre. In seinem Einsatzgebiet wäre ein hypothetischer 5950X3D meist kaum besser als der 5800X3D (Gaming) oder deutlich schlechter als der 5950X (Anwendungen). Das wäre höchstens als Stinkefinger Richtung 12900KS plausibel, aber ist halt einfach nicht notwendig. Könnte man den Taktunterschied (4.5 vs. 4.9) wieder wegzaubern wäre das eine andere Geschichte, aber soweit ist die Technik leider noch nicht. Vielleicht ja mit Zen4 oder 5.
Nennt mir mal bitte Spiele die auf einen 12Kerner/16 Kerner schneller laufen out of the box als mit einem 8C/16T. Und bitte nicht diese 2-3% Vorsprünge, die kommen auch nicht von den Kernen, sondern da diese Modelle auch einen 100-200MHZ höheren Takt out of the box haben und ein wenig mehr Cache.
Total War:Troy :freak:
Liegt aber nur daran dass das Gras rein durch die CPU berechnet wird (https://www.computerbase.de/2020-08/troy-a-total-war-saga-benchmark-test/2/#abschnitt_prozessorbenchmarks_zeigen_skalierung_auch_mit_16_kernen). Imo Schwachsinn.