PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Ryzen 7 5800X3D Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16

Crazy_Chris
2023-07-11, 09:49:12
Den Stutter, wenn ein Shader benötigt wird, kann er aber auch nicht kompensieren.

Ja mag sein. Nur gibts bei Tlou spätestens ab 1.1.0.0 keine Stutter mehr. Ich habe jeweils die Hauptstory (ab Mitte) und auch das DLC vorher gestartet und es gab 0 Probleme damit. Von daher verstehe ich da die ganze Aufregung nicht. Möglicherweise habe sie das mit den letzten Patches intelligenter gelöst so das der Cache für den aktuellen Bereich schon verfügbar ist. Während des Spielens hat der 5800x3d jeweils fleißig weiter den Cache im Hintergrund aufgebaut und das war absolut kein Problem.

dargo
2023-07-11, 09:59:57
Neue Penisvergleiche im 3DC... Shader kompilieren. :lol:

Raff
2023-07-11, 10:38:57
Das Gebäude-Bepinseln von TLoUP1 (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/) ist tatsächlich ein sehr geiler CPU-Benchmark (und Stabilitätstest). Da helfen Kerne, Kerne und Kerne -> 7950X3D regelt, aber auch 12900K und 13900K(S) wegen der E-Chöre.

MfG
Raff

aufkrawall
2023-07-11, 10:57:00
Witzigerweise zerstört bei diesem Beispiel ACO für RADV sogar den Nvidia-Treiber, was die Compile-Zeit angeht. AMD & Nvidia lassen da Unmengen an Potenzial brachliegen, wobei AMD auch bei einigen Spielen weniger Kerne zu nutzen scheint. Der 23.20 UWP Preview-Treiber bringt hier offenbar Verbesserungen.

Crazy_Chris
2023-07-11, 11:08:07
Wurde immer empfehlen die Shader Kompilierung abzuwarten, außer man steht natürlich auf Ruckler/Spikes oder merkt diese nicht, gibt ja erstaunlich vieler solcher Leute.

Kein Sorge, ich kenne Stutter und Mikroruckler sehr gut da ich viel Ets2 spiele. :biggrin:

Ex3cut3r
2023-07-11, 11:59:46
Das Gebäude-Bepinseln von TLoUP1 (https://www.pcgameshardware.de/The-Last-of-Us-Part-1-Spiel-73749/Specials/CPU-und-GPU-Benchmarks-Technik-Test-Check-1423635/) ist tatsächlich ein sehr geiler CPU-Benchmark (und Stabilitätstest). Da helfen Kerne, Kerne und Kerne -> 7950X3D regelt, aber auch 12900K und 13900K(S) wegen der E-Chöre.

MfG
Raff

Ganz genau, selbst ein 13600k ist erheblich schneller darin, als ein 5800X3D oder gar 7800X3D. Schade das AMD seit Jahren nur 8C/16T im Preisbereich von 400-500€ anbietet.

dildo4u
2023-07-11, 12:16:26
Zen 4 sieht ok aus 7700x gibt es für 320 billiger als 13600k hat Intel die Preise angehoben?

dargo
2023-07-11, 12:29:41
Schade das AMD seit Jahren nur 8C/16T im Preisbereich von 400-500€ anbietet.
Wat?
https://www.mindfactory.de/product_info.php/AMD-Ryzen-9-5950X-16x-3-40GHz-So-AM4-WOF_1380729.html

PS: P/L ist beim 24-Threader noch besser.
https://www.mindfactory.de/product_info.php/AMD-Ryzen-9-5900X-12x-3-70GHz-So-AM4-WOF_1380728.html

Ex3cut3r
2023-07-11, 13:23:09
Dein Ernst? Diese alten Schinken, die früher zur Ihrer Primetime 600-800€ gekostet haben? X-D

dargo
2023-07-11, 13:32:45
Stimmt... mit den alten Schinken kann man heute nichts mehr spielen/kompilieren. Junge, junge... wo bin ich hier wieder reingeplatzt. Bin schon wieder weg, reinstes Irrenhaus. Einfach nur noch zum fremdschämen. Labert was von alten Schinken und im System steckt selbst noch ein "poppeliger" 5700X, kannste dir nicht ausdenken. Kaufe dir endlich einen aktuellen Intel damit hier Ruhe einkehrt. :freak:

dildo4u
2023-07-11, 13:38:25
Dein Ernst? Diese alten Schinken, die früher zur Ihrer Primetime 600-800€ gekostet haben? X-D
Die neusten PC Ports haben doch gezeigt niemand wird E-Cores nutzen das Cores skaling bewegt sich nicht in die Richtige Richtung.
Und AMD wird den Intel Weg auch gehen mit den Zen 5 C Cores nur damit man mehr Kerne bewerben kann.
Was aber kompletter Blödsinn für Consumer ist wenn AI/GPU Blöcke massiv mehr Leitung pro Chipfläche liefern.(Für Rendering Siehe Blender Optix/Video Bearbeitung etc)

Denniss
2023-07-11, 13:47:28
Es gibt hier so ein paar Oberstinker die glauben nur ihre Meinung/Weltanschauung ist richtig. Auf Ignore und fertig.

Ex3cut3r
2023-07-11, 17:10:47
Stimmt... mit den alten Schinken kann man heute nichts mehr spielen/kompilieren. Junge, junge... wo bin ich hier wieder reingeplatzt. Bin schon wieder weg, reinstes Irrenhaus. Einfach nur noch zum fremdschämen. Labert was von alten Schinken und im System steckt selbst noch ein "poppeliger" 5700X, kannste dir nicht ausdenken. Kaufe dir endlich einen aktuellen Intel damit hier Ruhe einkehrt. :freak:

Ich habe nirgends behauptet, das ich neue HW habe. KA wieso du das Thema jetzt auf mich lenken müsstest. Wahrscheinlich, weil es dir nicht in den Kram passt, dass ein 13400f mit seinem 6C+4C + SMT für 200€ schneller im MT ist als ein 450€ teurer 5800X3D/7800X3D. :freak:

Es ist nunmal so das AMD auch ein ziemlich Abzocker ist, liefern nämlich seit Jahren keinen Core Bump für die 400-500€ Modelle ab. 8C/16T seit Jahren.....immer wieder gleiche Abzocke, und keinen scheint es zu stören, erinnert an die Intel Generation 4C/8T vor Ryzen (Zen 2)

Des Weiteren sollte es bei berichtiger Kritik, egal sein, was für einen HW Hersteller man selbst im PC hat. Aber so einen HC Amd Fan wie dich, stört sowas natürlich.

Die neusten PC Ports haben doch gezeigt niemand wird E-Cores nutzen das Cores skaling bewegt sich nicht in die Richtige Richtung.
Und AMD wird den Intel Weg auch gehen mit den Zen 5 C Cores nur damit man mehr Kerne bewerben kann.
Was aber kompletter Blödsinn für Consumer ist wenn AI/GPU Blöcke massiv mehr Leitung pro Chipfläche liefern.(Für Rendering Siehe Blender Optix/Video Bearbeitung etc)

Ich sprach auch nich vom Gameplay. Hast du mal Shader Kompiliert in Last of Us oder Uncharted 4 die letzte Zeit? Mit einem 8C/16T Only wartest du gerne mal eine halbe bis 40 Stunde/Minuten. Und ein 13700k (kostet etwas weniger als ein 7800X3D) rennt da in 5-10 Minuten durch.

Lurtz
2023-07-11, 17:15:54
Ist das shader compiling denn immer hoch parallelisiert mittlerweile? Ich hatte auch von Spielen gehört wo das nur auf einem Kern lief.
IMO könnte man das auch eleganter machen: Spiele haben ja heutzutage Downloadgrößen von 100 gb. Dauert also ne Weile. Dann könnte man doch parallel dazu shadercompiling machen.

IMO ist es auch total ineffizient dass jeder seine shader selbst kompiliert. Was da an Strom verschwendet wird. Nv/AMD und oder Steam/Epic/EA könnten ja eine Art Datenbank mit kompilierten Shadern für entsprechende Treiberversionen und Spielversionen machen. So dass wenn man das Spiel hat auch gleich die Shader mit gedownloaded werden.

Wenn ich bei einem IHV was zu sagen hätte wäre das eines der Feature-SW Initiativen die ich machen würde und damit bei großen youtubern wie DF werben würde wie geil das ist. Ich bin mir sicher, dass wenn man mal brainstormt gibt es von dieser Art noch viele viele Ideen.
Versuch mal Bobby Kottick davon zu überzeugen, das zu finanzieren... ;)

dildo4u
2023-07-11, 17:16:07
Das ist kein Zwang man kann Shader synchron zum Gameplay abarbeiten genau das wurde beim Zero Dawn PC Port gemacht.
Dort gab es zum Launch langes Warten was jetzt entfällt.

dargo
2023-07-11, 17:26:02
Ich sprach auch nich vom Gameplay. Hast du mal Shader Kompiliert in Last of Us oder Uncharted 4 die letzte Zeit? Mit einem 8C/16T Only wartest du gerne mal eine halbe bis 40 Stunde/Minuten. Und ein 13700k (kostet etwas weniger als ein 7800X3D) rennt da in 5-10 Minuten durch.
Wenn du auf so einen scheiß wartest hast du jegliche Kontrolle über dein Leben bereits verloren! Wie kommt man auf die Idee auf so einen Schwachfug zu warten? Gefällt dir die Gardine ständig anzuschauen bei TLOU oder was? :freak: Hast du nichts anderes zu tun als vor dem PC zu sitzen und unnütz auf irgendwas zu warten? Dann mein aufrichtiges Beileid!

btw.
Deine Kompilierungszeiten sind auch wieder komplette Fantasiewerte oder auf einem alten Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13328923&postcount=1122

Langlay
2023-07-11, 17:33:15
Ich habe nirgends behauptet, das ich neue HW habe. KA wieso du das Thema jetzt auf mich lenken müsstest. Wahrscheinlich, weil es dir nicht in den Kram passt, dass ein 13400f mit seinem 6C+4C + SMT für 200€ schneller im MT ist als ein 450€ teurer 5800X3D/7800X3D. :freak:


Der 5800X3D in dem es in diesem Thread hier geht kostet aber keine 450€ sondern unter 300€.

Ich sprach auch nich vom Gameplay. Hast du mal Shader Kompiliert in Last of Us oder Uncharted 4 die letzte Zeit? Mit einem 8C/16T Only wartest du gerne mal eine halbe bis 40 Stunde/Minuten. Und ein 13700k (kostet etwas weniger als ein 7800X3D) rennt da in 5-10 Minuten durch.

Ich hab gerade eben mit 5800X3D in the last us us compiliert, waren keine 15 Minuten. Davon ab das machste einmal pro Treiberupdate das bringt einen nicht um.

Ex3cut3r
2023-07-11, 17:54:55
Ja, bei Last of Us wurde es verbessert. Bei Uncharted wartet man aber immer noch 40 Minunten mit einem 8C/16T

Wenn du auf so einen scheiß wartest hast du jegliche Kontrolle über dein Leben bereits verloren! Wie kommt man auf die Idee auf so einen Schwachfug zu warten? Gefällt dir die Gardine ständig anzuschauen bei TLOU oder was? :freak: Hast du nichts anderes zu tun als vor dem PC zu sitzen und unnütz auf irgendwas zu warten? Dann mein aufrichtiges Beileid!

btw.
Deine Kompilierungszeiten sind auch wieder komplette Fantasiewerte oder auf einem alten Stand.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13328923&postcount=1122

Verstehe nicht, was du mir sagen willst. Wartest du etwas nicht auf die Shader Komplierung? Sondern zockst einfach drauf los? Mit Stuttering? Igitt. Abscheulich, hätte ich nicht von dir erwartet.

Der 5800X3D in dem es in diesem Thread hier geht kostet aber keine 450€ sondern unter 300€.


Der release Preis war 499€ später ging etwas runter auf 450€
Erst seit Zen 4, ist der so "billig" zu haben.

Langlay
2023-07-11, 18:04:24
Der release Preis war 499€ später ging etwas runter auf 450€
Erst seit Zen 4, ist der so "billig" zu haben.

Wen interressiert der Releasepreis? Der aktuelle Preis ist für die heutige Diskussion interressant, nicht der Preis von Anfang letztes Jahres.

Und zum Release gab es den 13700K noch garnicht. Bei Release war der 5800X3D die schnellste Gamingcpu die du für Geld kaufen konntest.

dargo
2023-07-11, 18:04:30
Verstehe nicht, was du mir sagen willst. Wartest du etwas nicht auf die Shader Komplierung? Sondern zockst einfach drauf los? Mit Stuttering? Igitt. Abscheulich, hätte ich nicht von dir erwartet.

1. Hatte ich überhaupt kein Stuttering als ich es einmal versuchte schon vorher zu zocken.
2. Ich warte nicht sondern beschäftige mich anderweitig in dieser Zeit. Mails/YT checken, Einkaufsliste vorbereiten oder einfach nur kacken gehen. Irgendwas finde ich bestimmt. Ist ja auch nicht so als wenn dieser Kompilierungsvorgang täglich stattfindet.

aufkrawall
2023-07-11, 18:15:52
Und zum Release gab es den 13700K noch garnicht. Bei Release war der 5800X3D die schnellste Gamingcpu die du für Geld kaufen konntest.
Nur @stock, was für die Mehrheit laut einer CB-Umfrage nicht sonderlich relevant ist.

Ex3cut3r
2023-07-11, 18:25:10
Dafür gabs doch damals den 12700k. Ist das wirklich neu für AMD User? :eek:

1. Hatte ich überhaupt kein Stuttering als ich es einmal versuchte schon vorher zu zocken.
2. Ich warte nicht sondern beschäftige mich anderweitig in dieser Zeit. Mails/YT checken, Einkaufsliste vorbereiten oder einfach nur kacken gehen. Irgendwas finde ich bestimmt. Ist ja auch nicht so als wenn dieser Kompilierungsvorgang täglich stattfindet.

Kein Stuttering ohne Shader vorzukomplieren? Ok. Erscheint sehr unwahrscheinlich.
YT? Frisst CPU Leistung -> Ergo dauert das Shader Kompilieren noch länger. Da die CPU bei 8C/16T schon bei 100% so rennt. Kacken? 40 Minuten? Nicht übel. Jeder Treiberwechsel -> Wieder Wartezeit. Erstaunlich was für "Ausreden" Amd Besitzer immer wieder erfinden, und der Intel Raptor Lake User wartet fürs gleiche Geld 5 Minuten. ;D

dargo
2023-07-11, 18:30:59
Könnte bitte jemand Exe einen 13700K spendieren damit sein Getrolle endlich mal aufhört?

aufkrawall
2023-07-11, 18:32:40
Der TLOU-Benchmark zeigt jedenfalls wieder, dass der 5800X3D nicht mehr als 250€ kosten dürfen sollte. Wenn das sich mit dem Streaming ständig so darstellt wie in TLOU etc., war das eher eine One Time-Wunder-CPU. Vermutlich keine populäre Meinung hier. :freak:
Zen 4 bringt hier so unfassbar mehr IPC auf die Straße, die initialen Benchmarks kann man echt langsam mal revidieren...

Langlay
2023-07-11, 18:53:27
Der TLOU-Benchmark zeigt jedenfalls wieder, dass der 5800X3D nicht mehr als 250€ kosten dürfen sollte. Wenn das sich mit dem Streaming ständig so darstellt wie in TLOU etc., war das eher eine One Time-Wunder-CPU. Vermutlich keine populäre Meinung hier. :freak:
Zen 4 bringt hier so unfassbar mehr IPC auf die Straße, die initialen Benchmarks kann man echt langsam mal revidieren...


Behauptet ja auch keiner das der 5800X3D das Mass der Dinge ist. Aber ist halt für Gaming das schnellste was es für AM4 gibt. Ergo wenn du schon ein AM4 Unterbau hast, kann man überlegen ob man aufn 5800X3D für kleines Geld geht und 2-3 Kompromisse eingeht. Oder mal halt mehr Geld aufn Tisch legt und sich dann ne komplett neue Plattform zulegt wo man dann weniger Kompromisse eingehen muss.

Mit Zen5 kommt ja bei AMD, den Gerüchten nach, auch Big.little. Die paar Monate bis dahin werd ich halt auf meinem 5800X3D aussitzen, ist ja nicht so als ob man mit dem Teil nicht vernünftig zocken könnte.

dargo
2023-07-11, 19:07:00
Mit Zen5 kommt ja bei AMD den Gerüchten nach auch Big.little.
Selbst Zen5 X3D wird sich imo nicht massiv vom 5800X3D absetzen können. Das erwarte ich erst vom Zen6 X3D. Aber gut... in einem 3DC drehen schon manche wegen +20-30% durch. X-D

PS: hinzu kommt noch der Fakt, dass bei den Games hier die ich konsumiere zu 99,x% nirgendwo der 5800X3D limitiert sondern die Grafikkarte. Und selbst mit der nächsten Graka (im besten Fall Faktor 2 der RX 6800XT) wird sich das mit hoher Wahrscheinlichkeit kaum ändern denn dann bin ich eher bei 4k angekommen anstatt jetzt 1440p.

Langlay
2023-07-11, 19:30:09
PS: hinzu kommt noch der Fakt, dass bei den Games hier die ich konsumiere zu 99,x% nirgendwo der 5800X3D limitiert sondern die Grafikkarte. Und selbst mit der nächsten Graka (im besten Fall Faktor 2 der RX 6800XT) wird sich das mit hoher Wahrscheinlichkeit kaum ändern denn dann bin ich eher bei 4k angekommen anstatt jetzt 1440p.

Ich bin in 3440x1440p unterwegs und hier bin ich in einigen Spielen (Jedi Survivor z.b.) schon CPU limitiert. Allerdings reißen 7800X3D und 13700K da jetzt im Vergleich zum 5800X3D auch keine Bäume aus.

dargo
2023-07-11, 19:40:57
Natürlich kommt es zu Einzelfällen mit schlechtem Multithreading aus alten Engines die noch für ganz andere Hardware von damals entwickelt wurden und bis zum Ende gemolken werden. Aber wegen Einzelfällen an "Bananensoftware" stürze ich mich doch nicht auf die nächste Hardwareplattform, die wie du richtig sagst dann auch keine Wunder vollbringen kann. Brechstangen können nur Linderung bringen, mehr nicht. Irgendwann wird man sich von diesen "Steinzeit-Engines" trennen. Wir sind ja immer noch in der Übergangsphase zu den aktuellen Konsolen bei den Games obwohl diese schon ~2,5 Jahre im Markt sind. Spieleentwicklung verschlingt halt einige Jahre und so zieht sich dann halt so ein Übergang zu neuen Engines die stärkeres Multithreading beherrschen.

btw.
Dein Beispiel mit Jedi Survivor... die erste Version der UE4 kam 2014. Das muss man sich auf der Zunge zergehen lassen... diese Engine wird so wie es aussieht 9+ Jahre verwendet.

Döner-Ente
2023-07-11, 19:42:39
Nur @stock, was für die Mehrheit laut einer CB-Umfrage nicht sonderlich relevant ist.
Eine CB-Umfrage ist für die Mehrheit nicht sonderlich relevant.

aufkrawall
2023-07-11, 19:48:54
Eine CB-Umfrage ist für die Mehrheit nicht sonderlich relevant.
Die Mehrheit auf dem Planeten? Im Universum? Oder doch nur im örtlichen Kniffel-Verein?
Hier diskutieren 3DC-User, die in etwa vergleichbar zur CB-Leserschaft sein dürften. Folglich ist das die relevante Gruppe. Und nicht irgendein willkürlicher Blödsinn, den du dir ausdenkst.

dargo
2023-07-11, 19:53:00
Die Mehrheit auf dem Planeten? Im Universum? Oder doch nur im örtlichen Kniffel-Verein?
Hier diskutieren 3DC-User, die in etwa vergleichbar zur CB-Leserschaft sein dürften. Folglich ist das die relevante Gruppe. Und nicht irgendein willkürlicher Blödsinn, den du dir ausdenkst.
Du solltest vielleicht mal aus deiner (3DC)Forenblase aufwachen. Eine CB-Umfrage bezogen auf die gesamte PC-Gamingbranche global ist nichts weiter als ein Fliegenschiss.

aufkrawall
2023-07-11, 19:55:05
Nein, sollte ich nicht, weil die Hardware-Anforderungen deiner Oma o.ä. mich nicht im Entferntesten interessieren. Denen ist das furzegal, ob irgendwas 10-50% schneller läuft.
Was ihr bringt, ist ein Strohmann-Argument bzw. Stroh-Oma...

robbitop
2023-07-11, 19:58:17
Vorsicht, du weißt nicht, ob dargos Oma nicht vielleicht doch eine Pro-Gamerin ist, die unrundes framepacing hasst. X-D

dargo
2023-07-11, 20:11:47
Nein, sollte ich nicht, weil die Hardware-Anforderungen deiner Oma o.ä. mich nicht im Entferntesten interessieren.
Es interessieren hier auch niemanden deine Anforderungen. Kaufe dir doch was du willst, wen juckt das überhaupt? Oder verspürst du ein Bedürfnis der Welt mitzuteilen was du dir so alles kaufst? Wie erbärmlich ist das denn bitte? Diese ganze Show von dir und Exe kann doch eh kein normal denkender Mensch verstehen. Beide posaunen regelmäßig wie kacke ein AM4 System vs. Intel ist und beide verwenden weiter selbst ein AM4 System... Comedy pur.

aufkrawall
2023-07-11, 20:14:28
Haperts bei dir bei der Hitze? Würde deinen Effizienz-Fetisch jedenfalls erklären.
Ich habe eine AMD-CPU, weil alles von Intel <200€ deutlich schlechter ist.

Ansonsten sieht man bei TLOU wieder, wie ein 13700K selbst einen Zen 4 3D mit DDR5 OC noch deutlich schlagen würde. Also einfach mehr fps/€ + mehr MT-Leistung. Ist ja völlig irrational. :freak:

dargo
2023-07-11, 20:21:50
Ich mag deine Kirschen. :tongue: Aber die sind leider zu teuer für dich.

aufkrawall
2023-07-11, 20:31:01
Ja, das 200€ Angebot für einen 5800X3D bzw. 300€ inkls. X570S musste ich auch aus meiner Armut heraus ausschlagen. :freak:
Glaube aber kaum, dass der in Fortnite was für die 1% low vs. den 5700X gebracht hätte (kaufe eh keine Hardware mehr für diesen pseudo AAA-Kram wie Battleschrott 2042 etc., weil ich schon für diese Schrott-Spiele keinen einzigen Cent mehr bezahle).

Crazy_Chris
2023-07-11, 20:38:50
Der Thread enttäuscht wirklich nie. :popcorn:

dargo
2023-07-11, 20:42:44
Ich rede hier nicht von Gebrauchtware bei AM4 sondern von neuer Ware wie zb. deinem hochgelobten 13700K + passendem neuen Untersatz und allem was dazu gehört.

...(kaufe eh keine Hardware mehr für diesen pseudo AAA-Kram wie Battleschrott 2042 etc., weil ich schon für diese Schrott-Spiele keinen einzigen Cent mehr bezahle).
Aha... also brauchst du doch keinen 13700K + entsprechender Unterbau, aber andere Spieler ganz bestimmt. ;D

aufkrawall
2023-07-11, 21:00:21
Aha... also brauchst du doch keinen 13700K + entsprechender Unterbau, aber andere Spieler ganz bestimmt. ;D
Irgendwie logisch, wenn der Anspruch ist, möglichst hohe Leistung für einen akzeptablen Betrag zu bekommen (du stellst dich ja auch nur dumm). Wenn man nicht schon damit überfordert ist, XMP einzustellen.
RTL würd ich jetzt aber auch nicht mehr kaufen, AM5 ist mittlerweile mit der Aufrüstoption zu attraktiv und Zen 4 selbst ohne 3D-Cache bis Zen 5 3D eine feine Sache.
Trotzdem ist der 5800X3D ist halt auch nur eine gepimpte, bessere LowEnd-CPU.

dargo
2023-07-11, 21:06:26
Trotzdem ist der 5800X3D ist halt auch nur eine gepimpte, bessere LowEnd-CPU.
Ja stimmt. Bei mir läuft nur noch Tetris damit zufriedenstellend. ;D ;D ;D

aufkrawall
2023-07-11, 21:10:23
Ja, bei nicht wenigen ST-Tasks ist man tatsächlich nah am 5500. Weil es halt die ~exakt gleiche Arch mit sogar gleichem Takt ist, nur gepimpt.
Und das hat gegen Zen 4 oder RTL einfach keine Schnitte mehr, wenn der RAM für Spiele nicht wie eine völlige Bremse eingestellt ist.

dargo
2023-07-12, 09:05:54
Ja, bei nicht wenigen ST-Tasks ist man tatsächlich nah am 5500.
Welchen Gamer juckt heute die Singlecore-Performance? Kommen da jetzt noch mehr Nebelkerzen? Das Thema war Gaming und sofern jemand keine 15-20 Jahre alten Schinken spielt juckt keine Sau heute Singlecore. Keine Ahnung was es da zu schwadronieren gibt. Jeder der an einem CPU-Kauf interessiert ist kann sich im Netz anschauen wo bsw. ein 5800X3D vs. andere CPUs steht. Zb. bei Igor.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/3/

Jeder der auch etwas von Limits versteht kann sich ansehen was von der Mehrperformance von noch schnelleren CPUs in der eigenen Spielauflösung übrig bleiben kann.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/5/
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/6/

Und im Test wurde sogar eine teure RTX 4090 verwendet die bei den Spielern eher selten anzutreffen ist.

HOT
2023-07-12, 09:53:47
Der 5800X3D hat sicherlich aufgrund der Kernleistung mittlereile seine Schwächen aber er schlägt sich nach wie vor gut, erst recht als günstiige Upgrade-CPU. Mit ner 4090 würd ich den aber auch nicht paaren, dazu hat er zuwenig Bumm, oder umgekehrt, das Teil hat unnötig hohe CPU-Last.

][immy
2023-07-12, 09:55:20
Welchen Gamer juckt heute die Singlecore-Performance? Kommen da jetzt noch mehr Nebelkerzen? Das Thema war Gaming und sofern jemand keine 15-20 Jahre alten Schinken spielt juckt keine Sau heute Singlecore. Keine Ahnung was es da zu schwadronieren gibt. Jeder der an einem CPU-Kauf interessiert ist kann sich im Netz anschauen wo bsw. ein 5800X3D vs. andere CPUs steht. Zb. bei Igor.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/3/

Jeder der auch etwas von Limits versteht kann sich ansehen was von der Mehrperformance von noch schnelleren CPUs in der eigenen Spielauflösung übrig bleiben kann.
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/5/
https://www.igorslab.de/amd-ryzen-7-7800x3d-im-gaming-und-workstation-test-ultra-schnell-spielen-in-einer-anderen-energetischen-dimension/6/

Und im Test wurde sogar eine teure RTX 4090 verwendet die bei den Spielern eher selten anzutreffen ist.
Die Anno 1800 Spieler interessiert ST Performance schon. Allgemein ist die nach wie vor wichtig da nach wie vor die Hauptlast meist auf einem hauptthread liegt.
Aber eigentlich ist hier der 5800x3d auch enorm stark. Kommt zwar auch auf den Titel an, aber besonders so was wie Anno 1800 rockt der x3d ohne dabei großartig viel Watt zu beziehen.

Klar der x3d kann nen ziemlicher Hitzekopf sein, aber nur wenn es die GPU überhaupt zulässt. Höhere Auflösung und keine 4090 zu haben grenzen das schon ein. Dann kommt die CPU eigentlich so gut wie nie an ihre limits und alles lässt sich schön leise kühlen. Man ist eigentlich überall immer im GPU Limit.
Oder anders ausgedrückt, man braucht schon eine 4090 um ins CPU Limit vor zu dringen (Ausnahmen gibt es immer).

Multithread Leistung ist auch nicht verkehrt, da skaliert aber jenseits der 8 Kerne so gut wie nichts mehr. Selbst mit 6 Kernen ist man da noch gut aufgestellt.

Crazy_Chris
2023-07-12, 09:59:58
Bist du dir sicher? Laut Igor liegt der bei den 1% Low FPS @1440p nur auf 7950X Niveau und ist langsamer als ein 13600K. :eek:

Das würde mir jedenfalls nicht mal mehr für Minesweeper reichen. :freak:

dargo
2023-07-12, 10:02:54
[immy;13348390']Die Anno 1800 Spieler interessiert ST Performance schon. Allgemein ist die nach wie vor wichtig da nach wie vor die Hauptlast meist auf einem hauptthread liegt.

Sobald mehr als ein Core verwendet werden liegt kein SC-Boost mehr an. Selbst wenn es so wäre ist das sowas von wayne. Als ob 4550Mhz vs. bsw. 4350Mhz spürbar wären.

robbitop
2023-07-12, 10:38:37
Der 5800X3D hat sicherlich aufgrund der Kernleistung mittlereile seine Schwächen aber er schlägt sich nach wie vor gut, erst recht als günstiige Upgrade-CPU. Mit ner 4090 würd ich den aber auch nicht paaren, dazu hat er zuwenig Bumm, oder umgekehrt, das Teil hat unnötig hohe CPU-Last.
naja nur wenn man auf super high fps aus ist ist das ein schlechtes Paar. Überschüssige GPU Leistung lässt sich aber immer gut nutzen. RT, Auflösung, DSR. Für mich wäre das schon okay

Daredevil
2023-07-12, 11:26:30
Ich würde heute auch immer noch ne 4090 mit meinem OC 5600X paaren, weil 120fps mein Ziel sind und eher die GPU schlapp macht als die CPU. :)
Und ein X3D ist eine tolle Möglichkeit, von einem Pre Zen3 nochmal einen "Architekturchange großen" Sprung zu machen um nicht komplett in neue teure Mainboards und DDR5 zu laufen.
Ich würde sogar Nachwievor sagen, dass der 5600X3D das spannendere Produkt ist, da 8 Kerne eher seltener komplett ausgelastet werden in Spielen.
Schnelle 6 Kerne > langsame 8 Kerne > langsame 12 Kerne > langsame 16 Kerne

Wenn es mal fernab von Spielen geht, sind die X3D ja nur normale Zen3 Prozessoren mit weniger Takt, da kaum auf den Cache optimiert und somit ist das fernab von "Highend".
Da muss man natürlich zu Zen4 greifen, da kommt nix drum rum. Fürs Number crunchen taugt kein X3D, muss er aber auch nicht.

Exxtreme
2023-07-12, 11:35:12
Der 5800X3D hat sicherlich aufgrund der Kernleistung mittlereile seine Schwächen aber er schlägt sich nach wie vor gut, erst recht als günstiige Upgrade-CPU. Mit ner 4090 würd ich den aber auch nicht paaren, dazu hat er zuwenig Bumm, oder umgekehrt, das Teil hat unnötig hohe CPU-Last.

In UHD ist der 5800X3D mit einer RTX 4090 immer noch sehr sehr gut. Denn in UHD limitiert eher die Grafikkarte.

basix
2023-07-12, 13:08:40
Mit ner 4090 würd ich den aber auch nicht paaren, dazu hat er zuwenig Bumm, oder umgekehrt, das Teil hat unnötig hohe CPU-Last.

Sehe da kein Problem in 4K ;)

In UHD ist der 5800X3D mit einer RTX 4090 immer noch sehr sehr gut. Denn in UHD limitiert eher die Grafikkarte.
Genau

Gibt einige wenige Ausnahmen, aber die FPS sind in diesen Einzel-Situationen immer noch hoch genug.

Ex3cut3r
2023-07-12, 13:18:07
Halte ich für einen ziemlichen Trugschluss. Die 4090 ist zu "schnell" selbst für natives 4K Gaming, ist man da oft über 120 FPS/HZ. Mit einem Zen 3 ist man, in Jedi Survior, Resident Evil 4 (Dorf Szene) Spiderman und Miles Morales, Hogwarts eigentlich in fast jedem UE4/UE5 Titel sehr schnell CPU limitiert.

Mit DLSS Q definitiv, weil wir dann von 165FPS+ @ "4k" reden. RT sorgt auch sehr oft eher für eine zusätzliche CPU Last. Das "gute" ist vlt. noch das es 4K Monitore oft nur mit 120HZ/144 gibt, 4K mit 240HZ (Samsung G9 Neo) ist ja eher noch eine Randerscheinung, sodass es oft gerade noch passt in seit 117FPS bzw. 141 FPS Limit zu erreichen. DLSS 3 kann helfen, wenn verfügbar.

Kann für DLSS noch die DLSS Mod empfehlen, mit der man DLAA in jedem Spiel freischalten kann, für mich sieht Q und DLAA besser aus als jedes TAA. In 4K @ 27-31.5"

dargo
2023-07-12, 13:23:46
Gibt einige wenige Ausnahmen, aber die FPS sind in diesen Einzel-Situationen immer noch hoch genug.
Eben... zumal dieses "hoch genug" jeder Spieler anders definiert. Und wenn einem die fps hoch genug sind warum sollte man da wechseln? Aus Langerweile vielleicht... passiert mir manchmal auch im Winter. :freak:

Lehdro
2023-07-12, 13:53:21
Ich fühle mich mit einem 5800X3D + RTX 4090 tatsächlich mal öfter CPU limitiert. Das liegt aber nicht daran dass die 4090 "zu schnell" wäre, lol. Sondern die CPU ist einfach zu lahm. Ich spiele nicht einmal irgendwelche UE Titel, die jucken mich meist eh nicht.

Aber mit einem 1440p/240 Hz Monitor rennt man doch in diversen Spielen hart ins CPU Limit (Darktide, CP2077 ohne SMT Fix, TW:WH3, Black Desert Online und NFS Unbound seien da als Beispiele aus meiner aktuellen Bibliothek genannt). Aber da ist mir auch völlig egal woher das CPU Limit stammt, ob von der CPU Arch, der Engine oder dem CPU Hunger des NV Treibers. Da hilft nur mehr Power - zur Beruhigung der Gemüter sei aber noch erwähnt dass das tatsächlich komplette Luxusprobleme sind, denn unspielbar ist da nix, sehr hohe FPS gibt es überall. Nur sieht man als Enthusiast eher das Potenzial, was noch verfügbar wäre - und weniger die üppige Leistung die man sowieso schon hat :D

Will sagen: Ich sehe meinen 5800X3D derzeit als schöne Ausrede Zen 4 X3D bis zu Zen 5 X3D zu überspringen, da ich mich mit den Plattformupgradekosten (nicht nur Geld, sondern auch Zeit und nötige Kompromisse) derzeit nicht wirklich anfreunden kann. Und gangbar wird die CPU noch einige Zeit bleiben, von daher kann man auch mal chillen. Diese CPU wird wohl, stand jetzt, Eine von Zweien in meiner 20+ Jahre Gamingzeit sein, die tatsächlich länger als zwei Jahre im Rechner verbleibt. Das hatte vorher nur der 2500k @ OC geschafft.

Daredevil
2023-07-12, 13:57:41
Kommt halt immer drauf an, welches Problem man lösen will.
In WQHD/240+ ist ein 7950X3D und ne 4080 vielleicht die bessere Wahl.
In UHD/120+ ist ein 5800X3D und ne 4090 eher die Lösung.

Du musst halt ab und an jetzt schauen, wie du auf deine FPS kommst in WQHD durch die CPU, ich muss ab und an mal schauen, wie ich in 4K auf meine FPS kommt mit der 3090. ^^
Unterschiedliche Probleme, unterschiedliche Lösungen, deswegen sind Pauschalaussagen auch recht schwer zu übernehmen, weil man erstmal schauen muss, was man überhaupt auf den Bildschirm zaubern soll.

basix
2023-07-12, 14:04:16
Aber mit einem 1440p/240 Hz Monitor rennt man doch in diversen Spielen hart ins CPU Limit

240Hz erreicht man auch mit den allerschnellsten CPUs nicht in allen Spielen. Insbesondere inkl. RT. Und ob es 120fps oder 150fps sind, macht meistens keinen riesigen Unterschied.

Ja, es gibt Situationen wo die CPU limitiert. Aber das fällt eigentlich nie in unspielbare Bereiche. Mit VRR sind 80-100fps in vielen Spielen genug. Und ich rede hier nicht von Durchschnitts-FPS sondern besonders fordernden Szenen.

Das Upgrade lohnt sich momentan einfach nicht wegen in einzelnen Szenarien 20-30% mehr FPS, wenn man in den allermeisten Fällen bei >100fps sowie im GPU Limit unterwegs ist. Ich habe eh ein Cap bei 141fps. Bei 240fps als Target würde das natürlich anders aussehen ;)

Crazy_Chris
2023-07-12, 14:09:21
Ich glaube wenn ich eine 4090 hätte dann würde ich auf der CPU Seite auch keine Kompromisse machen. Auf die paar Euro kommt es da dann sicher nicht mehr an.


Ich erfreue mich an den 5800X3D u.a. auch deshalb weil er meine inzwischen 6 Jahre alte Gamingplattform mehr als passabel am Leben hält. Sowas gabs seit Sockel 7 nicht mehr und mich macht das Glücklich. :ulove4:

The_Invisible
2023-07-12, 14:12:22
Generell ist eine CPU/GPU nie zu schnell, kommt einfach drauf an was zuerst limitiert. Zumindest in Anno1800 ist es aber so extrem CPU limitiert das man umsonst hohe DSR Stufen fahren kann, selbst von Uhd ausgehend. City skylines ebenso

Langlay
2023-07-12, 14:29:15
Ich glaube wenn ich eine 4090 hätte dann würde ich auf der CPU Seite auch keine Kompromisse machen. Auf die paar Euro kommt es da dann sicher nicht mehr an.


Also mir sind ne 25% schnellere CPU keine 800€ für den Plattformwechsel wert. Da muss dann schon mehr kommen. Allerdings das die AM5 ITX Boards alle nicht so richtig geil sind hilft natürlich auch nicht unbedingt.

Im Zweifel spiele ich halt in 5120x2160, da gibts dann auch mit dem 5800X3D kein CPU Limit mehr in den Spielen die ich so spiele.

dargo
2023-07-12, 14:44:56
Ich fühle mich mit einem 5800X3D + RTX 4090 tatsächlich mal öfter CPU limitiert. Das liegt aber nicht daran dass die 4090 "zu schnell" wäre, lol. Sondern die CPU ist einfach zu lahm. Ich spiele nicht einmal irgendwelche UE Titel, die jucken mich meist eh nicht.

Aber mit einem 1440p/240 Hz Monitor rennt man doch in diversen Spielen hart ins CPU Limit (Darktide, CP2077 ohne SMT Fix, TW:WH3, Black Desert Online und NFS Unbound seien da als Beispiele aus meiner aktuellen Bibliothek genannt). Aber da ist mir auch völlig egal woher das CPU Limit stammt, ob von der CPU Arch, der Engine oder dem CPU Hunger des NV Treibers. Da hilft nur mehr Power - zur Beruhigung der Gemüter sei aber noch erwähnt dass das tatsächlich komplette Luxusprobleme sind, denn unspielbar ist da nix, sehr hohe FPS gibt es überall. Nur sieht man als Enthusiast eher das Potenzial, was noch verfügbar wäre - und weniger die üppige Leistung die man sowieso schon hat :D

Will sagen: Ich sehe meinen 5800X3D derzeit als schöne Ausrede Zen 4 X3D bis zu Zen 5 X3D zu überspringen, da ich mich mit den Plattformupgradekosten (nicht nur Geld, sondern auch Zeit und nötige Kompromisse) derzeit nicht wirklich anfreunden kann. Und gangbar wird die CPU noch einige Zeit bleiben, von daher kann man auch mal chillen. Diese CPU wird wohl, stand jetzt, Eine von Zweien in meiner 20+ Jahre Gamingzeit sein, die tatsächlich länger als zwei Jahre im Rechner verbleibt. Das hatte vorher nur der 2500k @ OC geschafft.
Das ist doch ein prima Beispiel dafür, dass das "Problem" gar keins ist ansonsten hättest du schon Geld in eine schnellere Basis investiert. Du selbst siehst noch nicht den für dich akzeptablen Mehrwert in einem Zen 4 X3D oder vergleichbares von Intel.

Ex3cut3r
2023-07-12, 14:45:14
Ich fühle mich mit einem 5800X3D + RTX 4090 tatsächlich mal öfter CPU limitiert. Das liegt aber nicht daran dass die 4090 "zu schnell" wäre, lol. Sondern die CPU ist einfach zu lahm.

Ja doch. Wenn die 4090 nicht so schnell wäre, wirst du auch mit dem Zen 3 3D nicht im CPU Limit, kann man auch andersrum sehen. lol

Ein Zen 3 mit Cache oder ohne halte ich persönlich nicht für den optimalen Partner für eine 4090. Für natives 4K gehts noch. Mit DLSS Q wird es schon kritisch. Und natives 1440p heißt eigentlich CPU Limit, immer.

Lehdro
2023-07-12, 14:50:56
Das ist doch ein prima Beispiel dafür, dass das "Problem" gar keins ist ansonsten hättest du schon Geld in eine schnellere Basis investiert. Du selbst siehst noch nicht den für dich akzeptablen Mehrwert in einem Zen 4 X3D oder vergleichbares von Intel.
Korrekt. Es ist ein Luxusproblem wie ich schrieb, kann man also gut ignorieren. Ist mehr Kopfsache als alles andere. Von daher verstehe ich das Geseier über die "Luftpumpe" X3D hier nicht - von beiden Seiten, wohlgemerkt.

Langlay
2023-07-12, 14:51:17
Ein Zen 3 mit Cache oder ohne halte ich persönlich nicht für den optimalen Partner für eine 4090.

Ist er sicherlich auch nicht. Aber überdimensionierte GPU ist halt überdimensionerter CPU vorzuziehen.

Ich spiele lieber auf einem Ryzen 3600 mit na 4090 als auf einem 13900KS mit na 3060.

Ex3cut3r
2023-07-12, 15:08:32
War kein Angriff, kann natürlich jeder so machen, wie er will.

Thunder99
2023-07-12, 18:38:21
Der 5800X3D bleibt eine der besten CPU auf AM4 für Spieler wenn man nicht die überteuerte und teilweise sinnlose AM5 Plattform upgraden möchte.

R5 3600 -> 5800X3D bester move seit langem. 1080Ti -> 4080 ebenso! Es muss nicht 144FPS+ sein sondern genug um flüssig zu sein. Keine MP-Shoter hier :wink:

System siehe SIG sehe ich als ausgewogen an :)

Ex3cut3r
2023-07-12, 19:39:45
Jop Gute Config. :up:

Mit FG hast du auch etwas fürs CPU Limit in der Hinterhand.

Döner-Ente
2023-07-13, 10:59:26
Der 5800X3D bleibt eine der besten CPU auf AM4 für Spieler [...]


Das da. Ich verstehe die ganze Diskussion nicht. Wer jetzt neu kauft, kauft nicht mehr AM4. Wer nochmal aufrüsten will, für den ist das die beste Option.
Wer überlegt, ob er komplett neu kaufen oder nur aufrüsten will, muss eben selber wissen, was ihm wie viel Euro wert ist.
Und wer sich ne 4090 kauft und Wert drauf legt, dass die so oft wie möglich an ihrer Leistungsgrenze klebt, muss halt eben auch an anderen Stellen Geld in die Hand nehmen.

Exxtreme
2023-07-13, 11:14:20
Und wer sich ne 4090 kauft und Wert drauf legt, dass die so oft wie möglich an ihrer Leistungsgrenze klebt, muss halt eben auch an anderen Stellen Geld in die Hand nehmen.

Wobe ein 5800X3D auch eine RTX 4090 in UHD weiterhin sehr gut auslasten kann. Sprich, das Ding ist immer noch eine sehr gute Aufrüstoption.

Ätznatron
2023-07-13, 16:16:02
Wobe ein 5800X3D auch eine RTX 4090 in UHD weiterhin sehr gut auslasten kann. Sprich, das Ding ist immer noch eine sehr gute Aufrüstoption.

Sagen wir mal so: Meine 4080 kommt in VR an ihre Grenzen, mein 5800 X3D nicht.

grobi
2023-07-13, 16:58:00
Habe einen 5800X und habe schon eine weile überlegt auf den X3D zu wechseln. Aber das lohnt sich wohl nicht für mich.

Langlay
2023-07-13, 17:54:46
Habe einen 5800X und habe schon eine weile überlegt auf den X3D zu wechseln. Aber das lohnt sich wohl nicht für mich.

Wenn du nicht gerade Flightsimulator oder sowas den ganzen Tag zockst, kann man sowas machen wenn das Geld locker sitzt. Aber man kanns auch sein lassen.

dargo
2023-07-13, 18:01:34
Habe einen 5800X und habe schon eine weile überlegt auf den X3D zu wechseln. Aber das lohnt sich wohl nicht für mich.
Hängt vom Aufpreis ab. Mich hatte der Wechsel damals 130€ gekostet, also eher Kleingeld. Nötig war das gewiss nicht, eher Spaßkauf um AM4 weiter zu dehnen.

Crazy_Chris
2023-07-13, 18:25:49
Bei mir war der Sprung vom Ryzen 1700 etwas größer. ;D

Thunder99
2023-07-13, 19:07:08
Das sind in der Tag Welten ;D

robbitop
2023-07-13, 19:41:19
Das dürfte je nach Spiel grob Faktor 2 gewesen sein. Und das innerhalb einer einzigen Plattform. :up:
Ein geunlockter 5950x3d als Abschiedsprodukt wäre auch geil.

Döner-Ente
2023-07-13, 20:16:24
Hier vom 2600 zum 5800X3D war das in Spielen, wo der Prozessor vorher teilweise ein derber Flaschenhals war, teilweise je nach Einstellungen auch Faktor 2 oder mehr.

=Floi=
2023-07-14, 03:00:19
bei besserer effizienz!
Ich kann mit dem takt leben, dafür sind die fps/watt wahnsinn.

sChRaNzA
2023-07-14, 14:54:20
Also ich kann mich über meinen Upgrade-Pfad jetzt auch nicht beschweren. Gerade bei Star Citizen gab das Ding shcon einen ordentlichen ''Boost''. Vom 2600x auf 3800XT auf 5800X3D. Passt schon.

Nur die Temperaturen waren am Anfang etwas komisch zu sehen, aber solange es zu keinem Thermal Throttling kommt, sind diese mir mittlerweile recht egal.

Raff
2023-08-03, 22:06:21
Alle paar Monate kommt wieder so ein Knaller - nicht nur das Spiel, sondern auch die Skalierung mit dem Cache: https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/#a2

Erste Benchmarks aus Baldur's Gate 3 (Final). +46 Prozent von 5800X auf 5800X3D. ;D :up:

MfG
Raff

hq-hq
2023-08-03, 22:13:32
okay, ab und zu haut er noch einen raus :freak: ... nur bleibt der Eindruck bestehen wenn mehr neuere CPUs in die Grafik einfliessen ? :biggrin:

Raff
2023-08-03, 22:17:54
Das werden wir morgen Vormittag sehen. :D Wird sicher in den Top 10, vielleicht sogar Top 5 bleiben, der X3D.

MfG
Raff

ChaosTM
2023-08-03, 22:37:16
Bin froh den noch mitgenommen zu haben am alten AM4 Brett. Eigentlich speziell für den Flight Simulator.

Döner-Ente
2023-08-03, 22:45:29
Bin froh den noch mitgenommen zu haben am alten AM4 Brett.

Dito. Besser konnte man der alten Plattform nicht noch ein weiteres Leben für hoffentlich einige Jahre schenken und je nachdem, von wo man kam, war der Leistungssprung exorbitant. Müsst echt lange zurückdenken, wann oder ob mir jemals ein einziges Hardware-Upgrade überhaupt so viel mehr Leistung beschert hat.

Hatstick
2023-08-04, 09:46:24
Bei mir werkelt der 3D nun seid ca. acht Monaten im PC, bin von einem 3600X gewechselt und ja, gerade auch die 6800XT konnte noch mal unglaublich zulegen mit der neuen CPU. War doch arg ausgebremst mit dem kleinen 3600X.
Irgendwie ist der 5800X3D echt zu schnell für AM4, ca. 10% über einem 7700X mit DDR-5 finde ich schon mehr als bemerkenswert für einen ollen AM4 Prozzi mit DDR4 Speicher. :biggrin:

robbitop
2023-08-04, 13:15:06
Theoretisch wäre noch mehr drin. ^^ Ein geunlockter 5950X3D zB (idealerweise mit 2x VCache Dies). Mit guten dice könnte der sicherlich auch ~4,8 GHz anpeilen und halt nochmal richtig drauflegen in Punkto MT Leistung.

Raff
2023-08-04, 22:32:44
Mittlerweile sind auch die aktuellen X3D-CPUs enthalten: https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/

Bestenfalls 25 Prozent mehr als beim 5800X3D. Intel landet hier keinen Stich, was man in dieser Ausprägung nicht oft sieht. Cache als "Game Changer".

MfG
Raff

exzentrik
2023-08-05, 15:06:31
In welcher Auflösung wurden die CPU-Benchmarks erstellt? Steht weder in der Tabelle noch im Artikeltext, falls ich's richtig sehe.

ChaosTM
2023-08-05, 15:08:07
Mittlerweile sind auch die aktuellen X3D-CPUs enthalten: https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/

Bestenfalls 25 Prozent mehr als beim 5800X3D. Intel landet hier keinen Stich, was man in dieser Ausprägung nicht oft sieht. Cache als "Game Changer".

MfG
Raff


Erinnert sehr stark an die FS2020 Werte. Das war für mich der Kaufgrund für den 3D

M4xw0lf
2023-08-05, 15:37:48
In welcher Auflösung wurden die CPU-Benchmarks erstellt? Steht weder in der Tabelle noch im Artikeltext, falls ich's richtig sehe.

Normalerweise 720p, eventuell real noch weniger falls upsampling dabei im Spiel war.

Raff
2023-08-05, 23:09:06
In welcher Auflösung wurden die CPU-Benchmarks erstellt? Steht weder in der Tabelle noch im Artikeltext, falls ich's richtig sehe.

"CPU-Tests in 1.280 × 720 sind falsch!" - stimmt, optimal wären Tests in 16 × 9 Pixel - Ein Kommentar (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/) :)

MfG
Raff

Exxtreme
2023-08-05, 23:10:56
Eigentlich müsste man CPU-Tests in 320x240 machen.

ChaosTM
2023-08-05, 23:34:09
Alles unter 1080p ist idiotisch, Jesus

Mordekai2009
2023-08-05, 23:39:39
^ Nein, ist es nicht. :D

Exxtreme
2023-08-05, 23:44:36
Alles unter 1080p ist idiotisch, Jesus

Willst du bei CPU-Test die GPU mittesten?

ChaosTM
2023-08-05, 23:47:33
C`mon .. stellt euch nicht dümmer als es seit.
Wer reine CPU Tests will nimmt was anderes.
Siehe Raff..

add.: Intel verliert manchmal ziemlich krass und das tut manchen weh.. get over it !
@ R&C liegt Intel um 15-20% vorne und niemand beschwert sich

BlacKi
2023-08-06, 01:02:01
Siehe Raff..


optimal wären Tests in 16 × 9 Pixel (https://www.pcgameshardware.de/CPU-CPU-154106/News/Prozessor-Benchmarks-Aufloesung-1295967/)




siehe raff XD

ChaosTM
2023-08-06, 01:08:50
ok, wir testen in 720p und "testen die GPU nicht mit".

Jesus.. meine Kopfschmerzen nehmen zu.

BlacKi
2023-08-06, 01:27:06
es gibt nur eine annäherung. es gibt nicht die perfekte methode. aber 720p sagt im cpu limit mehr aus als alle anderen auflösungen die teilweiße im gpu limit sind.

exzentrik
2023-08-06, 19:05:07
Ich verstehe schon, dass in 720p getestet wird, und würde auch Raffs verlinkten Kommentar absolut unterschreiben. Dennoch würde ich mir zusätzliche Tests in gängigen Auflösungen wünschen. So könnte man sehen, ob sich zum Beispiel ein Wechsel vom 3700X auf den 5800X3D wirklich lohnen würde, wenn man in WQHD oder gar 4K spielt. Die hohen Abstände der verschiedenen Prozessoren in 720p schrumpfen in den klassischen Gaming-Auflösungen ja meist auf ein Minimum zusammen. Oder anders ausgedrückt: Welche Praxisrelevanz hat es, wenn eine CPU in 720p 80 Prozent voraus ist? In WQHD oder 4K bleibt davon (im Schnitt) eh nicht viel übrig. Für eine Entscheidung pro oder kontra Upgrade 3700X -> 5800X3D haben diese Ergebnisse jedenfalls wenig Aussagekraft. Mir ist natürlich klar, dass das den Testaufwand exorbitant erhöhen würde und auch so schon nicht genug Zeit oder Ressourcen da sind.

M4xw0lf
2023-08-06, 19:46:09
Ich verstehe schon, dass in 720p getestet wird, und würde auch Raffs verlinkten Kommentar absolut unterschreiben. Dennoch würde ich mir zusätzliche Tests in gängigen Auflösungen wünschen. So könnte man sehen, ob sich zum Beispiel ein Wechsel vom 3700X auf den 5800X3D wirklich lohnen würde, wenn man in WQHD oder gar 4K spielt. Die hohen Abstände der verschiedenen Prozessoren in 720p schrumpfen in den klassischen Gaming-Auflösungen ja meist auf ein Minimum zusammen. Oder anders ausgedrückt: Welche Praxisrelevanz hat es, wenn eine CPU in 720p 80 Prozent voraus ist? In WQHD oder 4K bleibt davon (im Schnitt) eh nicht viel übrig. Für eine Entscheidung pro oder kontra Upgrade 3700X -> 5800X3D haben diese Ergebnisse jedenfalls wenig Aussagekraft. Mir ist natürlich klar, dass das den Testaufwand exorbitant erhöhen würde und auch so schon nicht genug Zeit oder Ressourcen da sind.

Dann schaust du auf GPU-Benchmarks und schaust welche Zahl niedriger ist - CPU oder GPU Output, und dann weißt du welches Teil für dich der limitierende Faktor ist. Alles andere ist nicht mehr sondern weniger Information.

Der_Korken
2023-08-06, 20:28:37
Dann schaust du auf GPU-Benchmarks und schaust welche Zahl niedriger ist - CPU oder GPU Output, und dann weißt du welches Teil für dich der limitierende Faktor ist. Alles andere ist nicht mehr sondern weniger Information.

So ist es.

Was ein CPU-Benchmark beantwortet: Welche CPU ist wie schnell, wenn nichts anderes limitiert?

Was ein CPU-Benchmark nicht beantwortet: Ich habe Grafikkarte X in meinem PC, welche CPU ist wie viel schneller als meine aktuelle CPU y?

Es gibt so viele verschiedene GPUs und Games, dass keine Auflösung einen sinnvollen Querschnitt darstellen für mögliche CPU-Upgrades. Was nützt es mir, wenn ich statt 720p dann 1440p-Benches angucke, weil mein Monitor diese Auflösung hat? Das Testsystem hat immer noch eine 4090 drin, die ich aber nicht habe. Wenn dort z.B. der 5800X3D 50% schneller als mein 3600 ist, kann ich das trotzdem nicht auf meine Situation übertragen, weil ich eine andere Graka habe und andere Games zocke als im Test. Wenn ein Tester mehrere Auflösungen testen, um "Praxisnähe" abzubilden, müsste er auch jede CPU mit jeder Graka testen. Völlig irrsinniger Aufwand, denn alle Infos stecken bereits im 720p-Benchmark drin, wenn ich zusätzlich noch einen reinen GPU-Bench dazunehme (dort wird nur die schnellste CPU als Basis genommen).

Thunder99
2023-08-06, 22:31:50
Ein CPU Test sagt aus wie viel schneller X gegenüber Y schneller ist wenn die CPU limitiert.
Man muss das nur noch übertragen auf die eigene Situation. Langt die CPU für die mindest FPS oder nicht?

Würde das daher nicht so kritisch sehen sondern die Informationen mitnehmen die so ein Test liefert.

exzentrik
2023-08-07, 14:04:23
Leuchtet ein. Danke euch für das Feedback!

Ist denn hier jemand, der primär in WQHD zockt, von einem 3700X auf einen 5800X3D gewechselt und kann vielleicht mitteilen, ob das Upgrade lohnenswert ist? Bisher kann ich hier mit 6800 XT und teils unter Zuhilfenahme von FSR 2 (bzw. FSR-2-Mod) noch gefühlt 99 Prozent aller Games flüssig auf maximaler Detailstufe spielen. Für 2024 plane ich grob ein Graka-Upgrade. Und da wäre spätestens die Frage, ob sich ein 5800X3D dann auszahlen würde oder ich besser gleich zusätzlich ein Upgrade auf eine dann aktuelle X3D-CPU evaluiere.

Hatstick
2023-08-07, 14:24:46
Ich spiele in WQHD, bin mit einer 6800XT von einem Ryzen 3600X auf einen 5800X3D gewechselt (und dabei gleich von einem 75Hz Monitor auf einen 165Hz) gewechselt, was ja gerade dann auch noch mal die CPU deutlich mehr fordert aber schon im Euro Truck Simulator 2 als Beispiel, hat mein 3600X in größeren Citys noch nicht mal mehr 75FPS gehalten (mit dem alten 75Hz Monitor), während des mit dem 5800X3D quasi immer mit der Tagert FPS von 115fps läuft.
Wenn die FPS dann doch mal droppen, dann liege ich definitiv im GPU Limit und grundsätzlich halte ich die Kombo 3700X und eine 6800Xt für nicht mehr homogen.
Das habe ich auch an anderer Stelle gemerkt, gerade im GPU Limit kam mit dem 3600X die 6800XT nicht mehr wirklich aus dem Tritt und erst mit dem 5800X3D hat sie nicht nur gefühlt die volle Leistung gefahren.

Also der Wechsel vom 3700X auf den 5800X3D alleine wird ein sehr großer Unterscheid sein, den du sowohl im reinen CPU Limit, als auch im GPU Limit merken wirst, da die 6800XT erst dann wirklich die komplette Leistung zeigen kann.
Und dabei habe ich nicht wirklich geschaut, ob es speziell am 3D Cache liegt. Selbst der Wechsel zu einem 5700X wirst du deutlich merken, gerade auch mit der 6800XT, weil der Sprung perse ja dort schon "relativ" groß war von der 3000er auf die 5000er Gen.

][immy
2023-08-07, 14:41:14
Leuchtet ein. Danke euch für das Feedback!

Ist denn hier jemand, der primär in WQHD zockt, von einem 3700X auf einen 5800X3D gewechselt und kann vielleicht mitteilen, ob das Upgrade lohnenswert ist? Bisher kann ich hier mit 6800 XT und teils unter Zuhilfenahme von FSR 2 (bzw. FSR-2-Mod) noch gefühlt 99 Prozent aller Games flüssig auf maximaler Detailstufe spielen. Für 2024 plane ich grob ein Graka-Upgrade. Und da wäre spätestens die Frage, ob sich ein 5800X3D dann auszahlen würde oder ich besser gleich zusätzlich ein Upgrade auf eine dann aktuelle X3D-CPU evaluiere.

Ich habe genau den Wechsel hinter mir. Begrenze die FPS jedoch immer auf 60. Hier hat die CPU den riesen Vorteil, das sie relativ häufig inaktiv sein kann und der Verbrauch stark absinkt. Zudem ist dadurch eine sehr ruhige Luftkühlung möglich.
Dadurch wird aber nichts spielbar, was mit der alten CPU nicht auch schon gut spielbar war. Es ist eher ein reines Komfortupdate.
Dann gibt es natürlich noch so größere Unterschiede in Titeln wie Anno 1800, aber das ist wohl eher zen3 was hier die Steigerung bringt.

Thunder99
2023-08-08, 10:21:31
Alleine schon, dass durch den X3D die AM4 Plattform weiter genutzt werden kann ist ein riesen Vorteil. Günstiger kann man nicht mehr FPS generieren :).
AM5 finde ich zu teuer für die Leistung die es bietet. Wenn man nicht sowieso das Mainboard tauschen möchte bringt es einen effektiv wenig.

Früher war der 3600 Preis-Leistungs Tipp. Heute ist es der X3D ggf. Noch der 5700X).

IceKillFX57
2023-08-08, 11:37:28
Ich bin gerade mit gefühlt 60kb/s oder so unterwegs... Da ist 3dcenter, die einzige Seite die funktioniert.

Wie schlägt sich eig. Der 5800X3D zum 5800X in UT2003 im Softwarerenderer?

The_Invisible
2023-08-08, 12:29:13
Gibts eigentlich irgendwo LateGame Benchmarks von Anno1800 bzw Cities Skylines zwischen den CPUs?

Wird zwar manchmal gebencht aber dann meist mit hohen >60fps die man später nicht mehr hat, ka ob man da nur das Startgebiet bencht. Krebse da jedenfalls mit 20-30fps herum, wär interessant was in diesen fps Regionen zb ein Upgrade auf den x3d bzw neuen CPUs bringt.

Crazy_Chris
2023-08-08, 12:56:58
PCGH hat einen Test. Ist zwar auch nicht gerade die größte Stadt in Anno 1800 aber immerhin:

https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Anno-1800-Benchmark-Review-Prozessor-Grafikkarte-1398034/2/

Da Cities Skylines 2 bald vor der Tür steht interessiert der erste Teil doch eh nicht mehr, oder? :wink:

VoiD
2023-08-18, 20:07:55
Sodele, habe mir jetzt doch noch den x3d gegönnt.
Läuft soweit, PBO-Tuner läuft, 14600 Punkte in CB23, 80°C bei 4300MHz allcore.
CoreCycler steht noch aus.
Allerdings werde ich den Scythe Muggen noch mit dem zweiten Lüfter ausrüsten.
Momentan reicht´s für heute.

dargo
2023-08-18, 20:49:29
Kannst du dir sparen, wird dir kaum was bringen bei der hohen Wärmekonzentration auf sehr kleinen Fläche vom Chiplet.

The_Invisible
2023-08-18, 21:06:56
PCGH hat einen Test. Ist zwar auch nicht gerade die größte Stadt in Anno 1800 aber immerhin:

https://www.pcgameshardware.de/Anno-1800-Spiel-61247/Specials/Anno-1800-Benchmark-Review-Prozessor-Grafikkarte-1398034/2/

Da Cities Skylines 2 bald vor der Tür steht interessiert der erste Teil doch eh nicht mehr, oder? :wink:

Jo, den PCGH Bench kenn ich, von solchen fps träumt man aber später ; )

Haste recht, wobei CS2 hier wohl auch ein CPU-Biest werden wird, ich hoffe mal das sie hier endlich auf mehr Kerne optimieren.

pnume
2023-08-18, 22:34:25
Sodele, habe mir jetzt doch noch den x3d gegönnt.
Läuft soweit, PBO-Tuner läuft, 14600 Punkte in CB23, 80°C bei 4300MHz allcore.
CoreCycler steht noch aus.
Allerdings werde ich den Scythe Muggen noch mit dem zweiten Lüfter ausrüsten.
Momentan reicht´s für heute.
Mugen und 80C°, wie geht das denn?

Thunder99
2023-08-18, 22:41:22
Normal. Kleine Fläche heizt einfach extrem. Kommt kein Kühler auf gute Temps.

Anstelle PBO Tuner nimm lieber (Up to) CO-30. Ist ein leichtes UV was aber mehr Speed bringt da mehr Takt im Power Budget herumkommt. Je nach Board heißt es etwas anders aber ist sehr zu empfehlen.

pnume
2023-08-18, 22:51:46
Aber 80°C sind nicht mit nem Mugen drin, ausser ohne Heatspreder, oder eine Klima direkt angeschlossen.

Hab selbst nen Mugen5 und die Werte sind utopisch

ChaosTM
2023-08-18, 22:52:12
Der 5800X3D sauft zumindest deutlich weniger Strom als der "alte" 5900X.
Die Temperatur ist aber ziemlich gleich trotz dickem Noctua Kühler.

VoiD
2023-08-18, 23:16:34
Dochdoch, das geht schon:

https://i.postimg.cc/9Q0TXpg9/pbo2.jpg

Eventuell werde ich noch mal etwas Paste auftragen.

dargo
2023-08-19, 15:44:32
Aber 80°C sind nicht mit nem Mugen drin, ausser ohne Heatspreder, oder eine Klima direkt angeschlossen.

Hab selbst nen Mugen5 und die Werte sind utopisch
Da wird es sicherlich einige Streuungen geben. Gabs beim 5800X auch schon, selbst erlebt. Gleiche CPU mit Defaultsettings und trotzdem 6-7°C Delta drin zwischen zwei 5800X.

sChRaNzA
2023-08-20, 11:29:53
Da wird es sicherlich einige Streuungen geben. Gabs beim 5800X auch schon, selbst erlebt. Gleiche CPU mit Defaultsettings und trotzdem 6-7°C Delta drin zwischen zwei 5800X.

Jepp. Schon öfter Leute gelesen, die teils ohne UV (etc) mit einem Mugen auf 80°C kommen wollen. Bei mir klebte der X3D fast instant an den 90°C und mit dem Be Quiet! Dark Rock Pro 4 ist das nur unwesentlich besser geworden.

Kann man sich echt sparen das Geld.

Thunder99
2023-08-20, 13:18:06
80°C ist unproblematisch. Hab bei mir die Lüftersteuerung so eingestellt, dass diese erst über 50% geht wenn es 85°C und mehr hat.
Kühler Mugen 3.

horn 12
2023-08-20, 15:55:59
Im AMD Overlay Tool wird die CPU Temperatur auch ausgelsen und jene ist unter Games! bei mir mit Mugen 3 - PCGH Version aber dennoch auch nur ein Lüfter montiert aus Platzproblemem!
so immer bei 79 bis 84 Grad,- mit PCO Tuner um knappe 5 Grad darunter!
Bin da meistens bei 80 Grad.

ianm
2023-08-24, 16:34:21
Hat jemand von euch ein anderes Boost Verhalten mit den neuen Chipsatztreibern festgestellt? Beim Starten von Spielen geht die Temperatur und Stromverbrauch nun massiv nach oben und pendelt sich nach kurzer Zeit wieder auf ein gewohntes Niveau ein.

Hier mit Kombo Strike 3.

][immy
2023-08-24, 17:15:42
Jepp. Schon öfter Leute gelesen, die teils ohne UV (etc) mit einem Mugen auf 80°C kommen wollen. Bei mir klebte der X3D fast instant an den 90°C und mit dem Be Quiet! Dark Rock Pro 4 ist das nur unwesentlich besser geworden.

Kann man sich echt sparen das Geld.

Hab nach wie vor meinen cooler master hyper 212 Evo, den ich schon beim core i5 hatte und dank "umbauset" auch auf dem Ryzen nutzen kann. Temp mäßig tut sich da eigentlich so gut wie nichts, einzig die Lautstärke macht Ben Unterschied zu neuen Modellen. 90° erreicht mein x3d zumindest nicht laut der Tools, von der 8x bekommt man ihn unter Last aber auch nicht weg.

wolik
2023-08-25, 22:28:47
Lohnt sich bei 5800X3D ein Wechsel von (RAM) 3600 auf 4400?

PS: https://forums.tomshardware.com/threads/best-ddr4-ram-memory-update-for-5800x3d.3811627/

Lehdro
2023-08-25, 22:57:11
Lohnt sich bei 5800X3D ein Wechsel von (RAM) 3600 auf 4400?

PS: https://forums.tomshardware.com/threads/best-ddr4-ram-memory-update-for-5800x3d.3811627/
Nein, weil du dann nicht mehr synchron zum IF fährst. Du verlierst mehr Leistung als du gewinnst. Es sei denn du brauchst keine Latenz, sondern nur Bandbreite. Aber dann ist der X3D eh die falsche CPU für dich.

Raff
2023-09-01, 13:05:47
In Starfield bringt der Cache leider nur wenig: https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

MfG
Raff

M4xw0lf
2023-09-01, 13:21:40
In Starfield bringt der Cache leider nur wenig: https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

MfG
Raff

Naja, +14/16/17% avg/P1/P0.2 sind doch nicht zu verachten und ziemlich genau der Durchschnitt für das zu erwartende Performanceplus.

dildo4u
2023-09-01, 13:24:14
Eins der ersten Games was für die aktuellen Konsolen gebaut es macht dort Sinn drauf zu achten das es mit Wenig Cache gut läuft kann sein das die APU hier besser als sonst laufen.

ChaosTM
2023-09-01, 13:37:39
Naja, +14/16/17% avg/P1/P0.2 sind doch nicht zu verachten und ziemlich genau der Durchschnitt für das zu erwartende Performanceplus.


Der Prozessor selbst ja. Minimal schnellerer Speicher bringt wohl nix.


Das war Woliks Frage.

M4xw0lf
2023-09-01, 13:41:58
Das war Woliks Frage.
... auf die ich in keiner Weise Bezug nehme ;)

Achill
2023-09-01, 14:13:51
Lohnt sich bei 5800X3D ein Wechsel von (RAM) 3600 auf 4400?

PS: https://forums.tomshardware.com/threads/best-ddr4-ram-memory-update-for-5800x3d.3811627/

Wir hatten das doch schon mal wo anders im AM4 CPU Thread hier. Mit sehr hoher Wahrscheinlichkeit gehen auf AM4 keine RAM mit 4000/4200 oder gar 4400 MHz. Einfach von der Idee verabschieden ... 3800 können schaffbar sein, i.d.R. mit 2 Riegeln oder relativ save 3600 mit 4 Riegeln. Kommt dann immer noch drauf an ob single oder dual rank RAM.

Wenn man wirklich schnelleren RAM will dann muss man halt auf eine neue Plattform wie AM5 und dann den 7800X3D nehmen ...

Ansonsten gab es z.B. von PCGH ein Test der zwischen 3D und Non-3D Ryzen, der gezeigt hat, dass wenn ein Spiel mit schnellen RAM skalierten, dann läuft der 3D schon schnell wegen seiner Cache. Mit schnelleren RAM kann dieser ~1/2 der Steigerung von einen Non-3D durch schnelleren RAM schaffen. Und zum Schluss nochmal der wichtige Hinweis, der 5800X3D ist schnell TPD und thermisch Limitiert. Für einen hohen IF muss man die Spannungen erhöhen die eben zu mehr Verbrauch und Wärme führt, ohne gute Kühlung kann man dann Boost verlieren ...

dargo
2023-09-01, 14:37:51
Eins der ersten Games was für die aktuellen Konsolen gebaut es macht dort Sinn drauf zu achten das es mit Wenig Cache gut läuft kann sein das die APU hier besser als sonst laufen.
Lol... deine Schlussfolgerungen sind immer einen Lacher wert. ;D Konsole ist so nah an Hardware, dass dort nur bang for buck zählt und nicht solche Spielereien wie Größe der Caches einer CPU am Desktop.

dildo4u
2023-09-01, 14:45:53
Fands nur auffällig das alle anderen PC CPU so schlecht performen gegen den 3700X, Intel und Zen 3 laufen normalerweise deutlich besser vs Zen2.

Lehdro
2023-09-01, 15:11:56
Selbst ein kleiner RPL haut Zen 3 X3D weg, Zen 3 setzt sich nur minimal von Zen 2 ab und RKL erlebt seinen späten Frühling gegen CML. Derweil macht Zen+ einfach mal CFL(-R) nass. Komplett verrückt.

Der_Korken
2023-09-01, 16:17:50
Irgendwie sind die Starfield-Resultate sehr komisch. Das Spiel skaliert praktisch nicht über vier Kerne hinaus (siehe 3300X vs 3700X). Trotzdem ist ein 10900K deutlich schneller als 9900K, der wiederum aber nicht schneller als ein 8700K ist. Zen 3 legt gegenüber Zen 2 kaum zu, da das Spiel anscheinend wenig nach Cache giert und somit ist auch Zen 3 3D hier nicht so der Überflieger. Komischerweise legen 11900K und 12900K jeweils gegenüber ihren Vorgängern krass zu. Jetzt könnte man vermuten, dass es an der gestiegenen IPC bzw. Rechenleistung liegt. Das kann aber nicht sein, denn der 13900K ist absurde 40% schneller als ein 12900K, obwohl es nicht an der IPC, nicht an der Anzahl Kernen, nicht am größeren L3-Cache und eigentlich auch nicht am RAM liegen kann, denn DDR5 5600 vs 4400 sind "nur" 27% mehr Takt.

Per Ausschlussverfahren kann es nur am L2-Cache liegen :freak:
Rocket Lake ging von 256kB auf 512kB hoch, Alder Lake ging von 512kB auf 1,25MB hoch und Raptor Lake auf 2MB. Bei Zen 1, 2 und 3 ist der L2 gleich geblieben mit 512kB, aber da Skylake nur 256kB hat, liegt Zen 1(+) hier unüblicherweise vor den ganzen Coffee Lakes. Nach dem Schema müsste Zen 4 hier deutlich zulegen und auf 12900K-Level rauskommen, die 3D-Variante vielleicht noch ein wenig mehr.

Edit: Der gerade hinzugefügte 7700X ist schon mal eine Punktlandung bezüglich meiner Prognose :freak:

dildo4u
2023-09-01, 16:23:24
Hier 5800X3D mit 7900XTX dort ist auch bei 80fps Schluss der Treiber wirkt keine Wunder.


TAzBbs_Ya68

Lehdro
2023-09-01, 16:27:22
Per Ausschlussverfahren kann es nur am L2-Cache liegen :freak:
Klingt plausibler, als alles anderes, muss man schon sagen. :smile:

Der 12700k hat deutlich bessere Lows als der 12900k, aber beide haben absurd schlechte Lows, zumindest im Vergleich zu ihren avg. FPS. Da liegt Zen 3 gleichauf, trotz 20% geringeren avg. FPS. Das einzige was "normal" skaliert ist X3D vs. Vanilla Zen 3.

Bin echt gespannt was bei anderen Reviewern so rauskommt.

dargo
2023-09-01, 16:34:23
Fands nur auffällig das alle anderen PC CPU so schlecht performen gegen den 3700X, Intel und Zen 3 laufen normalerweise deutlich besser vs Zen2.
Einfach mal 6-12 Monate abwarten bis das Game fertig ist dann ergibt sich womöglich wieder ein anderes Bild. :D

Crazy_Chris
2023-09-01, 17:09:52
In Starfield bringt der Cache leider nur wenig: https://www.pcgameshardware.de/Starfield-Spiel-61756/Specials/cpu-benchmark-requirements-anforderungen-1428119/

MfG
Raff

Schon extrem wie der 5800X3D gerade durchgereicht wird. :eek:

Lurtz
2023-09-01, 17:18:09
Sagt aufkrawall doch schon lange ;)

dildo4u
2023-09-01, 17:24:47
12700k sieht auch kacke aus man sollte schon das vergleichen was Head to Head ging.
Scheint eher ein Ram Benchmark als was Anderes zu sein.

Langlay
2023-09-01, 17:34:39
Sagt aufkrawall doch schon lange ;)


Naja es war beim X3D schon immer Hit and Miss. Manches schmeckt ihm halt und anderes eher nicht so.

Starfield ist halt eher ein Miss. Baldurs Gate 3 war dafür ein Hit, da lässt der 5800X3D den 13900K hinter sich.

Crazy_Chris
2023-09-01, 17:45:01
Sagt aufkrawall doch schon lange ;)

Den Feldzug hab ich eh nie verstanden. :ucrazy2: Naja jedem sein Hobby.

Komisch sind die Werte aus dem PCGH Artikel aber schon. Der 7950X3D liegt genau auf 7950X Niveau und beide sind langsamer als ein 7800X3D? :hammer: In Zukunft kann aber hoffen das die Zen4 CPUs standardmäßig endlich mit gleichen RAM Takt wie die Intel dank neuem AGESA laufen.

Sumpfmolch
2023-09-01, 19:12:49
Wenn ich mir die Benches so ansehe, hätte ich sehr gerne mal eine CPU mit versch. Speichersettings gesehen...

dargo
2023-09-01, 19:58:01
Naja es war beim X3D schon immer Hit and Miss. Manches schmeckt ihm halt und anderes eher nicht so.

Starfield ist halt eher ein Miss. Baldurs Gate 3 war dafür ein Hit, da lässt der 5800X3D den 13900K hinter sich.
Ach hör doch auf, der 5800X3D ist Kernschrott und basta. ;)
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/

Dant3
2023-09-01, 21:48:23
Ich habe nach langem überlegen ob es Sinn macht, vom 5800x auf den 5800x3d zu gehen, dann doch mehr oder minder dem Unsinn nachgegeben und den Wechsel die Tage vollzogen. Bei Baldurs Gate 3 ist der Unterschied auf jeden Fall sehr groß. An den gleichen Stellen, wo ich mit dem 5800x bsp. 140~ fps habe, kommt der 5800x3d auf 200~ fps (oder auch 115 zu 140 fps an einer anderen Stelle). In Akt 3, wenn man durch die Stadt läuft, droppte der 5800x an gewissen stellen auf bis zu 50~ fps, der 5800x3d geht jetzt auf minimal 68~. Beide mit 3600mhz Cl14 Speicherbestückung.

BlacKi
2023-09-01, 21:54:01
Ach hör doch auf, der 5800X3D ist Kernschrott und basta. ;)
https://www.pcgameshardware.de/Baldurs-Gate-3-Spiel-18525/Specials/Benchmark-Test-Review-Grafik-Ersteindruck-1425826/2/was bringen dir die 200fps in BG3? kannst dir einen rubbeln mit den fps.

dargo
2023-09-01, 22:01:44
Oh... Verzeihung. Wo kämen wir denn hin wenn mal eine Applikation wunderbar optimiert ist und auf CPU-Seite reichlich Frames mit Hardware X ausspuckt? Dann natürlich lieber sich einen bei Betasoftware @Starfield schwurbeln. :uclap:

BlacKi
2023-09-01, 22:21:50
du machst dich nur selbst lächerlich. alle cpu benchmarks über 144fps sind unrelevant, für mich sogar über 120fps. hättest ja gleich mit cs go kommen können.

bestimmt gibt es bessere beispiele als BG3, schade für die verloren chance.

lilgefo~
2023-09-01, 23:46:39
Oh... Verzeihung. Wo kämen wir denn hin wenn mal eine Applikation wunderbar optimiert ist und auf CPU-Seite reichlich Frames mit Hardware X ausspuckt? Dann natürlich lieber sich einen bei Betasoftware @Starfield schwurbeln. :uclap:

Das Starfield totaler crap ist was Optik zu Performance angeht bezweifelt keiner. Der Unterschied ist halt das es ist mit allen aktuellen Intel K Skus gut läuft, mit allen aktuellen X3D Skus nur grad so mit einer. Und die kommt auf den letzten Platz. 13th Gen schaffts halt auch mit crappy optimierten Spielen klarzukommen.

dargo
2023-09-01, 23:47:24
du machst dich nur selbst lächerlich.
Na wenn du das sagst wird es ja stimmen. :lol:

phoenix887
2023-09-02, 08:47:47
Kindergarten pur.

Lehdro
2023-09-02, 18:28:45
was bringen dir die 200fps in BG3? kannst dir einen rubbeln mit den fps.
Schau mal einen Post direkt über deinem. Da hat einer ein Beispiel aus der Praxis wo der X3D substanziell mehr bringt. Es sind eben nicht nur die avg. FPS, sondern oft auch die min FPS die du hochziehst. Gibt halt nur 3-4 CPUs die es überhaupt auf die ~120 FPS schaffen in den Lows. Und der uralte X3D ist da halt mit dabei...

Dant3
2023-09-03, 02:17:57
Deswegen hatte ich ja noch mal spezifisch das bsp. aus dem 3ten Akt in Baldur´s Gate (also der Stadt) genannt. Da hat keine CPU mehr in den kritischen Momenten 200 fps, welche aber natürlich auch nicht nötig für diese Art von Spiel sind. Ob ich dann aber in diesen Bereichen bei 50~ oder 60~ fps lande macht durchaus einen Unterschied vom Spielgefühl aus, gerade dann wenn ich sowieso mit einem 60er Limit spiele. In dem Fall findet für mich gefühlt kein Einbruch mehr statt.

Dieses Spiel zeigt auch wieder einmal sehr schoen warum die ganzen 720p CPU Tests doch ihren Sinn haben. Desto mehr fps overhead ich in guten Situationen habe, desto besser federt es im Worst Case nach unten hin ab. Klar, in den meisten Spielen habe ich nicht solche Extremfälle wie in BG3, aber hin und wieder kommt doch ein primär für den PC entwickeltes Spiel um die Ecke und man hat den Salat.
Das blöde bei CPU Limits ist nun mal, dass man häufig nichts dagegen tun kann. Hier hilft es in der Regel nicht die üblichen Einstellungen runter zu schrauben und schon hat man XX% mehr Frames wie im GPU Limit. Das müssen schon sehr spezifische Optionen sein, doch diese fehlen meistens. BG3 hat auch nur eine einzige (Animationen der NPC´s) und die bringt kaum mehr Frames. Ca. 5%~, das rettet dann auch nichts mehr.

Nightspider
2023-09-03, 04:04:55
Naja es war beim X3D schon immer Hit and Miss. Manches schmeckt ihm halt und anderes eher nicht so.

Deswegen ist es immer bisschen panne wie immer diese Diskussionen bei einem neuen Spiel entstehen. :ugly:

dildo4u
2023-09-09, 08:23:44
was bringen dir die 200fps in BG3? kannst dir einen rubbeln mit den fps.
Später in der Hauptstadt hilft V-Cache ganz gut.


https://youtu.be/gQA54lYPuLE?si=NBk-O1xwvajWFKAo&t=657

Lolly4zomfg
2023-09-09, 16:31:25
Später in der Hauptstadt hilft V-Cache ganz gut.


https://youtu.be/gQA54lYPuLE?si=NBk-O1xwvajWFKAo&t=657

Der X3D ist gerade in komplexen Szenen besser, wenn die Datenmenge pro Frame die Größe der herkömmlichen L3 caches überschreitet. Man kann halt auch eine große Pumpe haben, aber wenn zu der kein Wasser kommt dann bringt sie herzlich wenig :freak:

Ich habe auf jeden Fall nicht vor in Zukunft eine CPU mit weniger als 90MB Cache zu kaufen, mein 5800X3D ist einfach zu flüssig und "stabil". Wäre schön wenn Intel in Zukunft auch mal vernünftigen Cache anbieten würde, aber bei denen scheints ja gerade eher weniger gut zu laufen :(

robbitop
2023-09-09, 20:37:33
Ja man muss den VCache nicht so sehen, dass er Zen in bestimmten Spielen besonders schnell macht. Er sorgt im Gegenteil dafür dass Zen immer seine volle Performance ausreizen kann weil weniger Wartezeiten anfallen. Das ganze wird homogener/konsistenter. Aber der Zen Kern wird dadurch nicht schneller. Er kann halt immer schön durcharbeiten.

Ich will nie wieder eine CPU mit kleinem LLC. :up:

(es ist davon auszugehen, dass Intel da mittelfristig auch was bringen wird - siehe Adamantium Cache)

Schnitzl
2023-09-10, 22:31:02
Ja man muss den VCache nicht so sehen, dass er Zen in bestimmten Spielen besonders schnell macht. Er sorgt im Gegenteil dafür dass Zen immer seine volle Performance ausreizen kann weil weniger Wartezeiten anfallen. Das ganze wird homogener/konsistenter. Aber der Zen Kern wird dadurch nicht schneller. Er kann halt immer schön durcharbeiten.

Ich will nie wieder eine CPU mit kleinem LLC. :up:
danke für die Erklärung :up:

bezgl. dem fettgedruckten: https://de.msi.com/blog/llc-dein-bester-freund-beim-uebertakten
das ist nur für Übertakten oder ?

Darkearth27
2023-09-10, 22:49:25
LLC steht hier wohl nicht für Load Line Calibration, sonder eher für Low Level Cache ;)

Der_Korken
2023-09-11, 00:08:35
LLC steht hier wohl nicht für Load Line Calibration, sonder eher für LowLast Level Cache ;)

ftfy :D

Schnitzl
2023-09-11, 01:37:14
;D

ok danke euch beiden :idea:

Darkearth27
2023-09-11, 07:42:23
ftfy :D

Danke ;)

dargo
2023-09-11, 08:12:11
Ich will nie wieder eine CPU mit kleinem LLC. :up:

Dito auch hier, ich kaufe nie wieder eine CPU ohne 3D Cache. Die Effizienz ist einfach unschlagbar. Den Rest erledigt dann CO + eventuell noch ein Taktlimit wenn man noch tiefer in der V/F-Kurve landen möchte. Die X3D-CPUs sind endlich meine lang erwarteten Green-Editions die nicht bis zur Kotzgrenze getrieben werden.

robbitop
2023-09-11, 09:30:58
Ja wobei du natürlich bei jeder CPU den sweetspot ermitteln und einstellen kannst. (aber man bekommt, wie du immer sagst, weniger Leistung als für die man bezahlt hast ja)

Mir ist die Leistungsaufnahme im Desktop eigentlich Wurst (große Wakü und so viel komme ich eh nicht zum zocken weil arbeitstätig und Kinder...). Aber konsistente Performance ist für mich super, duper wichtig.

user77
2023-09-19, 14:38:07
habe gerade bei meinem R7 5800X3D die Wäremeleitpaste gewechselt von Arctic MX-4 (Mai 2022) auf Noctua NT-H2 und meine Idle Temp ist von 46° auf 38° gesunken, bei 22-23° Raumtemp.

Mein X3d ist auf 80W gedeckelt (4050-80mhz im CB24) und -30 Curve per PBO Tuner.
Bei Silent Lüfter war ich vorher trotzdem immer bei 85° im CB2024 (10min) und jetzt bei 71°.

Habe den AIO Block (NZXT H1 inkl. AIO) extra nochmal neu justiert, bevor ich die WLP gewechselt habe, damit ich einen Montagefehler ausschließen kann. Auch ca. gleich viel aufgetragen, verteile immer mit einem kleinem Spachtel.

Finde ich irgendwie interessant...

][immy
2023-09-19, 15:26:33
habe gerade bei meinem R7 5800X3D die Wäremeleitpaste gewechselt von Arctic MX-4 (Mai 2022) auf Noctua NT-H2 und meine Idle Temp ist von 46° auf 38° gesunken, bei 22-23° Raumtemp.

Mein X3d ist auf 80W gedeckelt (4050-80mhz im CB24) und -30 Curve per PBO Tuner.
Bei Silent Lüfter war ich vorher trotzdem immer bei 85° im CB2024 (10min) und jetzt bei 71°.

Habe den AIO Block (NZXT H1 inkl. AIO) extra nochmal neu justiert, bevor ich die WLP gewechselt habe, damit ich einen Montagefehler ausschließen kann. Auch ca. gleich viel aufgetragen, verteile immer mit einem kleinem Spachtel.

Finde ich irgendwie interessant...
Der Wechsel des Herstellers der Wärmeleitpaste war wohl weniger die Ursache für die besseren Temperaturen als viel mehr der Wechsel der Paste und damit wohl auch eine bessere Verteilung.
Schließlich soll die Paste nur Kontakt-Lücken schließen, mehr nicht. Solange diese nur recht dünn verteilt ist und alle Unebenheiten stopft sollte alles gut sein. Die Leitfähigkeit ist bei den Pasten heutzutage so gut, solange du da nicht mehrere Millimeter drauf hast sollte es kaum einen Unterschied machen.

nairune
2023-09-19, 18:00:12
Wenn man zu viel drauf macht, quetscht das doch einfach an der Seite raus, oder was pappt ihr da für hartes Zeug drauf? :freak:
Also zu wenig ist viel wahrscheinlicher ein Problem als zu viel.
Die Differenz scheint mir aber auch viel zu groß.

Acid-Beatz
2023-09-19, 18:06:53
Dumme Frage, obwohl ich ITler bin aber mit sowas habe ich mich schon lange nicht mehr beschäftigt:

Wie ist denn die aktuelle Meinung zu BIOS-Updaten? Alles laufen lassen wenn alles passt und keine Bugs bestehen oder trotzdem updaten?
Selbst bei Security auf BIOS Ebene, CPU Bugs lege ich nicht soooo viel wert weil bevor das jemand ausnutzt, hat Windows meiner Meinung nach 1000 bessere Einfallstore ... .

Ich hab' ein B450 Max mit Agesa 1.2.0.7 von letztem Jahr :uponder:

Darkearth27
2023-09-19, 18:46:35
Dann bleib dabei (meine Meinung) ;)

Holundermann
2023-09-20, 08:20:47
Dumme Frage, obwohl ich ITler bin aber mit sowas habe ich mich schon lange nicht mehr beschäftigt:

Wie ist denn die aktuelle Meinung zu BIOS-Updaten? Alles laufen lassen wenn alles passt und keine Bugs bestehen oder trotzdem updaten?
Selbst bei Security auf BIOS Ebene, CPU Bugs lege ich nicht soooo viel wert weil bevor das jemand ausnutzt, hat Windows meiner Meinung nach 1000 bessere Einfallstore ... .

Ich hab' ein B450 Max mit Agesa 1.2.0.7 von letztem Jahr :uponder:

Vernünftig ist nicht hin zugreifen wenn alles funktioniert. Ich nehme trotzdem jedes BIOS update mit wenn ichs mitbekomme - ich mag den Nervenkitzel :) - und spiel mich dann wieder mit den Einstellungen.

Mir ist es zu Athlon XP Zeiten tatsächlich mal passiert das ich mein Mainboard gebrickt habe - bekam aber vom MB Hersteller Kulanter weise einen neuen BIOS chip.

Heutzutage denke ich das der Upgrade Vorgang eh relativ safe ist - einher geht halt meist ein reset vom BIOS und dann muss man alles neu einstellen.

Ab und zu gibts auch Verbesserungen die marginal mehr Performance bringen - etwa das die CPU höher boostet oder das man straffere timings mit dem ram fahren kann - oder den Verbrauch senken.

Unterm Strich würde ich niemanden zu einem BIOS update raten wenn alles wie gewünscht läuft.

Crazy_Chris
2023-09-20, 09:07:42
Neue AGESA Versionen enthalten oft auch diverse Sicherheitspatches. Ob das jetzt für den Desktop Endbenutzer relevant ist muss jeder selbst entscheiden.

][immy
2023-09-20, 10:43:36
Dumme Frage, obwohl ich ITler bin aber mit sowas habe ich mich schon lange nicht mehr beschäftigt:

Wie ist denn die aktuelle Meinung zu BIOS-Updaten? Alles laufen lassen wenn alles passt und keine Bugs bestehen oder trotzdem updaten?
Selbst bei Security auf BIOS Ebene, CPU Bugs lege ich nicht soooo viel wert weil bevor das jemand ausnutzt, hat Windows meiner Meinung nach 1000 bessere Einfallstore ... .

Ich hab' ein B450 Max mit Agesa 1.2.0.7 von letztem Jahr :uponder:

Mit dem letzten agesa Update wurden auch positive Anpassungen für den 5800x3d vorgenommen, wenn ich mich nicht irre. Also wenn du den hast, Updaten. Die Sicherheitsupdates die evtl Performance kosten waren für <zen3 CPUs. Sollte also nicht stören.

Wenn man zu viel drauf macht, quetscht das doch einfach an der Seite raus, oder was pappt ihr da für hartes Zeug drauf? :freak:
Also zu wenig ist viel wahrscheinlicher ein Problem als zu viel.
Die Differenz scheint mir aber auch viel zu groß.

Kommt auf den Anpressdruck an, der ist bei Verschraubung recht variabel. Auf alle Fälle bevor man den Kühler drauf tut, gut und dünn verteilen. Die Heatspreader sind halt recht groß und wenn da eine Kontakt-Lücke besteht gehen die temps rauf. Die Wärmeleitpaste an sich kann da wenig reißen, dafür sollte die Schicht halt zu dünn sein.

Acid-Beatz
2023-09-20, 11:00:46
Danke für das Feedback, wenn es für den X3D wirklich positive Anpassungen gab, werde ich mir das doch mal genauer anschauen und die Release Notes lesen und dann ggF. updaten!

dildo4u
2023-09-20, 17:37:41
Cyberpunk rennt jetzt recht ordentlich keine Nachteile mehr mit AMD.
12900k = 5800x3d


https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Release-CPU-Review-Test-AMD-Intel-Vergleich-1428779/2/

Crazy_Chris
2023-09-20, 18:07:54
Hier noch die FPS/Watt:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Phantom-Liberty-Leistungsaufnahme-Review-CPUs-im-Test-1429579/ ;)

Thunder99
2023-09-20, 18:38:05
Und für die Faulen, das sehr amüsante gute Video dazu :D
https://youtu.be/wM9PlvWEPck

FPS/W ist einfach übel wie AMD besser sein kann. Freue mich drauf wenn ich mal das spielen sollte ;D

dargo
2023-09-20, 19:28:21
Und für die Faulen, das sehr amüsante gute Video dazu :D
https://youtu.be/wM9PlvWEPck

Ich kann echt nur noch mit dem Kopf schütteln was für Stümper da bei CDPR arbeiten. Die haben jetzt tatsächlich fast 3 Jahre gebraucht bis ein Ryzen 8 Kerner ordentlich performt. :facepalm: Und hätte die PCGH da keine Hinweise immer wieder in diese Richtung gegeben wäre womöglich immer noch nichts passiert. :crazy:

ianm
2023-09-21, 10:07:23
Ich kann echt nur noch mit dem Kopf schütteln was für Stümper da bei CDPR arbeiten. Die haben jetzt tatsächlich fast 3 Jahre gebraucht bis ein Ryzen 8 Kerner ordentlich performt. :facepalm: Und hätte die PCGH da keine Hinweise immer wieder in diese Richtung gegeben wäre womöglich immer noch nichts passiert. :crazy:
Bewerb dich doch bei denen. Die warten mit Garantie nur drauf das jemand wie du endlich kommt und die ganzen Fehler fixt. Alter Messias du, sei nicht so bescheiden.

dargo
2023-09-21, 10:30:27
Ich bin mit meinen Job sehr zufrieden. :) Frag dich doch mal warum andere Entwickler es auf die Kette bekommen.

ianm
2023-09-21, 18:46:24
Die Red Engine ist schon nicht schlecht, fällt mir jetzt wenig ein was besser ist. UE vielleicht, weil weit verbreitet. Und dann? Bethesda? :freak::biggrin:

Mir würde jetzt spontan noch Asobo einfallen, die haben aber auch ihre Zeit gebraucht. Blizzard ist raus, EA ;D, Activision :uponder:

Massive Entertainment :up:
Playground Games :cop:
ID Tech :naughty:

Ex3cut3r
2023-09-22, 17:37:50
Na ja ein bisschen recht hat Dargo da schon. Der SMT Bug mit Ryzen wurde eigentlich schon in der ersten Woche nach Rls gefunden/festgestellt (Dezember 2020), der Hotfix war zwar inoffiziell eine gute Lösung, aber vieles DAUs wussten nichts davon, sondern sind wahrscheinlich immer schön ins CPU-Limit gerannt, mit einer potenten/Starken GPU. :freak:

Das man 3 Jahre für so ein starkes Problem gebraucht hat, ist schon ein Armutszeugnis.

joe kongo
2023-09-22, 19:01:50
Bei den Problemen die das Spiel auf den versch. Plattformen nach Release hatte muss man nicht gleich so streng sein.
Im Gegensatz zu Buden wie Bethesda(:freak:) bessern sie nach und polieren hin bis zum Hochglanz,
was auch ohne DLC später zu einem erneuten Durchgang animiert.

dildo4u
2023-09-23, 04:31:01
Na ja ein bisschen recht hat Dargo da schon. Der SMT Bug mit Ryzen wurde eigentlich schon in der ersten Woche nach Rls gefunden/festgestellt (Dezember 2020), der Hotfix war zwar inoffiziell eine gute Lösung, aber vieles DAUs wussten nichts davon, sondern sind wahrscheinlich immer schön ins CPU-Limit gerannt, mit einer potenten/Starken GPU. :freak:

Das man 3 Jahre für so ein starkes Problem gebraucht hat, ist schon ein Armutszeugnis.
Die Masse wird einfach GPU Limitiert gewesen sein daher wenig Relevant 5600 spukt hier um 100fps aus.

Die alte Version lief ja schon ok auf Ryzen 5.

https://youtu.be/jSVwT8B-20o?si=maweE_gtT1uVYVFm&t=463

dargo
2023-09-23, 08:14:50
Die Masse wird einfach GPU Limitiert gewesen sein daher wenig Relevant 5600 spukt hier um 100fps aus.

Immer nur dieser Blick auf halbwegs aktuelle Hardware. :rolleyes: Was ist mit den ganzen Spielern die einen Ryzen 3xxx oder gar 2xxx 8 Kerner drin haben? Diese Spieler wurden fast drei Jahre lang unnötig benachteiligt.

aufkrawall
2023-09-23, 08:36:59
Immerhin gibts nun den Toggle. Könnten die Nixxes-Deppen für Miles Morales auch mal einbauen...

Thunder99
2023-09-23, 18:09:57
Bei dem Marktanteil wo AMD hat haben sie die Priorität ganz hinten angestellt, aber besser spät als nie.
Wer gegooglet hatte konnte zumindest mit den Anleitungen aus dem Nezt den Fix schon vorher geniessen.

robbitop
2023-09-24, 06:00:33
Bei dem Marktanteil wo AMD hat haben sie die Priorität ganz hinten angestellt, aber besser spät als nie.
Wer gegooglet hatte konnte zumindest mit den Anleitungen aus dem Nezt den Fix schon vorher geniessen.

35% Marktanteil bei CPUs ist jetzt nicht gerade wenig.

Ansonsten ist korrektes Deutsch: „Bei dem Marktanteil, den AMD hat“ nicht „wo“.

Lolly4zomfg
2023-10-05, 15:53:37
Interessant ist auch der Unterschied in der Zugriffszeit des größeren Caches. Vom Ryzen 7 5800X zum Ryzen 7 5800X3D steigt die L3 Cache Latenz von 43 auf 47 Zyklen https://www.tomshardware.com/reviews/amd-ryzen-7-5800x3d-review/2.
Auch interessant: https://chipsandcheese.com/2021/09/29/do-ibms-giant-l3-and-v-cache-represent-the-future/. Es lohnt sich im Durchschnitt ein ~96MB L3 Cache für Spiele am meisten, siehe die roten X in der Grafik (der echte X3D ist besser, da er nur 4 anstatt 6 Zyklen langsamer ist als der mit 32MB Cache):

https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2021/09/image-18.png?ssl=1
Die bessere worst case Latenz ist aber für mich das Ausschlag gebende und die steht nicht in der Grafik.

Sonyfreak
2023-10-06, 09:29:50
Interessant ist auch der Unterschied in der Zugriffszeit des größeren Caches. Vom Ryzen 7 5800X zum Ryzen 7 5800X3D steigt die L3 Cache Latenz von 43 auf 47 Zyklen.Ist die höhere Latenz nicht nur eine Folge des niedrigeren CPU-Taktes?

mfg.

Sonyfreak

basix
2023-10-06, 10:08:48
Nicht nur, nein. Durch den grösseren Cache kommen +4 Zyklen dazu. Das ist aber normal: Grösser = Mehr Zyklen.

Thunder99
2023-10-09, 13:17:58
35% Marktanteil bei CPUs ist jetzt nicht gerade wenig.

Ansonsten ist korrektes Deutsch: „Bei dem Marktanteil, den AMD hat“ nicht „wo“.
Merci :). War nicht kontrolliert worden :D

Zum Thema Cache und Zyklen. Meinte AMD konnte den Anstieg der Zyklen erfolgreich bremsen durch weiter Optimierungen, weshalb die Größe dementsprechend gut durchschlägt und nahezu keine Geschwindigkeit kostet.

robbitop
2023-10-09, 17:19:59
Die Latency nimmt kaum zu weil, der Abstand nicht weiter steigt, weil die Fläche nicht steigt sondern in Z Richtung gestapelt wird. Monolithisch wäre es langsamer geworden.
Dazu kommt noch, dass das Ganze schon von vorne herein so ausgelegt wurde für VCache. Ohne diese Auslegung hätten die 32 MiB L3 sicherlich etwas schneller sein können.

dildo4u
2023-11-07, 11:11:46
Nachtest mit aktuellen Games


6UAES7F48EU

Dorn
2023-11-13, 18:26:05
Nachtest mit aktuellen Games

https://www.computerbase.de/2023-11/cpu-gaming-benchmark-2023-amd-ryzen-intel-core/

dargo
2023-11-13, 18:45:31
Uncharted wirkt dann doch etwas strange wenn der 5800X3D knapp vor dem 7950X3D landet. :freak: Frage mich bloß was da wieder schief gelaufen ist. Zu viele Kerne klingt für mich nicht gerade plausibel, dann müssten die breiten Intel-CPUs auch dort abkacken.

Langlay
2023-11-13, 19:11:07
Uncharted wirkt dann doch etwas strange wenn der 5800X3D knapp vor dem 7950X3D landet. :freak: Frage mich bloß was da wieder schief gelaufen ist. Zu viele Kerne klingt für mich nicht gerade plausibel, dann müssten die breiten Intel-CPUs auch dort abkacken.

Ich würde vermuten Uncharted lief nicht auf dem Cache-CCD sondern auf dem non-Cache-CCD. Daher ist der 7950X3D dann auch nur auf 7700X Niveau und würde auch den deutlichen Mehrverbrauch ggü. dem 7800X3D erklären.

aufkrawall
2023-11-13, 19:22:12
Ich würde vermuten Uncharted lief nicht auf dem Cache-CCD sondern auf dem non-Cache-CCD. Daher ist der 7950X3D dann auch nur auf 7700X Niveau und würde auch den deutlichen Mehrverbrauch ggü. dem 7800X3D erklären.
Also funktioniert diese XBox Gamebar-Zuweisung gar nicht richtig?

Achill
2023-11-13, 19:24:33
Nachtest mit aktuellen Games

https://www.computerbase.de/2023-11/cpu-gaming-benchmark-2023-amd-ryzen-intel-core/

Was mir auf jeden Fall am Test gefällt (evtl. hat das CB schon in den letzten Tests vorher gemacht), dass die CPU Package Power jetzt für jeden Test mit angegeben wird. Thx!

dargo
2023-11-13, 19:29:00
Ich würde vermuten Uncharted lief nicht auf dem Cache-CCD sondern auf dem non-Cache-CCD. Daher ist der 7950X3D dann auch nur auf 7700X Niveau und würde auch den deutlichen Mehrverbrauch ggü. dem 7800X3D erklären.
Hmm... ich weiß nicht so recht. Normalerweise boostet so ein 7950X3D auf der non 3DC Cache Seite höher als ein 7700X. Zudem hat der wesentlich größere Caches, auch ohne X3D. Und dennoch kann der sich überhaupt nicht von dem 7700X absetzen. Imho klemmt da was anderes bzw. zusätzlich.

Langlay
2023-11-13, 19:33:47
Also funktioniert diese XBox Gamebar-Zuweisung gar nicht richtig?

In dem Fall anscheinend nicht, ich hab selber keinen 7900X3D o. 7950X3D. Allerdings gabs ja schon Berichte, dass das mit der CCD Zuweisung nicht immer 100%ig funktioniert.

z.b. : https://www.anandtech.com/show/18747/the-amd-ryzen-9-7950x3d-review-amd-s-fastest-gaming-processor/11

https://i.imgur.com/A78VAJ7.png

Achill
2023-11-13, 19:34:06
Hmm... ich weiß nicht so recht. Normalerweise boostet so ein 7950X3D auf der non 3DC Cache Seite höher als ein 7700X. Zudem hat der wesentlich größere Caches, auch ohne X3D. Und dennoch kann der sich überhaupt nicht von dem 7700X absetzen. Imho klemmt da was anderes bzw. zusätzlich.

Denke ich auch, tippe auf ein Threading Issue. Der 5950X ist auch langsamer als der 5800X ...

dargo
2023-11-13, 19:34:31
Was mir auf jeden Fall am Test gefällt (evtl. hat das CB schon in den letzten Tests vorher gemacht), dass die CPU Package Power jetzt für jeden Test mit angegeben wird. Thx!
Das gefällt mir auch sehr gut. Ich bin schon richtig gespannt auf die kommenden X3D CPUs von AMD in 3nm. Ob man dann so einen 8800X3D/9800X3D mit etwas Feintuning Richtung 30-40 Wattchen drücken können wird? :eek: :D

Denke ich auch, tippe auf ein Threading Issue. Der 5950X ist auch langsamer als der 5800X ...
Stimmt... gar nicht auf diesen Vergleich geschaut. Dann dürfte der Fall klar sein.

Langlay
2023-11-13, 19:40:32
Denke ich auch, tippe auf ein Threading Issue. Der 5950X ist auch langsamer als der 5800X ...

Das kann zusätzlich noch dazu kommen. Aber im Gaming sollte beim 7950X3D eins von den zwei CCDs geparkt sein. Wenn das Spiel auf den Cache CCD laufen sollte müsste der 7950X3D leicht langsamer als der 7800X3D sein mit dem Threadingproblem und nicht leicht langsamer als ein 7700X.

gedi
2023-11-13, 19:41:39
In dem Fall anscheinend nicht, ich hab selber keinen 7900X3D o. 7950X3D. Allerdings gabs ja schon Berichte dass das mit der CCD Zuweisung nicht immer 100%ig funktioniert.

z.b. : https://www.anandtech.com/show/18747/the-amd-ryzen-9-7950x3d-review-amd-s-fastest-gaming-processor/11

https://i.imgur.com/A78VAJ7.png

Sorry, dies ist eine Pauschalaussage, welche ganz einfach nicht stimmt!

Langlay
2023-11-13, 19:44:36
Sorry, dies ist eine Pauschalaussage, welche ganz einfach nicht stimmt!


Damit meine Aussage stimmt muss es nur 1 Fall auf der Welt gegeben haben wo meine Aussage zugetroffen hat. Ne Pauschalaussage ist was anderes.

aufkrawall
2023-11-13, 19:47:16
Es kann ja auch mal jemand aufklären. Man kann manuell in der Game Bar eine Anwendung als "Spiel" markieren. Hilft das in jedem oder wenigstens den meisten Fällen, in denen das Abschalten des nicht-Cache-CCDs im Bios Performance bringt?
Es wird leider ständig nur amateuerhafter Mist im Netz getestet und nicht wirklich Licht ins Dunkel gebracht.

Der_Korken
2023-11-13, 21:35:14
In dem Fall anscheinend nicht, ich hab selber keinen 7900X3D o. 7950X3D. Allerdings gabs ja schon Berichte, dass das mit der CCD Zuweisung nicht immer 100%ig funktioniert.

Diese Zuweisung stand imho schon immer auf wackeligen Beinen. AMD hat da nie so richtig rausgerückt, wie das technisch gelöst ist, aber wenn es letztlich an händisch gepflegten Exe-Listen hängt, dann ist klar, dass da auch immer wieder Spiele hinten runterfallen werden. Und vor allem hilft eine Anwendungszuweisung nur, wenn diese Anwendung nicht mehr als 8 Kerne braucht, weil die CPU bzw. das OS sonst einen Hint für jeden gespawnten Thread braucht, wer denn auf welchen CCD laufen soll.

Das gefällt mir auch sehr gut. Ich bin schon richtig gespannt auf die kommenden X3D CPUs von AMD in 3nm. Ob man dann so einen 8800X3D/9800X3D mit etwas Feintuning Richtung 30-40 Wattchen drücken können wird? :eek: :D


Stimmt... gar nicht auf diesen Vergleich geschaut. Dann dürfte der Fall klar sein.

Afaik kommt Zen 5 in 4nm. 30-40W wird schwer, es sei denn man bremst die Kerne auf Zen-4-Geschwindigkeit aus, dann sollte das kein Problem sein. Zen 5 soll ja fettere Kerne haben und die werden auch mehr Strom brauchen.

Edit: Der Leistungszuwachs der 3D-Modelle könnte dafür höher ausfallen, sofern Zen 5 tatsächlich eine Taktregression bekommt. Dann rücken die normalen und 3D-Modelle taktmäßig nämlich näher zusammen, weil die jetzigen 3D-Modelle alle durch den Cache-Takt limitiert werden. Eventuell gibt es sogar gar keinen Taktverlust mehr, wenn sich beide Seiten irgendwo bei 5,3Ghz o.ä. treffen :freak:

robbitop
2023-11-14, 07:10:44
Der non X3D CCD vom 7950x3d hat den gleichen Cache wie der 7700X. 1 MiB pro Core und 32 MiB L3. Alles was auf dem anderen CCD ist zählt nicht. ;)
So viel höher ist die Taktrate dann beim 7950X3D wahrscheinlich auch nicht als beim 7700X.

downforze
2023-11-14, 10:04:28
Ich finde der 5800 x3d ist immer noch sehr teuer. Gerademal 60€ Abstand zum 7800 x3d. Wenn das Ding mal wieder bei 270€ ist, kaufe ich auch einen. Der Preisaufschlag für die 64 MB Cache zum 5800X ist wirklich absurd.

dildo4u
2023-11-14, 10:17:12
Nachfrage steigt natürlich im Winter die Sales gab es im Sommer.

Laut dem passen 300€ leider da er minimal besser als 7700X läuft.

https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/3/#abschnitt_leistungsratings_fps__frametimes


Die Intels sind auch teurer geworden 13600k/14600k sind alle in dem Bereich.

DrumDub
2023-11-14, 10:52:08
In dem Fall anscheinend nicht, ich hab selber keinen 7900X3D o. 7950X3D. Allerdings gabs ja schon Berichte, dass das mit der CCD Zuweisung nicht immer 100%ig funktioniert.

z.b. : https://www.anandtech.com/show/18747/the-amd-ryzen-9-7950x3d-review-amd-s-fastest-gaming-processor/11

https://i.imgur.com/A78VAJ7.png eventuell ist das die ursache:

Es war geplant, den Ryzen 9 7950X3D direkt zur Veröffentlichung in den Parcours aufzunehmen. Doch obwohl der Prozessor als allerletzter auf der AM5-Plattform zum Einsatz kam und die erste Multi-Chip-X3D-CPU war, verlief der Wechsel – wie so häufig in der Vergangenheit – nicht reibungslos: Trotz korrekter Erkennung der Spiele in der Xbox Game Bar wurden die Threads nicht korrekt den 3D-V-Cache-Kernen zugewiesen, die Performance blieb im Schnitt fast 10 Prozent hinter dem Ryzen 7 7800X3D zurück. Auch ein halbes Jahr nach dem Start bleibt es leider dabei: Wer auf einen Ryzen 9 mit X3D-Cache wechselt, sollte dafür zwingend Windows neu aufsetzen, um derartige Probleme zu vermeiden. AMD empfiehlt diesen Schritt bis heute. https://www.computerbase.de/2023-10/intel-core-i9-14900k-i7-14700k-i5-14600k-test/3/#abschnitt_leistungsratings_fps__frametimes

robbitop
2023-11-14, 14:27:10
Ich finde der 5800 x3d ist immer noch sehr teuer. Gerademal 60€ Abstand zum 7800 x3d. Wenn das Ding mal wieder bei 270€ ist, kaufe ich auch einen. Der Preisaufschlag für die 64 MB Cache zum 5800X ist wirklich absurd.
Ja der 7800 x3D hat den 5800x3d obsolet gemacht (bzw seine Preissenkung). Man darf nicht vergessen, dass der 5800x3d ein 2021 Produkt ist und wir haben es Ende 2023.
Er ist nicht wirklich günstiger geworden - den größten Sinn hat es IMO gemacht, sich den frühzeitig zu kaufen.

Lehdro
2023-11-14, 14:41:49
Ja der 7800 x3D hat den 5800x3d obsolet gemacht (bzw seine Preissenkung).
Plattformkosten nicht vergessen (vor allem wenn AM4 schon vorhanden ist).

Tesseract
2023-11-14, 14:50:52
eben, die beiden konkurrieren kaum. der 5800X3D ist ein upgradepfad, der 7800X3D ein kompletter neukauf. völlig anderer aufwand und gesamtkosten.

Taigatrommel
2023-11-14, 16:05:00
Richtig, anders kann man das nicht beschreiben, es wird sich auch kaum jemand neu eine AM4 Plattform zulegen. Entweder halt als Upgrade oder wer ggf. noch gebraucht ein günstiges AM4 Bundle ergattern kann. Immerhin sind ja sogar teilweise Boards der 1. Generation für den 5800X3D kompatibel.

Dafür empfinde ich die CPU weiterhin interessant, gerade wer noch einen Ryzen 1xxx, 2xxx oder auch 3xxx hat, bekommt da doch eine spürbare Mehrleistung, ohne gleich alles komplett neu kaufen zu müssen.

dargo
2023-11-14, 16:10:27
Mit dem kommenden 5700X3D wird ein Upgrade für schmales Geld noch interessanter, je nachdem wo AMD diese CPU preislich positioniert.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13435288&postcount=6536

Langlay
2023-11-14, 16:18:38
Mit dem kommenden 5700X3D wird ein Upgrade für schmales Geld noch interessanter, je nachdem wo AMD diese CPU preislich positioniert.


Dann müsste das Teil schon 250€ oder weniger kosten, das seh ich jetzt nicht unbedingt. Der 5600X3D hat schon 229 $ gekostet.

Crazy_Chris
2023-11-14, 16:40:58
Interessant. AM5 läuft wohl nicht so gut wie erhofft. :eek:

HOT
2023-11-14, 17:34:44
Qutsch, X3D ist das was sich verkauft. Das ist ein regelrechter Hype der da läuft und AM4 ist halt immer noch die Plattform, die sich im billigen Massenmarkt verkauft. AMD macht das, was man gut verkaufen kann, so einfach ist das.

Lolly4zomfg
2024-01-05, 14:10:41
In dem Fall anscheinend nicht, ich hab selber keinen 7900X3D o. 7950X3D. Allerdings gabs ja schon Berichte, dass das mit der CCD Zuweisung nicht immer 100%ig funktioniert.

z.b. : https://www.anandtech.com/show/18747/the-amd-ryzen-9-7950x3d-review-amd-s-fastest-gaming-processor/11

https://i.imgur.com/A78VAJ7.png

Es wäre schön wenn das vollautomatisch funktionieren würde. Ich kenn mich da nicht so aus, aber es gibt doch eine Menge Zählerregister in AMD CPUs für alle möglichen Dinge, TLB misses etc.. Da gibt es doch sicher einen Zähler für die Anzahl an ausgeführten Maschinenbefehlen. Eine schlaue Software könnte da doch lauschen und automatisch Präferenzen erstellen. NUMA, Multithreading und zwischen CCD Kommunikation sind ja auch so Themen https://chipsandcheese.com/2023/11/07/core-to-core-latency-data-on-large-systems/
Dann noch Intels Big-Little Core Schema. Manuell gepflegte Exe Listen sind halt notdürftig. Da wären mal Microsofts Programmierer für Prozessscheduling gefragt. Selbes für Linux.

Das kann man alles welten besser lösen und dehalb sind für mich die gemischten Prozessoren CRINGE :P

Wo ist Hackerman wenn man ihn braucht? :rolleyes:

The_Invisible
2024-01-05, 16:00:54
Das bringt man so nie automatisch hin. Da müsste wenn schon das Programm Flags setzen wo der Thread laufen soll.

Aber jap, die 2ccd 3ds sind Frankensteine, ich hoffe Zen5 bringt 16c native 3d Modelle raus

dildo4u
2024-01-06, 07:46:44
Für was niemand kauft High-End die Preisverfall ist eine Katastrophe über 500€.

Lolly4zomfg
2024-01-06, 17:45:31
Also mal angenommen es gibt Register im Prozessor die die Anzahl an ausgeführten Maschinenbefehlen zählen, dann könnte der Windows Prozess/Thread Scheduler bei jedem Kontextwechsel speichern wie viele Befehle in welcher Zeitspanne auf welchem Prozessorkern mit welchem konkreten Programmthread ausgeführt wurden. Wenn man dann noch "Cachewärme" etc. mit berücksichtigt und die Ergebnisse persistent speichert, dann sollte das OS mit der Zeit herausfinden können wieviele Befehle pro Sekunde pro Takt welches Programm auf welchem CPU Kern hat.

Alles natürlich nur sehr überschlägig, in echt kann man da sicher Doktorarbeiten drüber schreiben. Ich seh aber nicht warum das Prinzipiell nicht gehen sollte. Es wäre schön wenn es eine general Purpose Lösung gibt, das Potenzial hätten die Chips ja. Da könnte man dann auch komplett heterogene Prozessorkerne nutzen, also z.B. ein Performance Kern mit und ohne Cache. Ein efficiency Kern und ein ultra efficiency Kern von mir aus. Oder was auch immer einem da halt einfällt.

In Linux haben sie ja erst auf den EEVDF Scheduler gewechselt https://lwn.net/Articles/925371/ der wurde in einem Paper 1996 das erste mal beschrieben https://www.phoronix.com/news/EEVDF-Scheduler-Linux-EO-May . Es würde mich nicht wundern, wenn man den Windows Scheduler da noch um einiges verbessern könnte.

Achill
2024-01-06, 18:48:41
Also mal angenommen es gibt Register im Prozessor die die Anzahl an ausgeführten Maschinenbefehlen zählen, dann könnte der Windows Prozess/Thread Scheduler bei jedem Kontextwechsel speichern wie viele Befehle in welcher Zeitspanne auf welchem Prozessorkern mit welchem konkreten Programmthread ausgeführt wurden. Wenn man dann noch "Cachewärme" etc. mit berücksichtigt und die Ergebnisse persistent speichert, dann sollte das OS mit der Zeit herausfinden können wieviele Befehle pro Sekunde pro Takt welches Programm auf welchem CPU Kern hat.

Alles natürlich nur sehr überschlägig, in echt kann man da sicher Doktorarbeiten drüber schreiben. Ich seh aber nicht warum das Prinzipiell nicht gehen sollte. Es wäre schön wenn es eine general Purpose Lösung gibt, das Potenzial hätten die Chips ja. Da könnte man dann auch komplett heterogene Prozessorkerne nutzen, also z.B. ein Performance Kern mit und ohne Cache. Ein efficiency Kern und ein ultra efficiency Kern von mir aus. Oder was auch immer einem da halt einfällt.

In Linux haben sie ja erst auf den EEVDF Scheduler gewechselt https://lwn.net/Articles/925371/ der wurde in einem Paper 1996 das erste mal beschrieben https://www.phoronix.com/news/EEVDF-Scheduler-Linux-EO-May . Es würde mich nicht wundern, wenn man den Windows Scheduler da noch um einiges verbessern könnte.

Wenn das so einfach währe, dann hätte das AMD schon gemacht ... und die Verfolgung und Auswertung von Maschinen-Befehlen pro CPU-Kern und das Schedulen von Threads sind ganz verschiedene Sachen, schon die anfallende Datenmenge und nötige Reaktionszeiten sind imho Größenordnungen an Unterschied. Darüber hinaus wissen wir hier (imho) gar nicht, wo Cache immer seine Auswirkungen hat, vielleicht sind es z.B. auch Teile eines Grafiktreibers und und und ...

Lolly4zomfg
2024-01-10, 01:20:53
Als wenn du von wir redest, dann schließt das zumindest mich in dieser Aussage nicht ein. Ich kenn mich schon aus, nur nicht bis in _alle_ Details moderner Prozessoren.

Natürlich sind die Auswertung von Maschinenbefehlen und das Prozesscheduling eines Betriebssystems unterschiedliche Sachen. Aber ich sprach davon, dass es ein extra Zählerregister geben könnte, dass mitzählt wie viele Maschinenbefehle exakt ausgefürt wurden. Wenn es das gibt, dann kostet dich das garkeine Leistung. Wohlgemerkt das ist nicht der Programm-Counter der die Adresse des aktuell ausgeführten Maschinenbefehls enthält.

Das mit dem Cache ist keine Magie. Idr. ist das einfach ein vollsatzassoziativer Cache. Ich habe ihn erwähnt, weil es unter (geschätzten) Berücksichtigung der Cachewärme etwas genauer ginge. Man kann es aber wohl auch ganz weglassen und es würde trotzdem gehen.

Grafiktreiber hat garnichts damit zu tun. Das ist einfach nur ein Programm unter anderen.

Wenn du dich dafür interessierst wie Computer funktionieren kann ich "Rechnerarchitektur: Von der digitalen Logik zum Parallelrechner (Pearson Studium - IT)" empfehlen. Das wirkt alles nur so mysteriös und undurchdringbar, weil du die Grundprinzipien nicht kennst. Im Endeffekt ist das einfach nur eine Maschine die immer genau das gleiche tut, solange bis der Computer aus ist.

Ja und ich hab nicht gesagt das es einfach wäre. Ich hab gesagt, dass eine Allgemein Anwendbare Lösung halt was GESCHEITES wäre. Es braucht blos mal eine Anwendung umbenannt werden oder einen größeren Patch bekommen und schon funktioniert das nicht mehr.

Achill
2024-01-10, 12:02:04
Als wenn du von wir redest, dann schließt das zumindest mich in dieser Aussage nicht ein. Ich kenn mich schon aus, nur nicht bis in _alle_ Details moderner Prozessoren.

Natürlich sind die Auswertung von Maschinenbefehlen und das Prozesscheduling eines Betriebssystems unterschiedliche Sachen. Aber ich sprach davon, dass es ein extra Zählerregister geben könnte, dass mitzählt wie viele Maschinenbefehle exakt ausgefürt wurden. Wenn es das gibt, dann kostet dich das garkeine Leistung. Wohlgemerkt das ist nicht der Programm-Counter der die Adresse des aktuell ausgeführten Maschinenbefehls enthält.

Das mit dem Cache ist keine Magie. Idr. ist das einfach ein vollsatzassoziativer Cache. Ich habe ihn erwähnt, weil es unter (geschätzten) Berücksichtigung der Cachewärme etwas genauer ginge. Man kann es aber wohl auch ganz weglassen und es würde trotzdem gehen.

Grafiktreiber hat garnichts damit zu tun. Das ist einfach nur ein Programm unter anderen.

Wenn du dich dafür interessierst wie Computer funktionieren kann ich "Rechnerarchitektur: Von der digitalen Logik zum Parallelrechner (Pearson Studium - IT)" empfehlen. Das wirkt alles nur so mysteriös und undurchdringbar, weil du die Grundprinzipien nicht kennst. Im Endeffekt ist das einfach nur eine Maschine die immer genau das gleiche tut, solange bis der Computer aus ist.

Ja und ich hab nicht gesagt das es einfach wäre. Ich hab gesagt, dass eine Allgemein Anwendbare Lösung halt was GESCHEITES wäre. Es braucht blos mal eine Anwendung umbenannt werden oder einen größeren Patch bekommen und schon funktioniert das nicht mehr.

Würdest du diese "Idee" etwas ausführen? Das Zählregister, gibt es davon nur eins oder mehrere? Pro CPU, CCD, Core oder Thread (SMT)? Was wird gezählt (Maschinenbefehle ist zu ungenau)? Wann und wie wird das gezählte genutzt? Wie kommen alle diese Informationen beim Scheduler des OS an? Wie werden Daten, die nicht im Context des Spiels anfallen, heraus gefiltert (z.B. der Grafiktreiber)? Wie groß sollte das Zeit Intervall sein nachdem Entscheidungen getroffen werden? Was ist deine Annahme zur Datenmenge, die in diesem Zeit-Intervall anfallen?

Lolly4zomfg
2024-01-13, 12:30:31
Würdest du diese "Idee" etwas ausführen? Das Zählregister, gibt es davon nur eins oder mehrere? Pro CPU, CCD, Core oder Thread (SMT)? Was wird gezählt (Maschinenbefehle ist zu ungenau)? Wann und wie wird das gezählte genutzt? Wie kommen alle diese Informationen beim Scheduler des OS an? Wie werden Daten, die nicht im Context des Spiels anfallen, heraus gefiltert (z.B. der Grafiktreiber)? Wie groß sollte das Zeit Intervall sein nachdem Entscheidungen getroffen werden? Was ist deine Annahme zur Datenmenge, die in diesem Zeit-Intervall anfallen?

Pro Prozessorthread in der Hardware der CPU mit einem 16 Byte Ganzzahl Zählerregister. Es werden nur Maschinenbefehle gezählt. Immer wenn der Scheduler einen Prozesskontextwechsel macht wird das gespeichert durch einen call auf den entsprechenden Maschinenbefehl der das Register ausliest. Da ja gerade der Scheduler schon Läuft kann er diese Informationen fürs weitere Scheduling benutzen. Daten die nicht im Kontext anfallen, werden eh schon vom Scheduler berücksichtigt. Das ist ein jetzt schon gelöstes Problem.
Das Zeitintervall ist der Zeitschlitz in dem der Scheduler eh schon läuft. 16 Byte können bis zu 2^(8*16) Zählen. Es müssten diese 16 Byte extra pro Prozessthread pro Prozessorkernart im Betriebssystem (beim Scheduler) gespeichert sein. Also angenommen es laufen 200 Threads, dann sind das extra 200*16Byte*3Kernarten, also ca 9200Byte, ~9kB.
Die Zähler werden einfach immer aufaddiert und bei programmende in einer Datei des Betriebssystems gespeichert.

Lolly4zomfg
2024-01-13, 12:36:01
Man könnte die Maschinenbefehle auch unterschiedlich gewichten. Die Prozessorhersteller veröffentlichen da zu jeder CPU-Familie Listen mit "kosten" der unterschuedlichen Maschinenbefehle für die Compilerentwickler. Für den Ansatz ist es aber nicht nötig, da wenn ein Befehl mehr kostet, die darauffolgenden ja auch erst später laufen können. Der durchschnitt über die Zeit sollte genügen.

Lolly4zomfg
2024-01-13, 12:43:58
Ein Nachteil wäre aber, dass dann manchmal der scheduler "absichtlich" den Hauptspielethread auf den langsamen prozessorkernen laufen lässt. Mit genügend Laufzeit sollte es aber nicht mehr passieren. Wenn das spiel aber ein Update bekommt oder umbenannt wird, dann muss es wieder neu "trainiert" werde.

Lolly4zomfg
2024-01-13, 12:55:34
In Linux gibt es schon etwas ähnliches (was aber nicht zwischen Programmen und Kernarten (?) unterscheidet): https://de.m.wikipedia.org/wiki/BogoMips

sChRaNzA
2024-01-20, 14:36:20
Nach all der Zeit jetzt kann ich wahrscheinlich sagen ein ''heißes'' Modell erwischt zu haben. Mit -30 auf allen Kernen läuft die CPU relativ kühl mit einem Dark Rock 4. In Star Citizen wird das Ding allerdings gut warm mit 88°C im Peak. Das bekomm ich auch nicht weiter runter.

ChaosTM
2024-01-20, 15:29:35
Nach all der Zeit jetzt kann ich wahrscheinlich sagen ein ''heißes'' Modell erwischt zu haben. Mit -30 auf allen Kernen läuft die CPU relativ kühl mit einem Dark Rock 4. In Star Citizen wird das Ding allerdings gut warm mit 88°C im Peak. Das bekomm ich auch nicht weiter runter.


Jo, das Spiel heizt wie blöd...
Mehr Ähnlich als derm Cinebench.

Adam D.
2024-01-21, 13:40:59
Habe seit gestern auch endlich den 5800X3D in Betrieb - nachdem ich einen Tag lang versucht habe ein Problem zu lösen, was genau einen Tastendruck erfordert hat. Danke Gigabyte :ulol:

Sollte irgendjemand beim Start einen schwarzen Bildschirm mit rotem "American Megatrends"-Schriftzug oben sehen: Es fehlt einfach nur die Anzeige des Problems ("fTPM/PSP NV structure changed"), ein einfaches Drücken des Z-Knopfes auf der Tastatur hat das Problem gelöst. Das habe ich natürlich rausgefunden, nachdem ich alles 5x ein- und ausgebaut habe, CMOS gecleart habe und was weiß ich noch alles. Sowas Dummes echt ;D

Erster Test bei -30 knapp 78°C und 14998 Punkte im CB23. Mal sehen, ob es stabil läuft.

T86
2024-01-21, 22:15:48
Welches Board?
Mein Gigabyte b550 pro-p hat ihn problemlos gefressen mit aktuellem Bios

HOT
2024-01-22, 09:02:10
Ging ja nicht darum, dass er die CPU frisst sondern den TPM-Reset. Den gibts halt immer, wenn man ne neue CPU einbaut. Er hat den nur nicht gesehen, weil das BIOS den nicht angezeigt hat.

T86
2024-01-22, 09:49:39
Ja bei mir hat ers angezeigt - sprich der Wechsel war problemlos.

Die Formulierung war evtl etwas unglücklich gewählt.
Gigabyte hat ja eh so seine Eigenheiten.
Die lüftersteuerung ist eine davon. Hysterese kennen die auch nicht.
Macht einen boxed Lüfter halt mal um ein zig Faches nerviger als es sein müsste.
Das permanente Wechseln der Drehzahl ist halt so ein weiteres Gigabyte Special…
Ebenso das man kein xmp Profil laden kann wenn nicht alle 4 Riegel eins haben… auf Asus kein Problem
Da liefen die Samsung oem Riegel mit den g-skill auf 3200 einfach mit - alles Samsung C-Die

Sind alles ünnotige Kleinigkeiten halt

pnume
2024-01-24, 22:39:42
Ist bei dem MSI, dass ich hier hab noch viel schlimmer. Ohne manuelle eingriffe unbrauchbar.

HOT
2024-01-24, 22:50:51
Bei Asuis geht dafür oft die nicht-PWM-Steuerung nur wenig weit hinunter (oft nur 60%, weniger geht nicht) und es gibt nur wenige Einstellpunkte. Da ist mir das GB-BIOS aber 3x lieber ;). Da ist ja selbst Biostar fortschrittlicher.
Ich komm mit den Lüftereinstellungen meines GB-Boards hervorragend klar, Hysterese brauch ich nicht, wüsste nicht wofür. Auch MSI ist gut.
Und es ist klar, bei allen AM4/5-Brettern muss man die Lüfter, zumindest den CPU-Lüfter, manuell anpassen, da die CPUs nunmal 90°C erreichen. Das ist einfach normal und man muss die Lüfterkurve entsprechend anpassen. Bei Raptor Lake ist das ja auch nicht anders.

dargo
2024-01-25, 11:02:23
Bei Asuis geht dafür oft die nicht-PWM-Steuerung nur wenig weit hinunter (oft nur 60%, weniger geht nicht) und es gibt nur wenige Einstellpunkte. Da ist mir das GB-BIOS aber 3x lieber ;). Da ist ja selbst Biostar fortschrittlicher.
Ich komm mit den Lüftereinstellungen meines GB-Boards hervorragend klar, Hysterese brauch ich nicht, wüsste nicht wofür. Auch MSI ist gut.
Und es ist klar, bei allen AM4/5-Brettern muss man die Lüfter, zumindest den CPU-Lüfter, manuell anpassen, da die CPUs nunmal 90°C erreichen. Das ist einfach normal und man muss die Lüfterkurve entsprechend anpassen. Bei Raptor Lake ist das ja auch nicht anders.
Pfff... gegen Fancontrol ist jedes Bios im Bereich Lüftersteuerung ein Witz. :tongue:
https://getfancontrol.com/

Für mich unverständlich wie User diese primitiven Implementierungen der Biose noch nutzen wollen.

The_Invisible
2024-01-25, 11:26:53
Die Standard Lüfterprofile im BIOS kann man sowieso vergessen. Wenn ich da Silent wähle heult der trotzdem wie ein Düsenjet auf, die Temperaturen sind viel zu niedrig gewählt und bei den heutigen HighTemp CPUs macht das keinen Sinn.

dargo
2024-01-25, 11:41:35
Wie sollte es auch anders sein bei zig verschiedenen Lüftern im Handel? :freak: Das sind doch nur Presets um irgendwas zu liefern. Jeder normale Mensch der etwas davon versteht erstellt sich eigene Lüfterkurven. Wer mehr Anspruch in dieser Beziehung sucht nutzt eh kein Bios für sowas.

Langlay
2024-01-25, 15:36:29
Wer mehr Anspruch in dieser Beziehung sucht nutzt eh kein Bios für sowas.

So sieht es aus, gibt super Programme dafür, ich nutze z.b. Fan Control und wenn du damit deine Lüfter nicht vernünftig eingestellt bekommst sitzt das Problem vor dem PC.

https://i.imgur.com/fZ6C6ki.png

dargo
2024-01-25, 16:06:23
Ich auch schon lange. ;)

https://s20.directupload.net/images/240126/bx8f482r.jpg

Der_Korken
2024-01-26, 14:54:29
So sieht es aus, gibt super Programme dafür, ich nutze z.b. Fan Control und wenn du damit deine Lüfter nicht vernünftig eingestellt bekommst sitzt das Problem vor dem PC.

Das hängt imho maßgeblich davon ab, was man als Steuersignal nutzt. Die CPU-Temperatur (genauer gesagt: Tctl) ist - im Widerspruch zum Namen - absolut ungeeignet für die Steuerung eines CPU-Kühlers, weil die Hotspot-Temp der CPU nicht mit dem Verbrauch (und somit dem Bedarf nach Kühlleistung) korreliert bzw. über weite Strecken sogar antikorreliert. Umgehen kann man das Problem mit einem Temperatursensor, aber einen Anschluss dafür haben in der Regel nur höherpreisige Boards.

ChaosTM
2024-01-26, 15:15:50
Ich konnte meinen mit Brettmitteln zum Schweigen bringen. Jetzt ist aus dem Define 6 fast gar nichts mehr zu hören. Beim Cinebench und bei Star Citizen ist ein leises Rauschen vernehmbar, bei anderen Spielen herrscht Ruhe.

ist aber auch ein Noctua NH-D14..

Langlay
2024-01-26, 17:08:51
Das hängt imho maßgeblich davon ab, was man als Steuersignal nutzt. Die CPU-Temperatur (genauer gesagt: Tctl) ist - im Widerspruch zum Namen - absolut ungeeignet für die Steuerung eines CPU-Kühlers, weil die Hotspot-Temp der CPU nicht mit dem Verbrauch (und somit dem Bedarf nach Kühlleistung) korreliert bzw. über weite Strecken sogar antikorreliert. Umgehen kann man das Problem mit einem Temperatursensor, aber einen Anschluss dafür haben in der Regel nur höherpreisige Boards.


Ich weiss, ist aber so beabsichtigt von mir, die AIO Lüfter drehen bei <70°C Hotspot mit ~750 RPM und bei >80°C Hotspot mit ~1100 RPM. Letztes ist dann zwar hörbar aber nicht störend mit den 140er Noctuas. Mein Board hat zwar ein Temperatursensoranschluss aber ich hab ein Mini-ITX Gehäuse und im Normalbetrieb arbeiten nur die 2x 140mm Noctuas auf der AIO und besser etwas zuviel Airflow als zuwenig.

Ich hatte die Lüftersteuerung erst über die Wassertemp der AIO laufen, allerdings war das nicht so optimal weil der RAM dann in manchen Situationen (RAM Stresstest z.b.) relativ heiss geworden ist.

dargo
2024-01-26, 19:07:26
Falls einer Interesse an Fan Control hat empfehle ich dieses Video hier für den Einstieg.

CFeCzhlJqFQ

Der_Korken
2024-01-26, 19:08:10
Ich weiss, ist aber so beabsichtigt von mir, die AIO Lüfter drehen bei <70°C Hotspot mit ~750 RPM und bei >80°C Hotspot mit ~1100 RPM. Letztes ist dann zwar hörbar aber nicht störend mit den 140er Noctuas. Mein Board hat zwar ein Temperatursensoranschluss aber ich hab ein Mini-ITX Gehäuse und im Normalbetrieb arbeiten nur die 2x 140mm Noctuas auf der AIO und besser etwas zuviel Airflow als zuwenig.

Ich hatte die Lüftersteuerung erst über die Wassertemp der AIO laufen, allerdings war das nicht so optimal weil der RAM dann in manchen Situationen (RAM Stresstest z.b.) relativ heiss geworden ist.

Bekommst du bei der Kombo (Mini-ITX, durstige Graka, Steuerung über Hotspot-Temp) nicht massive Temp-Probleme mit dem Radiator bzw. dem Wasser? Der 5800X3D reißt doch in Spielen sicher kaum die 70°C während die GPU ordentlich das Gehäuse heizt?

Langlay
2024-01-26, 19:27:39
Bekommst du bei der Kombo (Mini-ITX, durstige Graka, Steuerung über Hotspot-Temp) nicht massive Temp-Probleme mit dem Radiator bzw. dem Wasser? Der 5800X3D reißt doch in Spielen sicher kaum die 70°C während die GPU ordentlich das Gehäuse heizt?

Ich hab mittlerweile einen 7800X3D der nochmal ~20W weniger verbraucht als der 5800X3D den ich vorher hatte. Die Kühlung der CPU ist bei mir nicht wirklich optimal, aber unkritisch. Die Luft im Gehäuse ist beim Gaming so ca 15°C höher als Raumtemperatur und die Graka ist ja undervolted und verbraucht so 220-300W je nach Spiel. Und wenn die Lüfter der Graka angehen gehen auch die Lüfter im Boden an die zusätzlich Luft aus dem Gehäuse schieben.